freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

神經(jīng)網(wǎng)絡(luò)在模式識(shí)別中的簡(jiǎn)單分析及應(yīng)用畢業(yè)論文-wenkub

2023-07-11 09:38:53 本頁(yè)面
 

【正文】 習(xí)過程實(shí)際是調(diào)節(jié)權(quán)值和閥值的過程。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng)根據(jù)一定的學(xué)習(xí)規(guī)則進(jìn)行學(xué)習(xí),每次學(xué)習(xí)過程完成后。強(qiáng)化學(xué)習(xí) 就介于有監(jiān)督學(xué)習(xí)和無監(jiān)督學(xué)習(xí)兩種方式之間,如圖 24 所示。神經(jīng)網(wǎng)絡(luò)中每個(gè)神經(jīng)元都可以根據(jù)接受到的信息進(jìn)行獨(dú)立的運(yùn)算和處理,并輸出計(jì)算結(jié)果,同一層的各個(gè)神經(jīng)元的輸出結(jié)果可以被同時(shí)計(jì)算出來,然后傳輸給下一層做進(jìn)一步處理,體現(xiàn)了神經(jīng)網(wǎng)絡(luò)并行處理運(yùn)算的特點(diǎn),這使得它具有很強(qiáng)的實(shí)時(shí)性。人根據(jù)聯(lián)想記憶可以正確識(shí)別圖形,人工神經(jīng)網(wǎng)絡(luò)就采神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng) 誤差分析 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng) 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng) 外部環(huán)境 用聯(lián)想記憶的辦法來獲得存儲(chǔ)的知識(shí),保證網(wǎng)絡(luò)的正確性,提高了網(wǎng)絡(luò)的容錯(cuò)性和魯棒性。 目前有很多神經(jīng)網(wǎng)絡(luò)模型可以善于模式識(shí)別。 縱觀人工神經(jīng)網(wǎng)絡(luò)特點(diǎn),神經(jīng)網(wǎng)絡(luò)處理模式識(shí)別問題上,相比其他傳統(tǒng)方法,具有以下優(yōu)點(diǎn):首先對(duì)所處理的問題的了解要求不是很多;其次就是可以對(duì)特征空間進(jìn)行更為復(fù)雜的劃分;再次它適用于高速并 行處理系統(tǒng)的實(shí)現(xiàn)。 目前,最著名的多層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法應(yīng)該是 BP 算法。 神經(jīng)網(wǎng)絡(luò)模型 簡(jiǎn)述 前饋型神經(jīng)網(wǎng)絡(luò)通常含有一個(gè)或多個(gè)隱層,隱層中的神經(jīng)元基本均采用 S 型傳遞函數(shù),輸出層的神經(jīng)元采用線性傳遞函數(shù)。 輸入向量 神經(jīng)元 圖 31 BP 神經(jīng)網(wǎng)絡(luò)簡(jiǎn)單模型 1()n iiia f w p ????? 學(xué)習(xí)算法 BP 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法解決了多層感知器的學(xué)習(xí)問題,促進(jìn)了神經(jīng)網(wǎng)絡(luò)的發(fā)展。 (2)誤差信號(hào)反向傳播:指的是網(wǎng)絡(luò)的實(shí)際輸出與期望輸出之間差值即為誤差信號(hào),誤差信號(hào)由輸出端開始逐層向前傳播。針對(duì) BP 算法這些缺點(diǎn),出現(xiàn)了許多改進(jìn)算法。 ① 有動(dòng)量的梯度下降法 在神經(jīng)網(wǎng)絡(luò)工具箱中, traindm 函數(shù)采用了有動(dòng)量的梯度下降法。要是在訓(xùn)練過程中合理地修改學(xué)習(xí)速率,可能會(huì)避開一些缺陷,從而增加穩(wěn)定性,提高學(xué)習(xí)速度和精度。前饋型神經(jīng)網(wǎng)絡(luò)的表現(xiàn)函數(shù)缺省為網(wǎng)絡(luò)輸出 a和期望輸出向量 T 的均方差 mse。 神經(jīng)網(wǎng)絡(luò) 應(yīng)用于字符識(shí)別 (1)問題描述 設(shè)計(jì)一個(gè) BP 網(wǎng)絡(luò)并訓(xùn)練它來識(shí)別字母表中的 26 個(gè)字母,最后結(jié)果是對(duì)應(yīng)每個(gè)字母有一個(gè) 5 7 的布爾量網(wǎng)格,但是實(shí)際得到的字母網(wǎng)絡(luò)圖存在一些非線性因素或者噪聲干擾,因此設(shè)計(jì)出來的網(wǎng)絡(luò)不僅要 能夠?qū)硐氲妮斎胂蛄窟M(jìn)行很好的分類,也要對(duì)誤差的輸入向量具有合理的準(zhǔn)確度量。向量代表某個(gè)字母,則對(duì)應(yīng)位置的元素值為 1, 而其他位置對(duì)應(yīng)的值為 0。那么設(shè)計(jì)好訓(xùn)練網(wǎng)絡(luò)后,就是要使其輸出向量中正確的位置值為 1,其余為 0,但是有非線性因素和噪聲信號(hào)的干擾,網(wǎng)絡(luò)可能就不是那么精確輸出值為 1 或 0,這就需要在訓(xùn)練之后,引入有噪聲的字母信號(hào)輸入網(wǎng)絡(luò),就可以實(shí)現(xiàn)我們的目標(biāo)值。 S1=10。 39。)。 其中在 matlab 神經(jīng)網(wǎng)絡(luò)工具箱中有 prprob 函數(shù) 為 : help prprob PRPROB Character recognition problem definition [ALHABET,TARGETS] = PRPROB() Returns: ALPHABET 35x26 matrix of 5x7 bit maps for each letter. TARGETS 26x26 target vectors. 接下來,為了使得產(chǎn)生的網(wǎng)絡(luò)對(duì)輸入向量有一定的容錯(cuò)能力,可以通過使用理想的信號(hào)和帶有噪聲的信號(hào)對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,這樣使用 20 組理想信號(hào)和帶有噪聲的信號(hào)對(duì)網(wǎng) 絡(luò)訓(xùn)練,開始使用無噪聲的信號(hào)訓(xùn)練,當(dāng)訓(xùn)練時(shí)間達(dá)到 5000 個(gè)時(shí)間單位或者網(wǎng)絡(luò)的平方和誤差小于 時(shí)停止網(wǎng)絡(luò)的訓(xùn)練。 =20。 結(jié)果訓(xùn)練誤差變化情況如圖 32 所示,得到其曲線能在 比較快的時(shí)間內(nèi)達(dá)到網(wǎng)絡(luò)訓(xùn)練指標(biāo)性能。 =300。 end 最后為了保證網(wǎng)絡(luò)總是能夠正確的對(duì)理想輸入信號(hào)進(jìn)行分類,需要再次對(duì)無噪聲信號(hào)進(jìn)行訓(xùn)練。sse39。 =。 %測(cè)試網(wǎng)絡(luò)的容錯(cuò)性 noise_range=0::。 errors1(i)=0。 % 測(cè)試未經(jīng)誤差訓(xùn)練的網(wǎng)絡(luò) AA=pet(A)。 errors2(i)=errors2(i)+sum(sum(abs(AAnewT)))/2。 title(39。噪聲指標(biāo) 39。)。 A2=sim(,noisyJ)。 plotchar(alphabet(:,answer))。 結(jié)果 得到含噪聲的輸入字母和網(wǎng)絡(luò)識(shí)別后的輸出字母圖,可以看出設(shè)計(jì)的網(wǎng) 絡(luò)能正確識(shí)別出相應(yīng)的字母。它對(duì)于每個(gè)訓(xùn)練樣品,只要對(duì)少量的權(quán)值和閥值進(jìn)行修正,這樣就提高了訓(xùn)練速度。 輸出層, 即 線性網(wǎng)絡(luò)層, 對(duì)隱層神經(jīng)元輸出的信息進(jìn)行線性加權(quán)后輸出,得到整個(gè)神經(jīng)網(wǎng)絡(luò)的輸出結(jié)果 , 如圖 314 所示。 (2)找到誤差最大的一個(gè)輸入樣本。創(chuàng)建概率神經(jīng)網(wǎng)絡(luò)的函數(shù)為 newpnn。 p=[0 0 0 1 1 1 1 1 1。 js=clock。 基于自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)的模式識(shí)別 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)是一類無監(jiān)督競(jìng)爭(zhēng)型學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型, 具有自組織能力的神經(jīng)網(wǎng)絡(luò), 可以對(duì)樣本空間進(jìn)行學(xué)習(xí)或仿真,并對(duì)自身的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行適當(dāng)?shù)卣{(diào)整修正。輸入層和競(jìng)爭(zhēng)層之間的神經(jīng)元實(shí)現(xiàn)雙向連接,同時(shí)競(jìng)爭(zhēng)層各個(gè)神經(jīng)元之間還存在橫向連接。此外還有一種抑制的方法,即每個(gè)神經(jīng)元只抑制與自己鄰近的神經(jīng)元,而對(duì)遠(yuǎn)離自己的神經(jīng)元?jiǎng)t不抑制。使用 nngenc 函數(shù)來產(chǎn)生一定類別的樣本向量。 0 1]。 % 每 一類的標(biāo)準(zhǔn)差 P = nngenc(X,clusters,points,dev)。 title(39。p(1)39。)。0 1],5,)。)。)。)。 ylabel(39。 plot(P(1,:),P(2,:),39。 同時(shí)顯示輸入樣本向量與網(wǎng)絡(luò)初始化權(quán)值分布的情況 如圖 317 所示 : 圖 317 輸入樣本向量與網(wǎng)絡(luò)初始化權(quán)值分布的情況 由此得到網(wǎng)絡(luò)初始化權(quán)值為: w = 接下來就是對(duì)網(wǎng)絡(luò)訓(xùn)練,可以根據(jù)樣本向 量的分布情況調(diào)整網(wǎng)絡(luò)的權(quán)值,使用 train函數(shù)來對(duì)網(wǎng)絡(luò)訓(xùn)練,這里我們?cè)O(shè)置最大訓(xùn)練步數(shù) 25。 %得到訓(xùn)練后的網(wǎng)絡(luò)權(quán)值,并在圖上繪出 w={1} plot(w(:,1),w(:,2),39。 title(39。p(1)39。)。 a=sim(,p) 同時(shí)顯示標(biāo)記輸入樣本向量 *與訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層權(quán)值 0 分布的情況 如圖 318 所示 : 圖 318 輸入樣本向量 *與訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層權(quán)值 o 分布的情況 由此得到訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層的權(quán)值 和網(wǎng)絡(luò)測(cè)試結(jié)果為 : TRAINR, Epoch 0/25 TRAINR, Epoch 25/25 TRAINR, Maximum epoch reached. w = a = (1,1) 1 (3)實(shí)驗(yàn)分析與總結(jié) 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)對(duì)給定的輸入向量能夠進(jìn)行正確分類,也能夠?qū)W習(xí)輸入向量的分布。 Elman 網(wǎng)絡(luò)和 Hopfield 網(wǎng)絡(luò)是最具典型的反 饋型神經(jīng)網(wǎng)絡(luò)。 在 MATLAB 神經(jīng)網(wǎng)絡(luò)工具箱中, Elman 網(wǎng)絡(luò)的設(shè)計(jì)函數(shù)是 newelm, Hopfield 網(wǎng)絡(luò)的設(shè)計(jì)函數(shù)是 newhop。 Time=1:80。 t2=ones(1,20)*2。 Ts=con2seq(t)。 p2=sin(x)*2。 hold on plot(x,p2,39。 圖 320 輸入信號(hào)和目標(biāo)信號(hào)的曲線 (2)網(wǎng)絡(luò)初始化,訓(xùn)練仿真并測(cè)試網(wǎng)絡(luò) ,得出識(shí)別結(jié)果。 % 第二層一個(gè)輸出神經(jīng)元 S1=8。purelin39。 %訓(xùn)練網(wǎng)絡(luò) = 300。 plot(Time,cat(2,a1{:}),Time,cat(2,Ts{:}),39。時(shí)間 39。)。 得到 輸出信號(hào)及目標(biāo)信號(hào)曲線 所圖 321 所示 圖 321 輸出信號(hào)及目標(biāo)信號(hào)曲線 最后 得到 測(cè)試網(wǎng)絡(luò)輸出結(jié)果 ,其識(shí)別情況 所圖 322 所示。輸出信號(hào)及目標(biāo)信號(hào) 39。 ylabel(39。)。 %開始測(cè)試網(wǎng)絡(luò)性能 a1 = sim(,Ps)。traingdx39。tansig39。將第一層設(shè)計(jì) 8 個(gè)遞歸神經(jīng)元,設(shè)置訓(xùn)練時(shí)間步長(zhǎng)為 800 時(shí)間單位,采用 traingdx 函數(shù)來學(xué)習(xí)速率,從而有: %開始生成網(wǎng)絡(luò) R=1。)。r39。 %繪制信號(hào)波形 p1 和 p2 x=1::40。 t=[t1 t2 t1 t2]。 p2=sin(1:20)*2。首先我們定義兩個(gè)正弦波形函數(shù),一個(gè)振幅為 1,另外一個(gè)為 2,將兩組波形組合一個(gè)序列,需要使用函數(shù) con2seq 來把它們從矩陣信號(hào)轉(zhuǎn)化成序 列信號(hào) 。再有由于其輸入表示信號(hào)的空間信息,而反饋支路是一個(gè)延時(shí)單元,反映信號(hào)的時(shí)間信息,這樣 Elman網(wǎng)絡(luò)就可以在時(shí)間和空間進(jìn)行模式識(shí)別。 實(shí)驗(yàn)具體代碼見附錄四 2。 p = [ 。 ylabel(39。)。)。 =init()。)。)。p(1)39。 title(39。 plot(w(:,1),w(:,2),39。 plot(P(1,:),P(2,:),39。 (2)建立網(wǎng)絡(luò),初始化并訓(xùn)練網(wǎng) 絡(luò) 、最后進(jìn)行網(wǎng)絡(luò)測(cè)試 首先使用 newc 建立自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò),同時(shí)設(shè)置好網(wǎng)絡(luò)的神經(jīng)元數(shù)目以及學(xué)習(xí)速率 ,那么就可以對(duì)網(wǎng)絡(luò)初始化。 ylabel(39。)。r*39。 % 指定類別數(shù)目 points = 20。 在本問題中,我們不妨假定指定類中心范圍為 0~ 1,類別數(shù)目為 5,每一個(gè)類別有 20 個(gè)樣本點(diǎn),每一類樣本的標(biāo)準(zhǔn)差為 。 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò) 設(shè)計(jì)模式分類器 的應(yīng)用 (1)問題描述 通過了解自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)特征,可以清楚明白它適合在模式分類中應(yīng)用.現(xiàn)在給網(wǎng)絡(luò)輸入一些類別的樣本向量,經(jīng)過訓(xùn)練后,網(wǎng)絡(luò)調(diào)整權(quán)值。 它的基本思想就是網(wǎng)絡(luò)競(jìng)爭(zhēng)層各個(gè)神經(jīng)元競(jìng)爭(zhēng)對(duì)輸入模式的響應(yīng)機(jī)會(huì),最后僅有一個(gè)神經(jīng)元成為競(jìng)爭(zhēng)的獲勝者, 并對(duì)那些與獲勝神經(jīng)元有關(guān)的各個(gè)連接權(quán)值朝向更有利于競(jìng)爭(zhēng)的方向調(diào)整,獲勝神經(jīng)元表示輸入模式的分類。當(dāng)引入自組織映射網(wǎng)絡(luò)進(jìn)行嚴(yán)格的指定目標(biāo)分類結(jié)果 時(shí) ,網(wǎng)絡(luò) 則 可以完成對(duì)輸入向量模式的準(zhǔn)確分類。 tdata=etime(clock,js) y=sim(,p)。 ts=[1 1 2 2 1 1 1 2 1]。 建立網(wǎng)絡(luò)仿真訓(xùn)練,對(duì)待測(cè)試樣本進(jìn)行分類,得到識(shí)別結(jié)果。 (5)當(dāng)均方 誤差未達(dá)到規(guī)定的誤差性能指標(biāo),且神經(jīng)元的數(shù)目未達(dá)到規(guī)定的上限時(shí),重復(fù)以上步驟,直到網(wǎng)絡(luò)的均方誤差或神經(jīng)元數(shù)目達(dá)到目標(biāo)值為止。下面主要說明newrb 創(chuàng)建徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的過程。 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)模型 簡(jiǎn)述 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)是一種前饋反向傳播網(wǎng)絡(luò), 輸入層由信號(hào)源結(jié)點(diǎn)構(gòu)成,起到數(shù)據(jù)信息的傳遞作用。 實(shí)驗(yàn)具體代碼見附錄四 1。 圖 33 識(shí)別結(jié)果錯(cuò)誤率模擬曲線 由圖 33 曲線顯示,實(shí)線是經(jīng)過噪聲信號(hào)和非噪聲信號(hào)訓(xùn)練后的網(wǎng)絡(luò),具有很高的可靠性性能。 answer=find(pet(A2)==1)。 figure。 ylabel(39。)。39。 % 測(cè)試經(jīng)過誤差訓(xùn)練的網(wǎng)絡(luò) Anew=sim(new,P)。 for j=1:max_test P=alphabet+randn(35,26)*noiselevel(i)。 T=targets。 為了測(cè)試設(shè)計(jì)的神經(jīng)網(wǎng)絡(luò)模式識(shí)別系統(tǒng)的可靠性,用數(shù)百個(gè)加入不同數(shù)量噪聲的字母表向量作為輸入,來觀察其輸出結(jié)果,并對(duì)系統(tǒng)性能做出合理地評(píng)估。 =50。 T=targets。 pause for pass=1:20 P=[alphabet,alphabet,... (alphabet+randn(R,Q)*),... (alphabet+randn(R,Q)*)]。 %網(wǎng)絡(luò)訓(xùn)練參數(shù)設(shè)置 ,并對(duì)有誤差輸入向量進(jìn)行訓(xùn)練 new=。 =。sse39。 {2}={2}*。},39。 = newff(minmax(P),[S1 S2],{39。 [R,Q]=size(alphabet)。 (2)設(shè)計(jì) BP 網(wǎng)絡(luò) ,初始化 并訓(xùn)練網(wǎng)絡(luò) 建立一個(gè)有兩層結(jié)構(gòu)的 logsig 網(wǎng)絡(luò),它的輸出范圍在 0- 1 間,同時(shí)需要 35 個(gè)輸入,在輸出層需要 26 個(gè)神經(jīng)元。目標(biāo)向量也可以被定義成一個(gè)變量 targets(目標(biāo)集 )。 執(zhí)行結(jié)果是創(chuàng)建一個(gè) N 層的 BP 神經(jīng)網(wǎng)絡(luò)。 無論是函數(shù)逼近還是模式識(shí)別,都必須對(duì)神經(jīng)網(wǎng)絡(luò)訓(xùn)練。 其 訓(xùn)練函數(shù) 調(diào)整參數(shù) , 詳見附錄三 。 所謂啟發(fā)式算法就是對(duì)于表現(xiàn)函數(shù)梯度加以分析,從而改進(jìn)算法,其中包括:有動(dòng)量的梯度下降法 (traingdm)、有自適應(yīng) lr 的下降法 (traingda)、有動(dòng)量和自適應(yīng) lr 的梯度下降法 (traingdx)和 彈性梯度下降法 法 (tr
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖片鄂ICP備17016276號(hào)-1