freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

神經(jīng)網(wǎng)絡(luò)在模式識(shí)別中的簡(jiǎn)單分析及應(yīng)用畢業(yè)論文-資料下載頁(yè)

2025-07-04 09:38本頁(yè)面

【導(dǎo)讀】行分析、描述與判斷的部分能力。它研究的目的就是利用計(jì)算機(jī)對(duì)物理對(duì)象進(jìn)行分類,在錯(cuò)誤概率最小的條件下,使識(shí)別的結(jié)果盡量與客觀事物相符合。能,因而具有學(xué)習(xí)、記憶和計(jì)算等智能處理功能。這樣人們利用人工神經(jīng)網(wǎng)絡(luò)具有高度。自適應(yīng)、自學(xué)習(xí)功能等突出特點(diǎn),可運(yùn)用MATLAB神經(jīng)網(wǎng)絡(luò)工具箱中的神經(jīng)網(wǎng)絡(luò)模型,現(xiàn)有啟發(fā)式模式識(shí)別系統(tǒng)不能很好解決的不變量探測(cè)、抽象和概括等問(wèn)題。壓縮等各個(gè)環(huán)節(jié)。使用機(jī)器來(lái)進(jìn)行模式的識(shí)別是一項(xiàng)非常有用的工作,能夠辨別符號(hào)等。系列的機(jī)器是很有價(jià)值的。目前,模式識(shí)別技術(shù)可以應(yīng)用指紋識(shí)別、IC卡技術(shù)應(yīng)用、字。模式識(shí)別成為人工神經(jīng)網(wǎng)絡(luò)特別適宜求解的一類問(wèn)題。技術(shù)在模式識(shí)別中也得到廣泛應(yīng)用與發(fā)展。盡我所知,除文中特別加。對(duì)本研究提供過(guò)幫助和做出過(guò)貢獻(xiàn)的個(gè)人或集體,均已在文中作了明確的說(shuō)明并表示了謝意。

  

【正文】 (5)當(dāng)均方 誤差未達(dá)到規(guī)定的誤差性能指標(biāo),且神經(jīng)元的數(shù)目未達(dá)到規(guī)定的上限時(shí),重復(fù)以上步驟,直到網(wǎng)絡(luò)的均方誤差或神經(jīng)元數(shù)目達(dá)到目標(biāo)值為止。 概率神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)也是一種徑向基神經(jīng)網(wǎng)絡(luò),具有一個(gè)徑向基網(wǎng)絡(luò)層和一個(gè)競(jìng)爭(zhēng)型網(wǎng)絡(luò)層,它常用于模式分類。創(chuàng)建概率神經(jīng)網(wǎng)絡(luò)的函數(shù)為 newpnn。 徑向基函數(shù) 神經(jīng)網(wǎng)絡(luò) 應(yīng)用 特征 模式的分類 本問(wèn)題中,分析以 PNN 完成簡(jiǎn)單的模式的分類情況,待分類的模式如 圖 315 所示 : 圖 315 待分類的模式 不妨 假定 三角形 為第一種模式, 圓 形為第二種模式,它們上下間距都為單位 1,由此建立模式樣本的位置,形成相應(yīng)的輸入向量。 建立網(wǎng)絡(luò)仿真訓(xùn)練,對(duì)待測(cè)試樣本進(jìn)行分類,得到識(shí)別結(jié)果。: %rbf 神經(jīng)網(wǎng)絡(luò)模式分類 clear all。 p=[0 0 0 1 1 1 1 1 1。0 1 1 0 1 1 0 1 1]。 ts=[1 1 2 2 1 1 1 2 1]。 t=ind2vec(ts)。 js=clock。 =newpnn(p,t,)。 tdata=etime(clock,js) y=sim(,p)。 iw1={1} b1={1} lw2={2} yc=vec2ind(y) 最后得到識(shí)別結(jié)果情況: iw1 = 0 0 0 1 0 1 1 0 1 1 1 1 1 0 1 1 1 1 lw2 = (1,1) 1 (1,2) 1 (2,3) 1 (2,4) 1 (1,5) 1 (1,6) 1 (1,7) 1 (2,8) 1 (1,9) 1 yc = 1 1 2 2 1 1 1 2 1 結(jié)果 可以說(shuō)很好的完成分類,該徑向基函數(shù)網(wǎng)絡(luò)優(yōu)勢(shì)就在于其創(chuàng)建和訓(xùn)練網(wǎng)絡(luò)的速度很快,特別適合實(shí)時(shí)控制效率精度要求都很高的環(huán)境。 基于自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)的模式識(shí)別 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)是一類無(wú)監(jiān)督競(jìng)爭(zhēng)型學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型, 具有自組織能力的神經(jīng)網(wǎng)絡(luò), 可以對(duì)樣本空間進(jìn)行學(xué)習(xí)或仿真,并對(duì)自身的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行適當(dāng)?shù)卣{(diào)整修正。競(jìng)爭(zhēng)型神經(jīng)網(wǎng)絡(luò)適用于具有明顯分類特征的模式分明類,但是有兩個(gè)輸入向量非常接近時(shí),競(jìng)爭(zhēng)型就把它們歸為一類。當(dāng)引入自組織映射網(wǎng)絡(luò)進(jìn)行嚴(yán)格的指定目標(biāo)分類結(jié)果 時(shí) ,網(wǎng)絡(luò) 則 可以完成對(duì)輸入向量模式的準(zhǔn)確分類。 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò) 基本思想 自組織競(jìng)爭(zhēng)人工神經(jīng)網(wǎng)絡(luò) ,在網(wǎng)絡(luò)結(jié)構(gòu)上,一般是由輸入層和競(jìng)爭(zhēng)層構(gòu)成的兩層網(wǎng)絡(luò),網(wǎng)絡(luò)沒(méi)有隱含層 。輸入層和競(jìng)爭(zhēng)層之間的神經(jīng)元實(shí)現(xiàn)雙向連接,同時(shí)競(jìng)爭(zhēng)層各個(gè)神經(jīng)元之間還存在橫向連接。在學(xué)習(xí)算法上,它模擬生物神經(jīng)系統(tǒng)依靠神經(jīng)元之間興奮、協(xié)調(diào)與抑制、競(jìng)爭(zhēng)的作用來(lái)進(jìn)行信號(hào)處理的動(dòng)力學(xué)原理,指導(dǎo)網(wǎng)絡(luò)的學(xué)習(xí)與工作。 它的基本思想就是網(wǎng)絡(luò)競(jìng)爭(zhēng)層各個(gè)神經(jīng)元競(jìng)爭(zhēng)對(duì)輸入模式的響應(yīng)機(jī)會(huì),最后僅有一個(gè)神經(jīng)元成為競(jìng)爭(zhēng)的獲勝者, 并對(duì)那些與獲勝神經(jīng)元有關(guān)的各個(gè)連接權(quán)值朝向更有利于競(jìng)爭(zhēng)的方向調(diào)整,獲勝神經(jīng)元表示輸入模式的分類。 除了競(jìng)爭(zhēng)方法外,還可以通過(guò)另一種手段獲勝,即網(wǎng)絡(luò)競(jìng)爭(zhēng)層各神經(jīng)元都能抑制所有其他神經(jīng)元對(duì)輸入模式的響應(yīng)機(jī)會(huì),從而 使自己成為獲勝者。此外還有一種抑制的方法,即每個(gè)神經(jīng)元只抑制與自己鄰近的神經(jīng)元,而對(duì)遠(yuǎn)離自己的神經(jīng)元?jiǎng)t不抑制。因此,自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)具有自組織自適應(yīng)的學(xué)習(xí)能力,進(jìn)一步拓寬神經(jīng)網(wǎng)絡(luò)在模式識(shí)別、分類方面的應(yīng)用。 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò) 設(shè)計(jì)模式分類器 的應(yīng)用 (1)問(wèn)題描述 通過(guò)了解自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)特征,可以清楚明白它適合在模式分類中應(yīng)用.現(xiàn)在給網(wǎng)絡(luò)輸入一些類別的樣本向量,經(jīng)過(guò)訓(xùn)練后,網(wǎng)絡(luò)調(diào)整權(quán)值。對(duì)于以后輸入的向量,網(wǎng)絡(luò)能夠?qū)⑺鼈冇行У恼_分類。使用 nngenc 函數(shù)來(lái)產(chǎn)生一定類別的樣本向量。 nngenc函數(shù)有四個(gè)參數(shù),第一個(gè)用于指定類中心的范圍,第二個(gè)用于指定類別的數(shù)目,第三個(gè)用于指定每一類的樣本點(diǎn)的數(shù)目,第四個(gè)用于指定每一類樣本的標(biāo)準(zhǔn)差。 在本問(wèn)題中,我們不妨假定指定類中心范圍為 0~ 1,類別數(shù)目為 5,每一個(gè)類別有 20 個(gè)樣本點(diǎn),每一類樣本的標(biāo)準(zhǔn)差為 。 %產(chǎn)生指定類別的樣本點(diǎn),并在圖中繪出 X = [0 1。 0 1]。 % 限制類中心的范圍 clusters = 5。 % 指定類別數(shù)目 points = 20。 % 指定每一類的點(diǎn)的數(shù)目 dev = 。 % 每 一類的標(biāo)準(zhǔn)差 P = nngenc(X,clusters,points,dev)。 plot(P(1,:),P(2,:),39。r*39。)。 title(39。輸入樣本向量 39。)。 xlabel(39。p(1)39。)。 ylabel(39。p(2)39。)。 從而得到這些輸入樣本點(diǎn)的分布大致情況 如圖 316 所示 : 圖 316 輸入樣本點(diǎn)的分布情況 從上圖可以看出,這些隨機(jī)產(chǎn)生的樣本向量被設(shè)計(jì)成五類,下面就是要對(duì)這些已知的分類樣本進(jìn)行學(xué)習(xí),調(diào)整網(wǎng)絡(luò)的權(quán)值,使得以后對(duì)網(wǎng)絡(luò)的輸入向量能夠進(jìn)行正確的分類。 (2)建立網(wǎng)絡(luò),初始化并訓(xùn)練網(wǎng) 絡(luò) 、最后進(jìn)行網(wǎng)絡(luò)測(cè)試 首先使用 newc 建立自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò),同時(shí)設(shè)置好網(wǎng)絡(luò)的神經(jīng)元數(shù)目以及學(xué)習(xí)速率 ,那么就可以對(duì)網(wǎng)絡(luò)初始化。 %建立網(wǎng)絡(luò) =newc([0 1。0 1],5,)。 %設(shè)置神經(jīng)元數(shù)目為 5 %得到網(wǎng)絡(luò)權(quán)值,并在圖上繪出 figure。 plot(P(1,:),P(2,:),39。r*39。)。 w={1} hold on。 plot(w(:,1),w(:,2),39。bo39。)。 hold off。 title(39。輸入樣本向量及初始權(quán)值 39。)。 xlabel(39。p(1)39。)。 ylabel(39。p(2)39。)。 figure。 plot(P(1,:),P(2,:),39。r*39。)。 hold on。 同時(shí)顯示輸入樣本向量與網(wǎng)絡(luò)初始化權(quán)值分布的情況 如圖 317 所示 : 圖 317 輸入樣本向量與網(wǎng)絡(luò)初始化權(quán)值分布的情況 由此得到網(wǎng)絡(luò)初始化權(quán)值為: w = 接下來(lái)就是對(duì)網(wǎng)絡(luò)訓(xùn)練,可以根據(jù)樣本向 量的分布情況調(diào)整網(wǎng)絡(luò)的權(quán)值,使用 train函數(shù)來(lái)對(duì)網(wǎng)絡(luò)訓(xùn)練,這里我們?cè)O(shè)置最大訓(xùn)練步數(shù) 25。 %訓(xùn)練網(wǎng)絡(luò) =25。 =init()。 =train(,P)。 %得到訓(xùn)練后的網(wǎng)絡(luò)權(quán)值,并在圖上繪出 w={1} plot(w(:,1),w(:,2),39。bo39。)。 hold off。 title(39。輸入樣本向量及更新后的權(quán)值 39。)。 xlabel(39。p(1)39。)。 ylabel(39。p(2)39。)。 a=0。 p = [ 。]。 a=sim(,p) 同時(shí)顯示標(biāo)記輸入樣本向量 *與訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層權(quán)值 0 分布的情況 如圖 318 所示 : 圖 318 輸入樣本向量 *與訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層權(quán)值 o 分布的情況 由此得到訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層的權(quán)值 和網(wǎng)絡(luò)測(cè)試結(jié)果為 : TRAINR, Epoch 0/25 TRAINR, Epoch 25/25 TRAINR, Maximum epoch reached. w = a = (1,1) 1 (3)實(shí)驗(yàn)分析與總結(jié) 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)對(duì)給定的輸入向量能夠進(jìn)行正確分類,也能夠?qū)W習(xí)輸入向量的分布。特別的當(dāng)涉及輸入向量密度很大時(shí),就需要增加神經(jīng)元數(shù)目來(lái)進(jìn)行網(wǎng)絡(luò)訓(xùn)練,從而更好地解決輸入向量模式分類。 實(shí)驗(yàn)具體代碼見附錄四 2。 基于反饋型神經(jīng)網(wǎng)絡(luò)的模式識(shí)別 反饋型神經(jīng)網(wǎng)絡(luò)是一種從輸出到輸入具有反饋連接的神經(jīng)網(wǎng)絡(luò),結(jié)構(gòu)要比前饋型網(wǎng)絡(luò)復(fù)雜得多。 Elman 網(wǎng)絡(luò)和 Hopfield 網(wǎng)絡(luò)是最具典型的反 饋型神經(jīng)網(wǎng)絡(luò)。 反饋型神經(jīng)網(wǎng)絡(luò)模型 簡(jiǎn)述 Elman 網(wǎng)絡(luò)是兩層反向傳播網(wǎng)絡(luò),隱層和輸入向量連接的神經(jīng)元,其輸出不僅作為輸出層的輸入,還連接隱含層內(nèi)的另外神經(jīng)元,反饋給隱含層的輸入。再有由于其輸入表示信號(hào)的空間信息,而反饋支路是一個(gè)延時(shí)單元,反映信號(hào)的時(shí)間信息,這樣 Elman網(wǎng)絡(luò)就可以在時(shí)間和空間進(jìn)行模式識(shí)別。 Hopfield 網(wǎng)絡(luò)是由相同的神經(jīng)元構(gòu)成的單層,并具有學(xué)習(xí)功能的自我聯(lián)想記憶網(wǎng)絡(luò),可以完成制約優(yōu)化和聯(lián)想記憶等功能。 在 MATLAB 神經(jīng)網(wǎng)絡(luò)工具箱中, Elman 網(wǎng)絡(luò)的設(shè)計(jì)函數(shù)是 newelm, Hopfield 網(wǎng)絡(luò)的設(shè)計(jì)函數(shù)是 newhop。 反饋型神經(jīng)網(wǎng)絡(luò) 在工程領(lǐng)域的應(yīng)用 下面通過(guò)建立 Elman 神經(jīng)網(wǎng)絡(luò)應(yīng)用在識(shí)別振幅檢測(cè)的的實(shí)例 (1)問(wèn)題分析 Elman 神經(jīng)網(wǎng)絡(luò)能在有限的時(shí)間內(nèi)以任意精度逼近任意函數(shù),通常它由兩層網(wǎng)絡(luò)結(jié)構(gòu)組成,存在從第一層的輸出到第一層輸入的反饋,這種反饋連接的結(jié)構(gòu)使得其被訓(xùn)練 后不僅能夠識(shí)別和產(chǎn)生空域模式,還能夠產(chǎn)生識(shí)別和產(chǎn)生時(shí)域模式。首先我們定義兩個(gè)正弦波形函數(shù),一個(gè)振幅為 1,另外一個(gè)為 2,將兩組波形組合一個(gè)序列,需要使用函數(shù) con2seq 來(lái)把它們從矩陣信號(hào)轉(zhuǎn)化成序 列信號(hào) 。 %定義輸入信號(hào)及目標(biāo)信號(hào) clear all。 Time=1:80。 p1=sin(1:20)。 p2=sin(1:20)*2。 t1=ones(1,20)。 t2=ones(1,20)*2。 p=[p1 p2 p1 p2]。 t=[t1 t2 t1 t2]。 Ps=con2seq(p)。 Ts=con2seq(t)。 其中 p1, p2 作為 Elman 神經(jīng)網(wǎng)絡(luò)的輸入, p1 的幅值為 1, p2 的幅值為 2,信號(hào)波形如圖 319 所示。 %繪制信號(hào)波形 p1 和 p2 x=1::40。 p1=sin(x)。 p2=sin(x)*2。 plot(x,p1,39。r39。)。 hold on plot(x,p2,39。b*39。)。 hold on 圖 319 信號(hào)波形 p1 和 p2 情況 由函數(shù) con2seq 來(lái)把它們從矩陣信號(hào)轉(zhuǎn)化成序列信號(hào),繪制輸入信號(hào)和目標(biāo)信號(hào)的曲線所圖 320 所示。 圖 320 輸入信號(hào)和目標(biāo)信號(hào)的曲線 (2)網(wǎng)絡(luò)初始化,訓(xùn)練仿真并測(cè)試網(wǎng)絡(luò) ,得出識(shí)別結(jié)果。 我們需要使用 Elman 神經(jīng)網(wǎng)絡(luò)檢測(cè)一個(gè)單個(gè)輸入值,并且在每一個(gè)時(shí)間步長(zhǎng)上輸出一個(gè)單值信號(hào),于是可以設(shè)計(jì)網(wǎng)絡(luò) 參數(shù)。將第一層設(shè)計(jì) 8 個(gè)遞歸神經(jīng)元,設(shè)置訓(xùn)練時(shí)間步長(zhǎng)為 800 時(shí)間單位,采用 traingdx 函數(shù)來(lái)學(xué)習(xí)速率,從而有: %開始生成網(wǎng)絡(luò) R=1。 % 一個(gè)輸入元件 S2=1。 % 第二層一個(gè)輸出神經(jīng)元 S1=8。% 在第一層中包含 8 個(gè)遞歸神經(jīng)元單元 =newelm([3 3],[S1 S2],{39。tansig39。,39。purelin39。},39。traingdx39。)。 %訓(xùn)練網(wǎng)絡(luò) = 300。 %設(shè)置訓(xùn)練時(shí)間為 300 個(gè)時(shí)間單位 [,tr]=train(,Ps,Ts)。 %開始測(cè)試網(wǎng)絡(luò)性能 a1 = sim(,Ps)。 %繪出輸出信號(hào)及目標(biāo)信號(hào)曲線 figure。 plot(Time,cat(2,a1{:}),Time,cat(2,Ts{:}),39。r*39。)。 xlabel(39。時(shí)間 39。)。 ylabel(39。輸出及目標(biāo) 39。)。 title(39。輸出信號(hào)及目標(biāo)信號(hào) 39。)。 得到 輸出信號(hào)及目標(biāo)信號(hào)曲線 所圖 321 所示 圖 321 輸出信號(hào)及目標(biāo)信號(hào)曲線 最后 得到 測(cè)試網(wǎng)絡(luò)輸出結(jié)果 ,其識(shí)別情況 所圖 322 所示。 TRAINGDX, Epoch 0/300, MSE , Gradient TRAINGDX, Epoch 25/300, MSE , Gradient TRAINGDX, Epoch 50/300, MSE , Gradient TRAINGDX, Epoch 75/300, MSE , Gradient TRAINGDX, Epoch 100/300, MSE , Gradient TRAINGDX, Epoch 125/300, MSE , Gradient TRAINGDX, Epoch 150/300, MSE , Gradient TRAINGDX, Epoch 175/300, MS
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1