freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

神經(jīng)網(wǎng)絡(luò)在模式識(shí)別中的簡(jiǎn)單分析及應(yīng)用畢業(yè)論文(完整版)

  

【正文】 (p)。)。 % 一個(gè)輸入元件 S2=1。)。 xlabel(39。)。輸出及目標(biāo) 39。 %繪出輸出信號(hào)及目標(biāo)信號(hào)曲線 figure。,39。 hold on 圖 319 信號(hào)波形 p1 和 p2 情況 由函數(shù) con2seq 來(lái)把它們從矩陣信號(hào)轉(zhuǎn)化成序列信號(hào),繪制輸入信號(hào)和目標(biāo)信號(hào)的曲線所圖 320 所示。 p1=sin(x)。 t1=ones(1,20)。 Hopfield 網(wǎng)絡(luò)是由相同的神經(jīng)元構(gòu)成的單層,并具有學(xué)習(xí)功能的自我聯(lián)想記憶網(wǎng)絡(luò),可以完成制約優(yōu)化和聯(lián)想記憶等功能。]。 xlabel(39。 =train(,P)。 figure。輸入樣本向量及初始權(quán)值 39。r*39。p(2)39。)。 %產(chǎn)生指定類別的樣本點(diǎn),并在圖中繪出 X = [0 1。 除了競(jìng)爭(zhēng)方法外,還可以通過(guò)另一種手段獲勝,即網(wǎng)絡(luò)競(jìng)爭(zhēng)層各神經(jīng)元都能抑制所有其他神經(jīng)元對(duì)輸入模式的響應(yīng)機(jī)會(huì),從而 使自己成為獲勝者。 iw1={1} b1={1} lw2={2} yc=vec2ind(y) 最后得到識(shí)別結(jié)果情況: iw1 = 0 0 0 1 0 1 1 0 1 1 1 1 1 0 1 1 1 1 lw2 = (1,1) 1 (1,2) 1 (2,3) 1 (2,4) 1 (1,5) 1 (1,6) 1 (1,7) 1 (2,8) 1 (1,9) 1 yc = 1 1 2 2 1 1 1 2 1 結(jié)果 可以說(shuō)很好的完成分類,該徑向基函數(shù)網(wǎng)絡(luò)優(yōu)勢(shì)就在于其創(chuàng)建和訓(xùn)練網(wǎng)絡(luò)的速度很快,特別適合實(shí)時(shí)控制效率精度要求都很高的環(huán)境。: %rbf 神經(jīng)網(wǎng)絡(luò)模式分類 clear all。 用 newrb 創(chuàng)建徑向基函數(shù)神經(jīng)網(wǎng)絡(luò),一般需要以下幾個(gè)步驟: (1)以所有的輸入樣本對(duì)網(wǎng)絡(luò)仿真。 基于徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)的模式識(shí)別 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)是具有單隱層的三層前饋型網(wǎng)絡(luò),能夠以任意精度逼近任意連續(xù)函數(shù),具有最佳逼近,克服局部極小值問(wèn)題的性能 。 figure。未經(jīng)誤差訓(xùn)練的網(wǎng)絡(luò) 經(jīng)過(guò)誤差訓(xùn)練的網(wǎng)絡(luò) 39。,noise_range,errors2*100)。 A=sim(,P)。 我們可以得到網(wǎng)絡(luò)輸出誤差與噪聲信號(hào)的指標(biāo)的比較曲線,最后測(cè)試系統(tǒng),實(shí)驗(yàn)中驗(yàn)證 A 、 C 、 E 、G 、 I 、 K 、 M 、 O 、 Q 、 S 、 U 、 W 、 Y ,對(duì)它們加入誤差信號(hào),然后把它們輸入到網(wǎng)絡(luò)中,觀察其得到的輸出。 =39。 =。 =。traingdx39。 [S2,Q]=size(targets)。 其中每個(gè)目標(biāo)向量含有 26 個(gè)元素。訓(xùn)練之前首先需要樣本,樣本中包含輸入向量 P 以及相應(yīng)的期望輸出向量 T ,訓(xùn)練過(guò)程中應(yīng)不斷調(diào)整權(quán)值和閥值,使得神經(jīng)網(wǎng)絡(luò)的表現(xiàn)函數(shù)達(dá)到最小。 另一種優(yōu)化算 法則是基 于數(shù)值最 優(yōu)化理論 的訓(xùn)練算 法,有共軛 梯度法(traincgb\traincgf\traingcgp\trainscg) 、 高 斯 - 牛 頓 法 (trainbfg\trainoss) 和LevenbergMarquardt 算法 (trainlm)。如果在輸出層不能得到期望的輸出,則轉(zhuǎn)入誤差信號(hào)反向傳播。 BP 神經(jīng)網(wǎng)絡(luò)采用的是有監(jiān)督學(xué)習(xí)方式。雖然模式識(shí)別往往是非常復(fù)雜的,里面的各個(gè)因素相互影響,呈現(xiàn)出復(fù)雜多變的非線性關(guān)系,但是人工神經(jīng)網(wǎng)絡(luò)技術(shù)為解決這類非線性問(wèn)題提供了強(qiáng)有力的方法。在計(jì)算機(jī)中,只要給定一個(gè)地址就可以得到一個(gè)或一組數(shù)據(jù)。其實(shí)這是一種自我學(xué)習(xí)、自我組織過(guò)程。 神經(jīng)網(wǎng)絡(luò) 學(xué)習(xí)特點(diǎn) 人工神經(jīng)網(wǎng)絡(luò)與生物神經(jīng)網(wǎng)絡(luò)一樣,必須要經(jīng)過(guò)學(xué)習(xí)才具有智能功能。通過(guò)調(diào)整參數(shù) a ,可以獲取不同斜率的 S 型函數(shù)。這樣可以表示神經(jīng)元的激活函數(shù)為1niiia f w p ???????????.閥值 ? 一般不是一個(gè)常數(shù),是隨著神經(jīng)元的興奮程度而發(fā)生變化的。應(yīng)該可以這樣說(shuō),模式識(shí)別技術(shù)在科學(xué) 不斷 發(fā)展的推動(dòng)下,已 逐漸被人們所認(rèn)知和認(rèn)同,并能結(jié)合新的有關(guān)科學(xué)研究技術(shù),可以有效的解決復(fù)雜多變的識(shí)別問(wèn)題,提供了一種分析 解決 問(wèn)題的重要工具。模式識(shí)別技術(shù) 同時(shí)也 是人工智能的基礎(chǔ)技術(shù)。在統(tǒng)計(jì)模式識(shí)別中,每一個(gè)模式采用多維特征或測(cè)量值來(lái)表示,最終 的目的是由這些特征構(gòu)成的空間能將各模式類有效的分離。 圖 12 模式識(shí)別系統(tǒng)示意 在兩個(gè)模塊中都需要數(shù)據(jù)的預(yù)處理,而數(shù)據(jù)預(yù)處理功能是多方面的,如除去噪聲信號(hào)的邊緣影響;將研究有關(guān)的模式分離;對(duì)模式樣品標(biāo)準(zhǔn)化等。待識(shí)別的不同模式都在同一特征空間中考察,不同模式類由于性質(zhì)上的不同,它們?cè)诟魈卣魅≈捣秶鷥?nèi)有所不同,因而會(huì)在不同的特征空間的不同區(qū)域中出現(xiàn),因此,模式識(shí)別系統(tǒng)的目標(biāo)是在特征空間和解釋空間之間找到一種映射關(guān)系。如對(duì)于識(shí)別“ 0”到“ 9”這 10 個(gè)阿拉伯?dāng)?shù)字的課題研究,可以將其轉(zhuǎn)化為把待識(shí)別的字符分為從“ 0”到“ 9”這十類中某一類的問(wèn)題。本人授權(quán) 大學(xué)可以將本學(xué)位論文的全部或部分內(nèi)容編入有關(guān)數(shù)據(jù)庫(kù)進(jìn)行檢索,可以采 用影印、縮印或掃描等復(fù)制手段保存和匯編本學(xué)位論文。盡我所知,除文中特別加以標(biāo)注和致謝的地方外,不包含其他人或組織已經(jīng)發(fā)表或公布過(guò)的研究成果,也不包含我為獲得 及其它教育機(jī)構(gòu)的學(xué)位或?qū)W歷而使用過(guò)的材料。這樣人們利用人工神經(jīng)網(wǎng)絡(luò)具有 高度的 并行性 , 高度 的 非線性全局作用 以及 良好的容錯(cuò)性與聯(lián)想記憶功能 ,并且具有良好的自適應(yīng)、自學(xué)習(xí)功能 等突出特點(diǎn),可運(yùn)用 MATLAB 神經(jīng)網(wǎng)絡(luò)工具箱中的神經(jīng)網(wǎng)絡(luò)模型,對(duì)經(jīng)過(guò)訓(xùn)練的神經(jīng)網(wǎng)絡(luò)可以有效地提取信號(hào)、語(yǔ)音、圖像等感知模式的特征,并能解決現(xiàn)有啟發(fā)式模式識(shí)別系統(tǒng)不能很好解決的不變量探測(cè)、抽象和概括等問(wèn)題。這樣神經(jīng)網(wǎng)絡(luò)可應(yīng)用于模式識(shí)別的特征提取、聚類分析、邊緣檢測(cè)、信號(hào)增強(qiáng)以及噪聲抑制、數(shù)據(jù)壓縮等各個(gè)環(huán)節(jié)。對(duì)本研究提供過(guò)幫助和做出過(guò)貢獻(xiàn)的個(gè)人或集體,均已在文中作了明確的說(shuō)明并表示了謝意。 涉密論文按學(xué)校規(guī)定處理。但是,對(duì)于比較復(fù)雜的識(shí)別問(wèn)題,僅用簡(jiǎn)單的模式分類就很難實(shí)現(xiàn)模式識(shí)別,因此還需要對(duì)待識(shí)別模式進(jìn)行有關(guān)特征描述。特征空間由從模式得到的對(duì)分類有用的度量、屬性以及基元構(gòu)成的空間。訓(xùn)練模式樣本的特征數(shù)據(jù)輸入過(guò)程,就是將已知的模式樣品進(jìn)行數(shù)值化后載入計(jì)算機(jī)。 統(tǒng)計(jì)模式識(shí)別主要研究對(duì)象的因素包括特征的 提取和優(yōu)化、分類判別和聚類判別。隨著科學(xué)技術(shù)的不斷發(fā)展,模式識(shí)別不斷發(fā)展和完善,模糊理論、神經(jīng)網(wǎng)絡(luò)、遺傳算法和支持向量機(jī)等 研究成果也滲透進(jìn)來(lái),融合形成 了 解決 復(fù)雜 問(wèn)題的一種有效機(jī)制。 2 人工神經(jīng)網(wǎng)絡(luò)概述 人工神經(jīng)元模型 神經(jīng)網(wǎng)絡(luò)是指用大量的簡(jiǎn)單計(jì)算單元 (神經(jīng)元 )構(gòu)成的非線性系統(tǒng) ,它在一定程度和層次上模仿了人腦神經(jīng)系統(tǒng)的信息處理、存儲(chǔ)及檢索功能,因而具有學(xué)習(xí)、記憶和計(jì)算等智能處理功能。激活函數(shù) a 常用的三種類型是:閥值函數(shù)、 Sigmoid 函數(shù)和分線段性函數(shù)。 (3)分線段性函數(shù) 分段性函數(shù)定義為 : ? ? 1, 1, 1 1.1, 1tf t t tt???? ? ? ?????? 該函數(shù)在線性區(qū)間 ? ?1,1? 內(nèi)的放大系數(shù)是一致的。神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)過(guò)程實(shí)際是調(diào)節(jié)權(quán)值和閥值的過(guò)程。強(qiáng)化學(xué)習(xí) 就介于有監(jiān)督學(xué)習(xí)和無(wú)監(jiān)督學(xué)習(xí)兩種方式之間,如圖 24 所示。人根據(jù)聯(lián)想記憶可以正確識(shí)別圖形,人工神經(jīng)網(wǎng)絡(luò)就采神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng) 誤差分析 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng) 神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)系統(tǒng) 外部環(huán)境 用聯(lián)想記憶的辦法來(lái)獲得存儲(chǔ)的知識(shí),保證網(wǎng)絡(luò)的正確性,提高了網(wǎng)絡(luò)的容錯(cuò)性和魯棒性。 縱觀人工神經(jīng)網(wǎng)絡(luò)特點(diǎn),神經(jīng)網(wǎng)絡(luò)處理模式識(shí)別問(wèn)題上,相比其他傳統(tǒng)方法,具有以下優(yōu)點(diǎn):首先對(duì)所處理的問(wèn)題的了解要求不是很多;其次就是可以對(duì)特征空間進(jìn)行更為復(fù)雜的劃分;再次它適用于高速并 行處理系統(tǒng)的實(shí)現(xiàn)。 神經(jīng)網(wǎng)絡(luò)模型 簡(jiǎn)述 前饋型神經(jīng)網(wǎng)絡(luò)通常含有一個(gè)或多個(gè)隱層,隱層中的神經(jīng)元基本均采用 S 型傳遞函數(shù),輸出層的神經(jīng)元采用線性傳遞函數(shù)。 (2)誤差信號(hào)反向傳播:指的是網(wǎng)絡(luò)的實(shí)際輸出與期望輸出之間差值即為誤差信號(hào),誤差信號(hào)由輸出端開(kāi)始逐層向前傳播。 ① 有動(dòng)量的梯度下降法 在神經(jīng)網(wǎng)絡(luò)工具箱中, traindm 函數(shù)采用了有動(dòng)量的梯度下降法。前饋型神經(jīng)網(wǎng)絡(luò)的表現(xiàn)函數(shù)缺省為網(wǎng)絡(luò)輸出 a和期望輸出向量 T 的均方差 mse。向量代表某個(gè)字母,則對(duì)應(yīng)位置的元素值為 1, 而其他位置對(duì)應(yīng)的值為 0。 S1=10。)。 =20。 =300。sse39。 %測(cè)試網(wǎng)絡(luò)的容錯(cuò)性 noise_range=0::。 % 測(cè)試未經(jīng)誤差訓(xùn)練的網(wǎng)絡(luò) AA=pet(A)。 title(39。)。 plotchar(alphabet(:,answer))。它對(duì)于每個(gè)訓(xùn)練樣品,只要對(duì)少量的權(quán)值和閥值進(jìn)行修正,這樣就提高了訓(xùn)練速度。 (2)找到誤差最大的一個(gè)輸入樣本。 p=[0 0 0 1 1 1 1 1 1。 基于自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)的模式識(shí)別 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)是一類無(wú)監(jiān)督競(jìng)爭(zhēng)型學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型, 具有自組織能力的神經(jīng)網(wǎng)絡(luò), 可以對(duì)樣本空間進(jìn)行學(xué)習(xí)或仿真,并對(duì)自身的網(wǎng)絡(luò)結(jié)構(gòu)進(jìn)行適當(dāng)?shù)卣{(diào)整修正。此外還有一種抑制的方法,即每個(gè)神經(jīng)元只抑制與自己鄰近的神經(jīng)元,而對(duì)遠(yuǎn)離自己的神經(jīng)元?jiǎng)t不抑制。 0 1]。 title(39。)。)。)。 plot(P(1,:),P(2,:),39。 %得到訓(xùn)練后的網(wǎng)絡(luò)權(quán)值,并在圖上繪出 w={1} plot(w(:,1),w(:,2),39。p(1)39。 a=sim(,p) 同時(shí)顯示標(biāo)記輸入樣本向量 *與訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層權(quán)值 0 分布的情況 如圖 318 所示 : 圖 318 輸入樣本向量 *與訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層權(quán)值 o 分布的情況 由此得到訓(xùn)練后網(wǎng)絡(luò)競(jìng)爭(zhēng)層的權(quán)值 和網(wǎng)絡(luò)測(cè)試結(jié)果為 : TRAINR, Epoch 0/25 TRAINR, Epoch 25/25 TRAINR, Maximum epoch reached. w = a = (1,1) 1 (3)實(shí)驗(yàn)分析與總結(jié) 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)對(duì)給定的輸入向量能夠進(jìn)行正確分類,也能夠?qū)W習(xí)輸入向量的分布。 在 MATLAB 神經(jīng)網(wǎng)絡(luò)工具箱中, Elman 網(wǎng)絡(luò)的設(shè)計(jì)函數(shù)是 newelm, Hopfield 網(wǎng)絡(luò)的設(shè)計(jì)函數(shù)是 newhop。 t2=ones(1,20)*2。 p2=sin(x)*2。 圖 320 輸入信號(hào)和目標(biāo)信號(hào)的曲線 (2)網(wǎng)絡(luò)初始化,訓(xùn)練仿真并測(cè)試網(wǎng)絡(luò) ,得出識(shí)別結(jié)果。purelin39。 plot(Time,cat(2,a1{:}),Time,cat(2,Ts{:}),39。)。輸出信號(hào)及目標(biāo)信號(hào) 39。)。traingdx39。將第一層設(shè)計(jì) 8 個(gè)遞歸神經(jīng)元,設(shè)置訓(xùn)練時(shí)間步長(zhǎng)為 800 時(shí)間單位,采用 traingdx 函數(shù)來(lái)學(xué)習(xí)速率,從而有: %開(kāi)始生成網(wǎng)絡(luò) R=1。r39。 t=[t1 t2 t1 t2]。首先我們定義兩個(gè)正弦波形函數(shù),一個(gè)振幅為 1,另外一個(gè)為 2,將兩組波形組合一個(gè)序列,需要使用函數(shù) con2seq 來(lái)把它們從矩陣信號(hào)轉(zhuǎn)化成序 列信號(hào) 。 實(shí)驗(yàn)具體代碼見(jiàn)附錄四 2。 ylabel(39。)。)。p(1)39。 plot(w(:,1),w(:,2),39。 (2)建立網(wǎng)絡(luò),初始化并訓(xùn)練網(wǎng) 絡(luò) 、最后進(jìn)行網(wǎng)絡(luò)測(cè)試 首先使用 newc 建立自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò),同時(shí)設(shè)置好網(wǎng)絡(luò)的神經(jīng)元數(shù)目以及學(xué)習(xí)速率 ,那么就可以對(duì)網(wǎng)絡(luò)初始化。)。 % 指定類別數(shù)目 points = 20。 自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò) 設(shè)計(jì)模式分類器 的應(yīng)用 (1)問(wèn)題描述 通過(guò)了解自組織競(jìng)爭(zhēng)神經(jīng)網(wǎng)絡(luò)特征,可以清楚明白它適合在模式分類中應(yīng)用.現(xiàn)在給網(wǎng)絡(luò)輸入一些類別的樣本向量,經(jīng)過(guò)訓(xùn)練后,網(wǎng)絡(luò)調(diào)整權(quán)值。當(dāng)引入自組織映射網(wǎng)絡(luò)進(jìn)行嚴(yán)格的指定目標(biāo)分類結(jié)果 時(shí) ,網(wǎng)絡(luò) 則 可以完成對(duì)輸入向量模式的準(zhǔn)確分類。 ts=[1 1 2 2 1 1 1 2 1]。 (5)當(dāng)均方 誤差未達(dá)到規(guī)定的誤差性能指標(biāo),且神經(jīng)元的數(shù)目未達(dá)到規(guī)定的上限時(shí),重復(fù)以上步驟,直到網(wǎng)絡(luò)的均方誤差或神經(jīng)元數(shù)目達(dá)到目標(biāo)值為止。 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)模型 簡(jiǎn)述 徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)是一種前饋反向傳播網(wǎng)絡(luò), 輸入層由信號(hào)源結(jié)點(diǎn)構(gòu)成,起到數(shù)據(jù)信息的傳遞作用。 圖 33 識(shí)別結(jié)果錯(cuò)誤率模擬曲線 由圖 33
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1