【正文】
曲線顯示,實線是經(jīng)過噪聲信號和非噪聲信號訓練后的網(wǎng)絡,具有很高的可靠性性能。 figure。)。 % 測試經(jīng)過誤差訓練的網(wǎng)絡 Anew=sim(new,P)。 T=targets。 =50。 pause for pass=1:20 P=[alphabet,alphabet,... (alphabet+randn(R,Q)*),... (alphabet+randn(R,Q)*)]。 =。 {2}={2}*。 = newff(minmax(P),[S1 S2],{39。 (2)設計 BP 網(wǎng)絡 ,初始化 并訓練網(wǎng)絡 建立一個有兩層結構的 logsig 網(wǎng)絡,它的輸出范圍在 0- 1 間,同時需要 35 個輸入,在輸出層需要 26 個神經(jīng)元。 執(zhí)行結果是創(chuàng)建一個 N 層的 BP 神經(jīng)網(wǎng)絡。 其 訓練函數(shù) 調(diào)整參數(shù) , 詳見附錄三 。通過權值的不斷修正使網(wǎng)絡的實際輸出更接近期望輸出。一個典型的 BP 神經(jīng)網(wǎng)絡如圖 31 所示,有一個隱層,隱層神經(jīng)元數(shù)目為 S,隱層采用 S 型神經(jīng)元函數(shù) logsig( ),具有 R 個輸入。人工神經(jīng)網(wǎng)絡也存在自身固有的弱點,如網(wǎng)絡需要更多的訓練數(shù)據(jù),無法獲取特征空間中的決策面,以及在非并行處理系統(tǒng)中的模擬運行速度慢等缺點。神經(jīng)網(wǎng)絡的神經(jīng)元之間的連接強度用權值大小來表示,這種權值可以通過對訓練樣本的學習而不斷變化,而且隨著訓練樣本量的增加和反復學習,這些神經(jīng)元之間的連接強度會不斷增加,從而提高神經(jīng)元對這些樣本特 征的反映靈敏度。 以生物神經(jīng)網(wǎng)絡為模擬基礎的人工神經(jīng)網(wǎng)絡試圖在模擬推理和自動學習等方面發(fā)展,使得人工智能更接近人腦的自組織和并行處理功能,它在信息處理、模式識別、聚類分析和智能控制等領域應用廣泛。學習往往是一個相對持久的變化過程,也是一個推理的過程。 人工神經(jīng)網(wǎng)絡模型 根據(jù)神經(jīng)元之間連接的拓撲結構上的不同,大致可以將神經(jīng)網(wǎng)絡結構分為兩種形式,即分層型和相互連接型神經(jīng)網(wǎng)絡。現(xiàn)簡述這三種類型函數(shù)。 人工神經(jīng)元模型是生物神經(jīng)元的模擬和抽象。 經(jīng)過多年的科學發(fā)展,文字識別是模式識別領域發(fā)展最為成熟并應用最為廣泛的方面。對于已知若干個樣品的類別以及特征,我們需要對分類問題建立一個樣品庫。接下來就是按照設定的分類判別模型對給定的訓練樣品進行訓練,得到分類的判別規(guī)則,有了判別規(guī)則就可以進行模式識別過程,最后得到輸出識別結果。正因如此,在模式識別過程中,要對許多具體對象進行觀測,以獲得 許多觀測,其中有均值、方差、協(xié)方差和協(xié)方差矩陣等。對于一個樣品來說,必須確定一些與識別有關的因素作為研究的依據(jù),每一個因素 稱為一個特征。在此, 運用 MATLAB 神經(jīng)網(wǎng)絡工具箱中的神經(jīng)網(wǎng)絡模型,利用人工神經(jīng)網(wǎng)絡技術解決 有關 模式識別的 簡單 問題。 作者簽名: 日 期: 學位論文原創(chuàng)性聲明 本人鄭重聲明:所呈交的論文是本人在導師的指導下獨立進行研究所取得的研究成果。目前,模式識別技術可以應用指紋識別、 IC 卡技術應用、字符識別等實例。它研究的目的就是利用計算機對物理對象進行分類,在錯誤概率最小的條件下,使識別的結果盡量與客觀事物相符合。 關鍵詞: 模式識別;人工神經(jīng)網(wǎng)絡;神經(jīng)網(wǎng)絡模型;神經(jīng)網(wǎng)絡技術 Abstract Pattern Recognition is the machine identification, puter identification or identification of machine automation, machine aimed at automatic identification of things to do before the machine can only be made by man can do, with people with all kinds of things and on an analysis of the phenomenon, described with the ability to determine the part. It is the purpose of the study of the physical object to use the puter for classification, the probability of the smallest in the wrong conditions, so that the results of recognition as far as possible in line with objective things. As artificial neural work to recognize the continuing, neural work refers to a large number of simple calculation unit consisting of nonlinear system, which to some extent and level system to imitate the human brain39。本人完全意識到本聲明的法律后果由本人承擔。 機器辨別事物最基本的方法是計算,原則上說是對計算機要分析的事物與標準模板的相似程度進行比較計算。如果一個樣品X 有 n 個特征,則可以把 X 看作一個 n 維列向量,該向量 X 稱為特征向量。在模式識別中,通常將經(jīng)數(shù)據(jù)預處理后的原始數(shù)據(jù)所在的空間稱為測量空間,把分類進行的空間叫做特征空間。隨著科學技術的發(fā)展和研究對象的深入,模式識別問題也變得非常復雜多變 ,這就要求人們對于事物的識別不僅局限于簡單的模式分類,還需要應對模式結構作全面完善的描述,從而需要運用結構模式識別方法。這樣就可能需要考慮用某種相似性度量的方法,即 運用 “物以類聚,人以群分”的思想,把特征相似或相同的歸為同一類,這樣就采用了無監(jiān)督的學習方法。但是,語音識別課題已在不同領域中運用,尤其在身份鑒別中起到很大作用。這里的 1 2 3, , , np p p p表示 n 個神經(jīng)元的輸入; 1 2 3, , , , nw w w w表示與該相連的 n 個突觸的連接強度其值成為權值,其每個元素的值可以為正負,正值的表示為興奮型突觸,負值的表示為抑制型突觸;1niii wp??表示人工神經(jīng)元的輸入總和,也就是激活值,對應于生物神經(jīng)細胞的膜電位; a 表示該神經(jīng)元的輸出 ; ? 表示該人工神經(jīng)元的閥值; f 表示神經(jīng)元的輸入輸出關系函數(shù),亦即激 活函數(shù)或傳輸函數(shù)。此外,符號 ??sgnt 函數(shù)也常作為神經(jīng)元的激活函數(shù),即表示為: ? ? 1, 0sgn .1, 0tt t??? ???? (2)Sigmoid 函數(shù) Sigmoid 函數(shù)也稱為 S 型函數(shù),是人工神經(jīng)網(wǎng)絡中最常用的激活函數(shù)。相互連接型的神經(jīng)網(wǎng)絡則是網(wǎng)絡中任意兩個神經(jīng)元之間相互連接?!皩煛倍家疾鞂W習的結果是否達到所需的要求,并以此來決定網(wǎng)絡是否需要繼續(xù)學習。 (2)知識的分布存儲能力。模式識別也是人工神經(jīng)網(wǎng)絡最重要的特征之一。 BP 算法訓練的神經(jīng)網(wǎng)絡就是 BP 神經(jīng)網(wǎng)絡。在BP 網(wǎng)絡學習過程主要在兩個方面: (1)工作信號正向傳播:指的是輸 入信號從輸入層經(jīng)隱層神經(jīng)元,傳向輸出層,在輸出端產(chǎn)生輸出信號。 BP 算法的改進主要有兩種途徑:一種采用啟發(fā)式學習算法,另一種則是采用更有效的優(yōu)化算法。 其訓練函數(shù)調(diào)整參數(shù)詳見附錄三。 不妨假設, 26 個字母含 35 個元素的輸入向量被定義成一個輸入向量矩陣 alphabet(字母表 )。 接下來就初始化,使用 newff 創(chuàng)建一個兩層 BP 網(wǎng)絡 %網(wǎng)絡初始化 [alphabet,targets]=prprob。logsig39。 %網(wǎng)絡訓練參數(shù)設置 =39。 圖 32 無噪聲訓練過程誤差變化曲線情況 其訓練過程變化情況: TRAINGDX, Epoch 0/5000, SSE , Gradient TRAINGDX, Epoch 20/5000, SSE , Gradient TRAINGDX, Epoch 40/5000, SSE , Gradient TRAINGDX, Epoch 60/5000, SSE , Gradient TRAINGDX, Epoch 80/5000, SSE , Gradient TRAINGDX, Epoch 100/5000, SSE , Gradient TRAINGDX, Epoch 120/5000, SSE , Gradient TRAINGDX, Epoch 140/5000, SSE , Gradient TRAINGDX, Epoch 154/5000, SSE , Gradient TRAINGDX, Performance goal met. 同時,為了保證設計的網(wǎng)絡正確的識別,對加了噪聲的字母表進行訓練,還有設置向字母表向量加入噪聲信號平均值分別為 和 ,與此同時,設置網(wǎng)絡訓練最大時間為 300 個單位時間,并且誤差參數(shù)設為 。 %網(wǎng)絡再次對無誤差輸入向量進行訓練 P=alphabet。 [,tr]=train(,P,T)。 errors2(i)=0。 end end figure plot(noise_range,errors1*100,39。)。 A2=pet(A2)。 測試實驗的幾個含噪聲的輸入字母和識別結果效果圖對比 , 如圖 34~ 313 所示 圖 34 含噪聲信號輸入字母 A 圖 35 對應識別效果字母 A 圖 36 含噪聲信號輸入字母 E 圖 37 對應識別效果字母 E 圖 38 含 噪 聲 信 號 輸 入 字 母 G 圖 39 對應識別效果字母 G 圖 310 含噪聲信號輸入字母 S 圖 311 對應識別效果字母 S 圖 312 含噪聲信號輸 入字母 W 圖 313 對應識別效果字母 W (3)實驗分析和總結 由實驗分析得出,對一個簡單的模式識別系統(tǒng)來說,在該問題中,使用了不同的噪聲向量作為輸入來訓練網(wǎng)絡 ,使得網(wǎng)絡具有很強的容錯能力,這樣的實驗更適合現(xiàn)實環(huán)境的使用, 表 明運用 matlab 神經(jīng)網(wǎng)絡來建模,經(jīng)過有效的 網(wǎng)絡 訓練,可以 得到 正確的識別分類。 輸 入 神經(jīng)元 圖 314 徑向基函數(shù)神經(jīng)網(wǎng)絡模型 在創(chuàng)建徑向基函數(shù)網(wǎng)絡的過程中,徑向基網(wǎng)絡設計函數(shù) newrbe 和 newrb 是以不同方式選取和修正網(wǎng)絡的權值和閥值,這樣就沒有專門的訓練和學習函數(shù)。 徑向基函數(shù) 神經(jīng)網(wǎng)絡 應用 特征 模式的分類 本問題中,分析以 PNN 完成簡單的模式的分類情況,待分類的模式如 圖 315 所示 : 圖 315 待分類的模式 不妨 假定 三角形 為第一種模式, 圓 形為第二種模式,它們上下間距都為單位 1,由此建立模式樣本的位置,形成相應的輸入向量。 =newpnn(p,t,)。在學習算法上,它模擬生物神經(jīng)系統(tǒng)依靠神經(jīng)元之間興奮、協(xié)調(diào)與抑制、競爭的作用來進行信號處理的動力學原理,指導網(wǎng)絡的學習與工作。 nngenc函數(shù)有四個參數(shù),第一個用于指定類中心的范圍,第二個用于指定類別的數(shù)目,第三個用于指定每一類的樣本點的數(shù)目,第四個用于指定每一類樣本的標準差。 plot(P(1,:),P(2,:),39。)。 %設置神經(jīng)元數(shù)目為 5 %得到網(wǎng)絡權值,并在圖上繪出 figure。 hold off。p(2)39。 %訓練網(wǎng)絡 =25。輸入樣本向量及更新后的權值 39。 a=0。 反饋型神經(jīng)網(wǎng)絡模型 簡述 Elman 網(wǎng)絡是兩層反向傳播網(wǎng)絡,隱層和輸入向量連接的神經(jīng)元,其輸出不僅作為輸出層的輸入,還連接隱含層內(nèi)的另外神經(jīng)元,反饋給隱含層的輸入。 p1=sin(1:20)。 其中 p1, p2 作為 Elman 神經(jīng)網(wǎng)絡的輸入, p1 的幅值為 1, p2 的幅值為 2,信號波形如圖 319 所示。b*39。% 在第一層中包含 8 個遞歸神經(jīng)元單元 =newelm([3 3],[S1 S2],{39。 %設置訓練時間為 300 個時間單位 [,tr]=train(,Ps,Ts)。)。 TRAINGDX, Epoch 0/300, MSE , Gradient TRAINGDX, Epoch 25/300, MSE , Gradient TRAINGDX, Epoch 50/300, MSE , Gradient TRAINGDX, Epoch 75/300, MSE , Gradient TRAINGDX, Epoch 100/300, MSE , Gradient TRAINGDX, Epoch 125/300, MSE , Gradient TRAINGDX, Epoch 150/300, MSE , Gradient TRAINGDX, Epoch 175/300, MSE ,