【正文】
曲線顯示,實線是經過噪聲信號和非噪聲信號訓練后的網絡,具有很高的可靠性性能。 figure。)。 % 測試經過誤差訓練的網絡 Anew=sim(new,P)。 T=targets。 =50。 pause for pass=1:20 P=[alphabet,alphabet,... (alphabet+randn(R,Q)*),... (alphabet+randn(R,Q)*)]。 =。 {2}={2}*。 = newff(minmax(P),[S1 S2],{39。 (2)設計 BP 網絡 ,初始化 并訓練網絡 建立一個有兩層結構的 logsig 網絡,它的輸出范圍在 0- 1 間,同時需要 35 個輸入,在輸出層需要 26 個神經元。 執(zhí)行結果是創(chuàng)建一個 N 層的 BP 神經網絡。 其 訓練函數(shù) 調整參數(shù) , 詳見附錄三 。通過權值的不斷修正使網絡的實際輸出更接近期望輸出。一個典型的 BP 神經網絡如圖 31 所示,有一個隱層,隱層神經元數(shù)目為 S,隱層采用 S 型神經元函數(shù) logsig( ),具有 R 個輸入。人工神經網絡也存在自身固有的弱點,如網絡需要更多的訓練數(shù)據(jù),無法獲取特征空間中的決策面,以及在非并行處理系統(tǒng)中的模擬運行速度慢等缺點。神經網絡的神經元之間的連接強度用權值大小來表示,這種權值可以通過對訓練樣本的學習而不斷變化,而且隨著訓練樣本量的增加和反復學習,這些神經元之間的連接強度會不斷增加,從而提高神經元對這些樣本特 征的反映靈敏度。 以生物神經網絡為模擬基礎的人工神經網絡試圖在模擬推理和自動學習等方面發(fā)展,使得人工智能更接近人腦的自組織和并行處理功能,它在信息處理、模式識別、聚類分析和智能控制等領域應用廣泛。學習往往是一個相對持久的變化過程,也是一個推理的過程。 人工神經網絡模型 根據(jù)神經元之間連接的拓撲結構上的不同,大致可以將神經網絡結構分為兩種形式,即分層型和相互連接型神經網絡?,F(xiàn)簡述這三種類型函數(shù)。 人工神經元模型是生物神經元的模擬和抽象。 經過多年的科學發(fā)展,文字識別是模式識別領域發(fā)展最為成熟并應用最為廣泛的方面。對于已知若干個樣品的類別以及特征,我們需要對分類問題建立一個樣品庫。接下來就是按照設定的分類判別模型對給定的訓練樣品進行訓練,得到分類的判別規(guī)則,有了判別規(guī)則就可以進行模式識別過程,最后得到輸出識別結果。正因如此,在模式識別過程中,要對許多具體對象進行觀測,以獲得 許多觀測,其中有均值、方差、協(xié)方差和協(xié)方差矩陣等。對于一個樣品來說,必須確定一些與識別有關的因素作為研究的依據(jù),每一個因素 稱為一個特征。在此, 運用 MATLAB 神經網絡工具箱中的神經網絡模型,利用人工神經網絡技術解決 有關 模式識別的 簡單 問題。 作者簽名: 日 期: 學位論文原創(chuàng)性聲明 本人鄭重聲明:所呈交的論文是本人在導師的指導下獨立進行研究所取得的研究成果。目前,模式識別技術可以應用指紋識別、 IC 卡技術應用、字符識別等實例。它研究的目的就是利用計算機對物理對象進行分類,在錯誤概率最小的條件下,使識別的結果盡量與客觀事物相符合。 關鍵詞: 模式識別;人工神經網絡;神經網絡模型;神經網絡技術 Abstract Pattern Recognition is the machine identification, puter identification or identification of machine automation, machine aimed at automatic identification of things to do before the machine can only be made by man can do, with people with all kinds of things and on an analysis of the phenomenon, described with the ability to determine the part. It is the purpose of the study of the physical object to use the puter for classification, the probability of the smallest in the wrong conditions, so that the results of recognition as far as possible in line with objective things. As artificial neural work to recognize the continuing, neural work refers to a large number of simple calculation unit consisting of nonlinear system, which to some extent and level system to imitate the human brain39。本人完全意識到本聲明的法律后果由本人承擔。 機器辨別事物最基本的方法是計算,原則上說是對計算機要分析的事物與標準模板的相似程度進行比較計算。如果一個樣品X 有 n 個特征,則可以把 X 看作一個 n 維列向量,該向量 X 稱為特征向量。在模式識別中,通常將經數(shù)據(jù)預處理后的原始數(shù)據(jù)所在的空間稱為測量空間,把分類進行的空間叫做特征空間。隨著科學技術的發(fā)展和研究對象的深入,模式識別問題也變得非常復雜多變 ,這就要求人們對于事物的識別不僅局限于簡單的模式分類,還需要應對模式結構作全面完善的描述,從而需要運用結構模式識別方法。這樣就可能需要考慮用某種相似性度量的方法,即 運用 “物以類聚,人以群分”的思想,把特征相似或相同的歸為同一類,這樣就采用了無監(jiān)督的學習方法。但是,語音識別課題已在不同領域中運用,尤其在身份鑒別中起到很大作用。這里的 1 2 3, , , np p p p表示 n 個神經元的輸入; 1 2 3, , , , nw w w w表示與該相連的 n 個突觸的連接強度其值成為權值,其每個元素的值可以為正負,正值的表示為興奮型突觸,負值的表示為抑制型突觸;1niii wp??表示人工神經元的輸入總和,也就是激活值,對應于生物神經細胞的膜電位; a 表示該神經元的輸出 ; ? 表示該人工神經元的閥值; f 表示神經元的輸入輸出關系函數(shù),亦即激 活函數(shù)或傳輸函數(shù)。此外,符號 ??sgnt 函數(shù)也常作為神經元的激活函數(shù),即表示為: ? ? 1, 0sgn .1, 0tt t??? ???? (2)Sigmoid 函數(shù) Sigmoid 函數(shù)也稱為 S 型函數(shù),是人工神經網絡中最常用的激活函數(shù)。相互連接型的神經網絡則是網絡中任意兩個神經元之間相互連接?!皩煛倍家疾鞂W習的結果是否達到所需的要求,并以此來決定網絡是否需要繼續(xù)學習。 (2)知識的分布存儲能力。模式識別也是人工神經網絡最重要的特征之一。 BP 算法訓練的神經網絡就是 BP 神經網絡。在BP 網絡學習過程主要在兩個方面: (1)工作信號正向傳播:指的是輸 入信號從輸入層經隱層神經元,傳向輸出層,在輸出端產生輸出信號。 BP 算法的改進主要有兩種途徑:一種采用啟發(fā)式學習算法,另一種則是采用更有效的優(yōu)化算法。 其訓練函數(shù)調整參數(shù)詳見附錄三。 不妨假設, 26 個字母含 35 個元素的輸入向量被定義成一個輸入向量矩陣 alphabet(字母表 )。 接下來就初始化,使用 newff 創(chuàng)建一個兩層 BP 網絡 %網絡初始化 [alphabet,targets]=prprob。logsig39。 %網絡訓練參數(shù)設置 =39。 圖 32 無噪聲訓練過程誤差變化曲線情況 其訓練過程變化情況: TRAINGDX, Epoch 0/5000, SSE , Gradient TRAINGDX, Epoch 20/5000, SSE , Gradient TRAINGDX, Epoch 40/5000, SSE , Gradient TRAINGDX, Epoch 60/5000, SSE , Gradient TRAINGDX, Epoch 80/5000, SSE , Gradient TRAINGDX, Epoch 100/5000, SSE , Gradient TRAINGDX, Epoch 120/5000, SSE , Gradient TRAINGDX, Epoch 140/5000, SSE , Gradient TRAINGDX, Epoch 154/5000, SSE , Gradient TRAINGDX, Performance goal met. 同時,為了保證設計的網絡正確的識別,對加了噪聲的字母表進行訓練,還有設置向字母表向量加入噪聲信號平均值分別為 和 ,與此同時,設置網絡訓練最大時間為 300 個單位時間,并且誤差參數(shù)設為 。 %網絡再次對無誤差輸入向量進行訓練 P=alphabet。 [,tr]=train(,P,T)。 errors2(i)=0。 end end figure plot(noise_range,errors1*100,39。)。 A2=pet(A2)。 測試實驗的幾個含噪聲的輸入字母和識別結果效果圖對比 , 如圖 34~ 313 所示 圖 34 含噪聲信號輸入字母 A 圖 35 對應識別效果字母 A 圖 36 含噪聲信號輸入字母 E 圖 37 對應識別效果字母 E 圖 38 含 噪 聲 信 號 輸 入 字 母 G 圖 39 對應識別效果字母 G 圖 310 含噪聲信號輸入字母 S 圖 311 對應識別效果字母 S 圖 312 含噪聲信號輸 入字母 W 圖 313 對應識別效果字母 W (3)實驗分析和總結 由實驗分析得出,對一個簡單的模式識別系統(tǒng)來說,在該問題中,使用了不同的噪聲向量作為輸入來訓練網絡 ,使得網絡具有很強的容錯能力,這樣的實驗更適合現(xiàn)實環(huán)境的使用, 表 明運用 matlab 神經網絡來建模,經過有效的 網絡 訓練,可以 得到 正確的識別分類。 輸 入 神經元 圖 314 徑向基函數(shù)神經網絡模型 在創(chuàng)建徑向基函數(shù)網絡的過程中,徑向基網絡設計函數(shù) newrbe 和 newrb 是以不同方式選取和修正網絡的權值和閥值,這樣就沒有專門的訓練和學習函數(shù)。 徑向基函數(shù) 神經網絡 應用 特征 模式的分類 本問題中,分析以 PNN 完成簡單的模式的分類情況,待分類的模式如 圖 315 所示 : 圖 315 待分類的模式 不妨 假定 三角形 為第一種模式, 圓 形為第二種模式,它們上下間距都為單位 1,由此建立模式樣本的位置,形成相應的輸入向量。 =newpnn(p,t,)。在學習算法上,它模擬生物神經系統(tǒng)依靠神經元之間興奮、協(xié)調與抑制、競爭的作用來進行信號處理的動力學原理,指導網絡的學習與工作。 nngenc函數(shù)有四個參數(shù),第一個用于指定類中心的范圍,第二個用于指定類別的數(shù)目,第三個用于指定每一類的樣本點的數(shù)目,第四個用于指定每一類樣本的標準差。 plot(P(1,:),P(2,:),39。)。 %設置神經元數(shù)目為 5 %得到網絡權值,并在圖上繪出 figure。 hold off。p(2)39。 %訓練網絡 =25。輸入樣本向量及更新后的權值 39。 a=0。 反饋型神經網絡模型 簡述 Elman 網絡是兩層反向傳播網絡,隱層和輸入向量連接的神經元,其輸出不僅作為輸出層的輸入,還連接隱含層內的另外神經元,反饋給隱含層的輸入。 p1=sin(1:20)。 其中 p1, p2 作為 Elman 神經網絡的輸入, p1 的幅值為 1, p2 的幅值為 2,信號波形如圖 319 所示。b*39。% 在第一層中包含 8 個遞歸神經元單元 =newelm([3 3],[S1 S2],{39。 %設置訓練時間為 300 個時間單位 [,tr]=train(,Ps,Ts)。)。 TRAINGDX, Epoch 0/300, MSE , Gradient TRAINGDX, Epoch 25/300, MSE , Gradient TRAINGDX, Epoch 50/300, MSE , Gradient TRAINGDX, Epoch 75/300, MSE , Gradient TRAINGDX, Epoch 100/300, MSE , Gradient TRAINGDX, Epoch 125/300, MSE , Gradient TRAINGDX, Epoch 150/300, MSE , Gradient TRAINGDX, Epoch 175/300, MSE ,