freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于bp網(wǎng)絡(luò)的車牌識別系統(tǒng)的設(shè)計畢業(yè)設(shè)計論文(編輯修改稿)

2024-07-21 15:39 本頁面
 

【文章內(nèi)容簡介】 的比率,即:分割目標函數(shù)的最高值看作是可能出現(xiàn)的斷裂點。本文中字符分割的算法如下,如圖213和圖214所示。 圖213  牌照二值化圖 圖214  圖213的點陣水平投影圖從投影圖214可以看出字符與字符的分界處往往是投影比較少的地方,并且字符與字符的分界處投影往往接近零或者為零,所以取初始閾值t=1對投影圖進行掃描,過程如下:① “while(project[i]t) i++。”,記下位置a;② “while(project[i]=t) i++。”,記下位置b;③ 得到一個分割區(qū),區(qū)數(shù)加1,重復(fù)步驟①;④ 如果區(qū)數(shù)小于7,則(自定);⑤ 重復(fù)①。分割效果如圖215和圖216所示。 圖215  牌照二值化圖 圖216  t=1時圖215的點陣水平投影圖的分割圖從圖216可以看出經(jīng)過一次分割已經(jīng)把那些明顯分開的區(qū)域分割開了,但是有些區(qū)域過大,并且只有6個區(qū)域(兩條豎線間的區(qū)域)。所以讓t=t+2,結(jié)果如圖217和圖218所示。 圖217  牌照二值化圖 圖218  t=3時圖217的點陣水平投影圖的分割圖從圖218中可以看出那些過寬的區(qū)域中又分開了一塊,但是有一塊區(qū)域還是過大,但是區(qū)域數(shù)已經(jīng)達到要求。分割出的牌照字符圖像如圖219所示。圖219  分割出的字符圖像 字幅圖像歸一化字符分割處理后得到的單個數(shù)字、字母和漢字圖像,還必須進行歸一化處理,以消除因牌照傾斜帶來的字符在位置和大小上的變化。歸一化處理主要包括位置歸一化和大小歸一化,甚至筆劃(粗細)歸一化。對于漢字識別,漢字點陣的歸一化是十分重要的,因為漢字識別主要基于漢字的圖形結(jié)構(gòu),如果不能將漢字點陣在位置和大小上歸一化處理一致起來,漢字點陣的相似性比較久無法正確進行。歸一化后的牌照圖像如圖220所示。 圖220  歸一化處理后的牌照圖像 細化處理對圖像的細化過程是求圖像的骨架過程。骨架是二維二值目標的重要描述,它指圖像中央的骨骼部分,是描述圖像幾何及拓撲性質(zhì)的重要特征之一。細化算法有很多,按照迭代方分為兩類,一類是非迭代過程,一類是迭代過程。非迭代算法有基于距離變換的方法等,迭代方法是通過重復(fù)刪除像素邊緣,直到得到單獨像素寬度的圖像為止?,F(xiàn)在用的比較多的細化算法有Hilditch、Pavlidis、Rosenfeld細化算法和索引表細化算法等。車牌圖像進行預(yù)處理后,細化處理是關(guān)系到后面能否正確提取字符特征值的關(guān)鍵,本文使用Rosenfeld骨架細化的方法,細化處理后可以得到圖像中字符的基本骨架,不會破壞原來的連通性。細化后的效果圖像如圖221所示。圖221  細化處理后的牌照第三章  BP神經(jīng)網(wǎng)絡(luò) 人工神經(jīng)網(wǎng)絡(luò)人工神經(jīng)網(wǎng)絡(luò)(Artificial Neural Network, ANN)也稱為神經(jīng)網(wǎng)絡(luò)(Neural Networks,NN),即從生物學(xué)神經(jīng)系統(tǒng)的信號傳遞而抽象發(fā)展成的一門學(xué)科。在神經(jīng)網(wǎng)絡(luò)中,最基本的單元就是神經(jīng)元?!∪斯ど窠?jīng)元神經(jīng)元由三部分組成:樹突、細胞體、軸突。樹突是樹狀的神經(jīng)纖維接受網(wǎng)絡(luò),它將電信號傳遞給細胞體,細胞體對這些輸入信號進行整合并進行閾值處理。軸突是單根長纖維,它把細胞體的輸入信號導(dǎo)向其他的神經(jīng)元。神經(jīng)元的排列拓撲結(jié)構(gòu)和突觸的連接強度確立了神經(jīng)網(wǎng)絡(luò)的功能。形象的說,神經(jīng)網(wǎng)絡(luò)是由大量處理單元(神經(jīng)元)廣泛連接而成的網(wǎng)絡(luò),是對人腦的抽象、簡化和模擬,反映人腦的基本特性。它能夠通過學(xué)習(xí)過程從外部環(huán)境中獲取知識,并且它內(nèi)部的很多神經(jīng)元可以用來存儲這些已經(jīng)學(xué)到的知識。人工神經(jīng)元模型是生物神經(jīng)元的模型與抽象。圖31為一種典型的人工神經(jīng)元模型。圖31  人工神經(jīng)元模型人工神經(jīng)元相當于一個多輸入單輸出的非線性閾值器件。這里的表示的為它的n個輸入;表示與它相連的n個突觸的連接強度,其值成為權(quán)值;稱為激活值,表示這個人工神經(jīng)元的輸入總和,對應(yīng)于生物神經(jīng)細胞的膜電位;表示這個人工神經(jīng)元的輸出;表示這個人工神經(jīng)元的閾值。如果輸入信號的加權(quán)和超過,則人工神經(jīng)元被激活。這樣,人工神經(jīng)元的輸出可描述為          (31)式中,是表示神經(jīng)元輸入輸出關(guān)系的函數(shù),稱為激活函數(shù)或輸出函數(shù)。設(shè)是權(quán)與輸入的矢量積(標量),相當于生物神經(jīng)元由外加刺激引起的膜內(nèi)電位的變化。這樣激活函數(shù)可以寫成。這里為了表達簡單沒有寫出閾值θ。通常我們假設(shè)神經(jīng)元有n1個突觸連接,實際輸入變量為。那么可設(shè),這樣就加入了閾值這個量。閾值一般不是一個常數(shù),它是隨著神經(jīng)元的興奮程度而變化的。因細胞在每次放電之后都需要一定的時間恢復(fù),也就是說神經(jīng)元的興奮存在不應(yīng)期,即相鄰二次興奮之間需要的時間間隔(),在此期間閾值會升高,即絕對不應(yīng)期內(nèi)的閾值上升為無窮大。激活函數(shù)有許多類型,其中比較常用的可以歸結(jié)為三種形式:閾值型、S型和線性型。本文采用S型激活函數(shù)。單極型S型(Sigmoid響應(yīng)特性)激活函數(shù)的輸出特性比較軟,其輸出狀態(tài)的取值范圍為[0,1],它的硬度可由一系數(shù)λ來調(diào)節(jié)。特的輸入輸出關(guān)系由下圖表示,式(32)是它的表達式?!D32  單極型的S型激活函數(shù) (32)綜上所述,神經(jīng)元具有以下特點:神經(jīng)元是一多輸入、單輸出的元件它具有非線性的輸入、輸出特征它具有可塑性,起訴性變化的部分主要是權(quán)值的變化,這相當于生物神經(jīng)元的凸出部分的變化。神經(jīng)元的輸出響應(yīng)是各個輸入值的綜合作用的結(jié)果。輸入分為興奮型(正值)和抑制型(負值)兩種。 神經(jīng)元網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則神經(jīng)元網(wǎng)絡(luò)的最大特點就是它有學(xué)習(xí)的能力,在學(xué)習(xí)過程中,主要是網(wǎng)絡(luò)的連接權(quán)的值產(chǎn)生了相應(yīng)的變化,學(xué)習(xí)到的內(nèi)容也是記憶在連接權(quán)之中。下面介紹連接權(quán)適量W(或者分量)是怎樣在學(xué)習(xí)過程中被校正的。令為第i個神經(jīng)元的第j個輸入連接權(quán),這個輸入可以是外來的輸入信號,也可以來自其他神經(jīng)元的輸出。這里,主要討論單個神經(jīng)元或單層網(wǎng)絡(luò)的有監(jiān)督學(xué)習(xí)以及簡單的無監(jiān)督學(xué)習(xí)。對于不同的學(xué)習(xí)規(guī)則,神經(jīng)元的激活函數(shù)是不同的。閾值也可以包括在連接權(quán)矩陣里。學(xué)習(xí)信號是和的函數(shù),有時也包括教師信號,所以有        (33)權(quán)矢量Wi的變化是由學(xué)習(xí)步驟按時間t,t+1……一步一步進行計算的。在時刻t連接權(quán)的變化量為,其中c是一個正數(shù),成為學(xué)習(xí)常數(shù),決定學(xué)習(xí)的速率。從t時刻到下一個時刻t+1,連接權(quán)可按下式計算: (34)離散學(xué)習(xí)步驟可寫成 (35)其中c是一個正常數(shù),成為學(xué)習(xí)常數(shù),決定學(xué)習(xí)的速率。 多層人工神經(jīng)網(wǎng)絡(luò)由于感知器是單層網(wǎng)絡(luò)智能解決現(xiàn)行可分問題,要增強分類能力的唯一途徑就是采用多層網(wǎng)絡(luò),即在輸入和輸出層之間加上隱含構(gòu)成多層前饋網(wǎng)絡(luò)即為BP網(wǎng)絡(luò)模型,如圖33所示。這是一種三層BP網(wǎng)絡(luò),一般來講,BP網(wǎng)絡(luò)是一種具有三層或三層以上的多層神經(jīng)元網(wǎng)絡(luò),它的左、右各層之間各個神經(jīng)元實現(xiàn)全連接,即左層的每一個神經(jīng)元與右層的每個神經(jīng)元都有連接,而同層內(nèi)的各神經(jīng)元之間無連接。圖33  多層神經(jīng)網(wǎng)絡(luò) BP網(wǎng)絡(luò) BP(Back Propagation)網(wǎng)絡(luò)是1986年由Rumelhart和McClelland為首的科學(xué)家小組提出, 是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。BP網(wǎng)絡(luò)是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò)。BP網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入輸出模式映射關(guān)系,而無需事前解釋描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。BP網(wǎng)絡(luò)其神經(jīng)元的傳遞函數(shù)是S型函數(shù),輸入量為0到1之間的連續(xù)量,它可以實現(xiàn)從輸入到輸出的任意非線性映射。目前,在人工神經(jīng)網(wǎng)絡(luò)的實際應(yīng)用中,絕大部分的神經(jīng)網(wǎng)絡(luò)的模型都采用BP網(wǎng)絡(luò)及其變化形式。它也是前向網(wǎng)絡(luò)的核心部分,體現(xiàn)了人工網(wǎng)絡(luò)的精華。BP網(wǎng)絡(luò)的實現(xiàn)分為兩個階段:學(xué)習(xí)階段和識別階段。在BP神經(jīng)網(wǎng)絡(luò)的學(xué)習(xí)階段,輸入層各神經(jīng)元負責(zé)接收來自外界的輸入信息,并傳遞給中間層各神經(jīng)元;中間層是內(nèi)部信息處理層,負責(zé)信息變換,根據(jù)信息變化能力的需求,中間層可以設(shè)計為單隱層或者多隱層結(jié)構(gòu);最后一個隱層傳遞到輸出層各神經(jīng)元的信息,經(jīng)過進一步的處理后,完成一次學(xué)習(xí)的正向傳播處理工程,由輸出層向外界輸出信息處理結(jié)果。當實際輸出與期望輸出不符時,進入誤差的反向傳播階段。誤差通過輸出層,按誤差梯度下降的方式修正各層權(quán)值,向隱層、輸入層逐層反傳。周而復(fù)始的信息正向傳播和誤差反向傳播過程,是各層權(quán)值不斷調(diào)整的過程,也是神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)訓(xùn)練的過程,此過程一直進行到網(wǎng)絡(luò)輸出的誤差減少到可以接受的程度,或者預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止?!≌`差逆?zhèn)鞑バU椒ㄕ`差逆?zhèn)鞑バU椒ㄊ抢脤嶋H輸出與期望輸出之差對網(wǎng)絡(luò)的各層連接權(quán)由后向前逐層進行校正的一種計算方法。下面介紹一個三層網(wǎng)絡(luò)模型的誤差逆?zhèn)鞑W(xué)習(xí)規(guī)則的原理。這個網(wǎng)絡(luò)的輸入層有n個神經(jīng)元,輸出層有q個神經(jīng)元,中間層有P個神經(jīng)元。由于中間層與輸入、輸出端沒有直接的聯(lián)系,所以也常把中間層成為隱含層。首先把網(wǎng)絡(luò)的變量設(shè)置如下:輸入層至中間層的連接權(quán)中間層至輸出層的連接權(quán)中間層各單元的閾值輸出層各單元的閾值其中;;;激活函數(shù)采用S型函數(shù) (36)這里之所以算S型函數(shù)作為BP網(wǎng)絡(luò)神經(jīng)元的激活函數(shù),是因為它是連續(xù)可微分的,而且更接近生物神經(jīng)元的信號輸出形式。激活函數(shù)的導(dǎo)數(shù)為 (37)這里的學(xué)習(xí)規(guī)則實際上是一種Delta學(xué)習(xí)規(guī)則, 按梯度下降原則,應(yīng)使的調(diào)整量與的負值成正比例變化,所以中間層至輸出層連接權(quán)的調(diào)整量應(yīng)為 (38)通過推到,可得 (39)為了進一步簡化,設(shè)為對輸出層輸入的負偏導(dǎo),則 (310)所以 (311) , , , 。 同理,輸入層至中間層連接權(quán)的調(diào)整仍按梯度下降法的原則進行。與類似,連接權(quán)的調(diào)節(jié)量為: (312)其中, 同樣也可求出閾值的調(diào)整量,利用對于連接權(quán)的調(diào)整公式,取輸出層的輸入帶入上式,則輸出層閾值的調(diào)整量為: (313)同理根據(jù),取中間層的輸入,則中間層的閾值的調(diào)整量為: (314)以上的推到僅是針對某一組學(xué)習(xí)模式進行的,其誤差也是某一組的誤差。對于全部的輸入模式,我們有網(wǎng)絡(luò)的全局誤差 (315)從以上推倒可以看出,各個連接權(quán)的調(diào)整量是分別于各個學(xué)習(xí)模式對的誤差函數(shù)成正比例變化的,這種方法稱為標準誤差逆?zhèn)鞑ニ惴āP網(wǎng)絡(luò)的學(xué)習(xí)規(guī)則實現(xiàn)的是學(xué)習(xí)模式集合上平方和誤差(或)的梯度下降,而不是特定某個分量的絕對誤差的梯度下降。因此,每次校正完后,網(wǎng)絡(luò)輸出端的誤差對于某些神經(jīng)元來說也有可能增加,但在進行多次反復(fù)計算后,其誤差還是應(yīng)該變小的?!P網(wǎng)絡(luò)學(xué)習(xí)算法 BP神經(jīng)網(wǎng)絡(luò)采用BP算法進行學(xué)習(xí),其學(xué)習(xí)過程分為四個階段:(1)輸入模式是由輸入層經(jīng)過隱含層向輸出層逐層傳遞的“模式順傳播”過程。(2)網(wǎng)絡(luò)的期望輸入與實際輸出之差,即誤差信號,是由輸出層經(jīng)隱含層向輸入層逐層修正連接權(quán)值的“誤差逆?zhèn)鞑ァ边^程。(3)由“模式順傳播”過程和“誤差逆?zhèn)鞑ァ边^程反復(fù)交替進行的網(wǎng)絡(luò)“記憶訓(xùn)練”過程。(4)網(wǎng)絡(luò)趨向收斂,即網(wǎng)絡(luò)的全局誤差趨向極小值的“學(xué)習(xí)收斂”過程。 下面以三層BP網(wǎng)絡(luò)介紹其算法。 設(shè)注入模式向量為(k=1,2,…,m),其中m為學(xué)習(xí)模式對個數(shù),n為輸入層單元個數(shù);對應(yīng)輸入模式的期望輸出向量為,q為輸出層單元個數(shù);中間隱含層的凈輸入向量為,輸出向量為,p為隱含層單元個數(shù);輸出層凈輸入向量為,實際輸出向量為;輸入層至隱含層的連接權(quán)值為(i=1,2,…,n,j=1,2,…,p),隱含層至輸出層的連接權(quán)值為(j=1,2,…,p,t=1,2,…,q);隱含層各個單元的閾值為(j=1,2,…,p),輸出層各個單元的閾值為(t=1,2,…,q)。 BP算法描述如下:(1)初始化。給各連接權(quán)值W、V及閾值、賦予之間的隨機值。 (2)隨機選取一個學(xué)習(xí)模式對量對()提供給網(wǎng)絡(luò)。(3)計算輸入層的輸出。輸入層的各個處理單元對輸入模式不進行處理,只是簡單地將接收到的輸入模式作為相應(yīng)的輸出模式傳遞給隱含層,即輸入層的輸出向量與輸入模式向量相同。(4)按照式(316)和式(317)計算中間隱含層各個神經(jīng)元的凈輸入和輸出 (316) (317)(5)按照式(318)和式(319)計算輸出層各個神經(jīng)元的凈輸入和實際輸出 t=1,2,…,q (318) t=1,2,…,q (319)(6)根據(jù)給定的期望輸出,按照式(320)計算輸出層各個神經(jīng)元的校正誤差 t=1,2,…,q (320)(7) 按照式(321)計算隱含層各個神經(jīng)元的校正誤差
點擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1