freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

車(chē)輛牌照?qǐng)D像識(shí)別算法研究與實(shí)現(xiàn)_畢業(yè)設(shè)計(jì)論文-資料下載頁(yè)

2025-08-21 09:19本頁(yè)面

【導(dǎo)讀】越多,對(duì)交通控制、安全管理的要求也日益提高。因此,汽車(chē)牌照識(shí)別技術(shù)在公共安。全及交通管理中具有特別重要的實(shí)際應(yīng)用意義。字符分割和字符識(shí)別進(jìn)行了初步研究。對(duì)車(chē)牌定位,本文采用投影法對(duì)車(chē)牌進(jìn)行定位;問(wèn)題,本文采用了基于BP神經(jīng)網(wǎng)絡(luò)的識(shí)別方法。在學(xué)習(xí)并掌握了數(shù)字圖像處理和模

  

【正文】 標(biāo)準(zhǔn)化圖像就是要把原來(lái)各不相同的字符統(tǒng)一到同一尺寸 ,在本系統(tǒng)中是統(tǒng)一到同一高度然后根據(jù)高度來(lái)調(diào)整字符的寬度。具體算法為: 先得到原來(lái)字符的高度,并與系統(tǒng)要求 的高度作比較,得出要變換的系數(shù),然后根據(jù)得到的系數(shù)求變換后應(yīng)有的 寬度。在得到寬度高度之后,把新圖像里面的點(diǎn)按照插值的方法映射到原圖像中。 圖像標(biāo)準(zhǔn)歸一化的高度和寬度信息可以通過(guò)一個(gè)對(duì)話(huà)框輸入,但為 了以后特征提取的時(shí)候處理方便。建議歸一化的寬度為 8,高度為 16。 經(jīng)過(guò)標(biāo)準(zhǔn)歸一化處理后的各字符在圖像中的位置不定,要對(duì)它進(jìn)行特征提取處理 西南科技大學(xué) 本科生 畢業(yè)論文 20 起來(lái)比較麻煩,所以要把歸一化處理后的字符進(jìn)行緊縮排列,以形成新的位圖句柄,以方便下一步的提取工作 至此已經(jīng)基本上完成圖像中字符的分割工作。此外還可以采用其他方法以達(dá)到更好的效果。 算法的實(shí)現(xiàn) 根據(jù)以上算法在 VC++中用 C++語(yǔ)言編程,可以實(shí)現(xiàn)字符分割,并實(shí)現(xiàn)字符的歸一化和緊縮排列。 實(shí)驗(yàn)中的字符分割函數(shù)為 CharSegment(); DrawFrame()函數(shù) 用來(lái)給分割后的字符周?chē)?huà)邊框 ; StdDIBbyRec()函數(shù)用來(lái)實(shí)現(xiàn)歸一化處理;緊縮排列 由函數(shù) AutoAlign()完成。下面圖 36顯示了分割算法實(shí)現(xiàn)流程 : 圖 36 分割算法的實(shí)現(xiàn) 流程 西南科技大學(xué) 本科生 畢業(yè)論文 21 字符分割實(shí)驗(yàn)結(jié)果 實(shí)驗(yàn)結(jié)果如下面幾幅圖所示,為了 便于觀察 分割結(jié)果 ,每個(gè)被分割后的字符都用 方框分割開(kāi)來(lái)。從實(shí)驗(yàn)可以得出,該字符分割模塊基本上可以完成大部分的數(shù)字字符分割。圖 312 中 “川 ”字被分割成了三份,這說(shuō)明分割算法的正確性,但它對(duì)漢字 的分割卻是錯(cuò)誤的。圖 313 中為了可以清楚的觀察字符的緊縮排列,歸一化的字符寬度為 12,高度為 24(圖 311中的字符寬度為 8,高度為 16)。由于漢字結(jié)構(gòu)比較復(fù)雜,所以該算法不能對(duì)漢字作字符的分割。 在實(shí)驗(yàn)時(shí),圖 中如果含有漢字,則系統(tǒng)就會(huì)出現(xiàn)錯(cuò)誤而拒絕作字符分割, 實(shí)現(xiàn)漢字分割 還需要作進(jìn)一步改進(jìn)。 圖 37字符分割的結(jié)果 圖 38 緊縮排列的結(jié)果 圖 39 車(chē)牌的字符分割 結(jié)果 圖 310 車(chē)牌的字符緊縮排列 結(jié)果 西南科技大學(xué) 本科生 畢業(yè)論文 22 第 4 章 特征提取與字符識(shí)別 經(jīng)過(guò)上面的一系列變換,車(chē)牌中的字符被分割提取出來(lái)。下面就要從被分割歸一化處理完畢的字符中提取最能體現(xiàn)這個(gè)字符特點(diǎn)的特征向量。將提取出 的 訓(xùn)練樣本中的特征向量代入 BP 網(wǎng)絡(luò)之中就可以對(duì)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,提取出待識(shí)別 樣本的 特征向量代 入到訓(xùn)練好的 BP 網(wǎng)絡(luò)中,就可以對(duì)字符進(jìn)行識(shí)別。 字符的特征提取 特征提取的方法多種多樣,有逐象素特征提取法,骨架特征提取法,垂直方向數(shù)據(jù)統(tǒng)計(jì)特征提取法 , 13 點(diǎn)特征點(diǎn)提取法 ,弧度梯度特征提取法等很多種方法,根據(jù)具體情況的不同我們可以選擇不同的方法。 逐象素特征提取法 這是一種最簡(jiǎn)單的特征提取方法,對(duì)圖像進(jìn)行逐行逐列的掃描 , 當(dāng)遇到黑色象素時(shí)取其特征值為 1,遇到白色象素時(shí)取其特征值為 0,這樣當(dāng)掃描結(jié)束以后就形成了一個(gè)維數(shù)與圖像中象素點(diǎn)的個(gè)數(shù)相同的特征向量矩陣。 骨架特征提取法 兩幅圖像由于它們的線(xiàn) 條的粗細(xì)不同,使得兩幅圖像的差別很大,但將它們的線(xiàn)條細(xì)化后,統(tǒng)一到相同的高度,這時(shí)兩幅圖像的差距就不那么明顯。利用圖形的骨架作為特征來(lái)進(jìn)行數(shù)碼識(shí)別,就使得識(shí)別有了一定的適應(yīng)性。一般使用細(xì)化的方法來(lái)提取骨架,細(xì)化的算法很多如 Hilditch算法、 Rosenfeld算法等。對(duì)經(jīng)過(guò)細(xì)化的圖像利用EveryPixel 函數(shù)進(jìn)行處理就可以得到細(xì)化后圖像的特征向量矩陣。 骨架特征提取的方法對(duì)于線(xiàn)條粗細(xì)不同的圖像有一定的適應(yīng)性,但圖像一旦出現(xiàn)偏移就難以識(shí)別。 垂直方向數(shù)據(jù)統(tǒng)計(jì)特征提取法 這種算法就是自左向右對(duì)圖像進(jìn)行逐 列的掃描,統(tǒng)計(jì)每列黑色象素的個(gè)數(shù),然后自上向下逐行進(jìn)行掃描,統(tǒng)計(jì)每行的黑色象素的個(gè)數(shù),將統(tǒng)計(jì)結(jié)果作為字符的特征向量,如果字符的寬度 w, 長(zhǎng)度為 h, 則特征向量的維數(shù)是 w+h。 該提取方法的缺點(diǎn) 是適應(yīng)性不強(qiáng),當(dāng)字符存在傾斜和偏移時(shí)都會(huì)對(duì)識(shí)別產(chǎn)生誤差。 13點(diǎn)特征點(diǎn)提取法 西南科技大學(xué) 本科生 畢業(yè)論文 23 首先把字符平均分成 8份 , 統(tǒng)計(jì)每一份內(nèi)黑色象素點(diǎn)的個(gè)數(shù)作為 8個(gè)特征,分別統(tǒng)計(jì) 這 8個(gè)區(qū)域黑色象素的數(shù)目,可以得到 8個(gè)特征。然后統(tǒng)計(jì)水平方向中間兩列和豎直方向中間兩列的黑色象素點(diǎn)的個(gè)數(shù)作為 4個(gè)特征,最后統(tǒng)計(jì)所有黑色象素點(diǎn)的個(gè)數(shù)作為第 13 個(gè)特征。也就 是說(shuō),畫(huà) 4 道線(xiàn),統(tǒng)計(jì)線(xiàn)穿過(guò)的黑色象素的數(shù)目??梢缘玫?4個(gè)特征示意圖 , 最后將字符 圖像 的全部黑色象素的數(shù)目的總和作為一個(gè)特征總共即得到 13個(gè)特征 。 13 特征提取法有著極好的適應(yīng)性,但是由于特征點(diǎn)的數(shù)目太少所以樣本訓(xùn)練的時(shí)候比較難收斂。 系統(tǒng) 采用了第一種方法即逐象素特征提取法做特征提取。 因?yàn)檫@種方法算法簡(jiǎn)單,運(yùn)算速度快,可以用 BP網(wǎng)絡(luò)很快的收斂,訓(xùn)練效果好。 字符的識(shí)別方法簡(jiǎn)介 同模式識(shí)別中的其它問(wèn)題一樣,字符識(shí)別方法基本上也分成統(tǒng)計(jì)決策識(shí)別和句法結(jié)構(gòu)識(shí)別兩大類(lèi),而每一類(lèi)中又包含有許多具體的方法。然而無(wú)論 采取何種識(shí)別方法 ,其中的關(guān)鍵都是特征的選取與提取以及相應(yīng)的分類(lèi)算法 。 與兩種識(shí)別方法相對(duì)應(yīng),特征也大體上分為統(tǒng)計(jì)特征和結(jié)構(gòu)特征兩類(lèi)。 結(jié)構(gòu)法 結(jié)構(gòu)方法是發(fā)展最早的一種方法,它的基本思想是把字符圖像分割化為若干的基元,例如筆劃、拓?fù)潼c(diǎn)、結(jié)構(gòu)突變點(diǎn)等,然后和模板比較進(jìn)行判別。由這些結(jié)構(gòu)基元及其相互關(guān)系完全可以精確地對(duì)字符加以描述。主要的方法有基于輪廓、骨架和字符鏈碼的方法。其主要優(yōu)點(diǎn)在于對(duì)字符變化的適應(yīng)性強(qiáng),區(qū)分相似字符能力強(qiáng)。但是在實(shí)際應(yīng)用中,面臨的主 要問(wèn)題是抗干擾能力差,因?yàn)樵趯?shí)際得到的字符圖像中存在著各種干 擾 如 傾斜、扭曲、斷裂、粘連和 對(duì)比度差等。這些因素直接影響到結(jié)構(gòu)基元的提取,此外結(jié)構(gòu)方法的描述比較復(fù)雜,匹配過(guò)程的復(fù)雜度因而也較高。 統(tǒng)計(jì)法 統(tǒng)計(jì)法依賴(lài)于大量的原始樣本和數(shù)值計(jì)算 , 它是從車(chē)牌字符原始數(shù)據(jù)中提取與分類(lèi)最相關(guān)的信息,使得類(lèi)內(nèi)差距極小化,類(lèi)間差距極大化,特征對(duì)同一個(gè)字符類(lèi)的形變應(yīng)該盡量保持不變。統(tǒng)計(jì)特征又可以分為全局特征和局部特征。全局特征主要是對(duì)整個(gè)字符圖像進(jìn)行變換,利用變換系數(shù)作為特征,常用的變換包括 KL變換、 Fourier變換、 Gabor 變換、 Hadamard變換、 DCT變換、 Walsh變換 、 Rapid變換、小波變換和矩陣特征變換等多種方法。局部特征是將字符點(diǎn)陣圖像分割成不同區(qū)域或網(wǎng)格,在 西南科技大學(xué) 本科生 畢業(yè)論文 24 各個(gè)小區(qū)域內(nèi)分別抽取統(tǒng)計(jì)特征,在特定位置對(duì)特定大小的窗口內(nèi)的圖像進(jìn)行變換,如投影特征、細(xì)胞特征、計(jì)算方向線(xiàn)素特征等。統(tǒng)計(jì)特征的特點(diǎn)是抗干擾性強(qiáng),匹配與分類(lèi)的算法簡(jiǎn)單,易于實(shí)現(xiàn)。不足之處在于細(xì)分能力較弱,區(qū)分相似字符的能力差一些。 字符的結(jié)構(gòu)特征直接反映了字符的屬性,利用了字符自身直觀的特點(diǎn);用字符的統(tǒng)計(jì)特征進(jìn)行識(shí)別則是充分利用了計(jì)算機(jī)處理數(shù)字特征能力強(qiáng)的特點(diǎn) 。 兩種特征各有利弊,一般需要結(jié)合使用。另外,雖然神經(jīng) 網(wǎng)絡(luò)方法中主要采用局部特征,其分類(lèi)機(jī)理也與傳統(tǒng)的統(tǒng)計(jì)方法相同,但是由于它具有很大的靈活性,我們下面將它單獨(dú)作為一類(lèi)進(jìn)行詳細(xì)討論。 系統(tǒng)采用的識(shí)別方法 目前,隨著計(jì)算機(jī)的迅速發(fā)展,模式識(shí)別技術(shù)己經(jīng)從理論探討為主發(fā)展到大量的實(shí)際應(yīng)用,人們將更多的注意力開(kāi)始轉(zhuǎn)向那些用于語(yǔ)音、圖像、機(jī)器人以及人工智能等的模式識(shí)別實(shí)際問(wèn)題。解決這些問(wèn)題的關(guān)鍵是需要進(jìn)行復(fù)雜而龐大的實(shí)時(shí)數(shù)據(jù)處理,而現(xiàn)有計(jì)算機(jī)的存貯容量及計(jì)算復(fù)雜性的局限,使得實(shí)時(shí)化的應(yīng)用受阻。這種面向?qū)崟r(shí)應(yīng)用的模式識(shí)別問(wèn)題促使人們開(kāi)始將并行處理的神經(jīng)網(wǎng)絡(luò)應(yīng)用到模 式識(shí)別中。 人工神經(jīng)網(wǎng)絡(luò)簡(jiǎn)介 人工神經(jīng)網(wǎng)絡(luò) (Artificial Neural Network)簡(jiǎn)稱(chēng)神經(jīng)網(wǎng)絡(luò)是基于目前人們對(duì)自然神經(jīng)系統(tǒng)的認(rèn)識(shí)而提出的一些神經(jīng)系統(tǒng)的模型 , 一般是由一系列被稱(chēng)為神經(jīng)元的具有某種簡(jiǎn)單計(jì)算功能的節(jié)點(diǎn)經(jīng)過(guò)廣泛連接構(gòu)成的一定網(wǎng)絡(luò)結(jié)構(gòu),而其網(wǎng)絡(luò)連接的權(quán)值根據(jù)某種學(xué)習(xí)規(guī)則在外界輸入的作用下不斷調(diào)節(jié),最后使網(wǎng)絡(luò)具有某種期望的輸出特性。神經(jīng)網(wǎng)絡(luò)的這種可以根據(jù)輸入樣本學(xué)習(xí)的功能,使得它非常適合于用來(lái)解決模式識(shí)別問(wèn)題,這也是神經(jīng)網(wǎng)絡(luò)目前最成功的應(yīng)用領(lǐng)域之一 [15]。人工神經(jīng)網(wǎng)絡(luò)模式識(shí)別 與傳統(tǒng)模式識(shí)別方法相比有以下的特點(diǎn) : a)對(duì)復(fù)雜的不確定性問(wèn)題具有適應(yīng)和自學(xué)習(xí)能力 ; b)具有表示任意非線(xiàn)性關(guān)系的能力 ; c)具有網(wǎng)絡(luò)的非線(xiàn)性動(dòng)力學(xué)帶來(lái)的快速優(yōu)化計(jì)算能力 ; d)對(duì)大量定型或定量信息的分布存儲(chǔ)能力,并行處理能力與合成能力 ; e)由并行分布處理結(jié)構(gòu)帶來(lái)的容錯(cuò)能力。 神經(jīng)網(wǎng)絡(luò)模式識(shí)別的基本方法是: 首先用已知樣本訓(xùn)練神經(jīng)網(wǎng)絡(luò),使之對(duì)不同類(lèi) 西南科技大學(xué) 本科生 畢業(yè)論文 25 別的已知樣本給出所希望的 不同輸出,然后用該網(wǎng)絡(luò)識(shí)別 未知的樣本,根據(jù)各樣本所對(duì)應(yīng)的網(wǎng)絡(luò)輸出情況來(lái)劃分未知樣本的類(lèi)別。 神經(jīng)網(wǎng)絡(luò)可以處理一些環(huán)境信息十分復(fù)雜,背景知識(shí)不 清楚,推理規(guī)則不明確的問(wèn)題,允許樣品有較大的缺損、畸變,其運(yùn)行速度快,自適應(yīng)性能好。 系統(tǒng)中采用 BP(BackPropagation)神經(jīng)網(wǎng)絡(luò)來(lái)實(shí)現(xiàn)車(chē)牌字符的識(shí)別。因?yàn)?BP 算法己經(jīng)比較成熟,其實(shí)現(xiàn)相對(duì)來(lái)講比較簡(jiǎn)單。并且如果能適當(dāng)改進(jìn) BP網(wǎng)絡(luò)的學(xué)習(xí)算法,則不會(huì)需要太長(zhǎng)訓(xùn)練時(shí)間。 BP 神經(jīng)網(wǎng)絡(luò)識(shí)別車(chē)牌 三層的 BP 神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu)如圖 41所示 : i 為輸入層節(jié)點(diǎn) ; j 為隱層節(jié)點(diǎn) ; k為輸出層節(jié)點(diǎn)。層與層之間采用全互連的方式。同一層神經(jīng)元之間不存在相互連接。網(wǎng)絡(luò)的每一個(gè)輸入節(jié)點(diǎn)表示字符圖像提取特征后特征向量的一個(gè)分量數(shù)據(jù),輸出節(jié)點(diǎn)表示分類(lèi)序號(hào),分類(lèi)判決可以采用輸出最大值法。 BP 算法由兩部分組成 : 信息的正向傳遞與誤差的反向傳輸。在正向傳輸中,輸入信息從輸入經(jīng)隱含層逐層計(jì)算傳向輸出層,每一層神經(jīng)元的狀態(tài)只影響下一層神經(jīng)元的狀態(tài)。如果在輸出層沒(méi)有得到期望的輸出,則計(jì)算輸出層的誤差變化值,然后轉(zhuǎn)向反向傳播,通過(guò)網(wǎng)絡(luò)將誤差信號(hào)沿原來(lái)的連接通路反傳回來(lái)修改各層神經(jīng)元的權(quán)值 , 直至達(dá)到期望目 標(biāo)。 BP 網(wǎng)絡(luò)的實(shí)現(xiàn)分為兩個(gè)階段的,即學(xué)習(xí) (訓(xùn)練 )階段和識(shí)別階段。在學(xué)習(xí)階段輸入要學(xué)習(xí)的樣本,按照網(wǎng)絡(luò)初始設(shè)定的權(quán)重、閾值以及傳輸函數(shù)進(jìn)行計(jì)算,得出每一層神經(jīng)元的輸出,這是從底層向上進(jìn)行的。通過(guò)理想輸出與輸出層之間的誤差來(lái)決定是否對(duì)權(quán)重、閾值進(jìn)行修改,這個(gè)修改是從高層向下進(jìn)行的。兩個(gè)過(guò)程反復(fù)進(jìn)行,直到網(wǎng)絡(luò)收斂為止,此為學(xué)習(xí)階段。權(quán)重的學(xué)習(xí)就是不斷的調(diào)整各個(gè)神經(jīng)元的連接強(qiáng)度,使其能在最小二乘的意義上逼近所對(duì)應(yīng)的輸出。 設(shè)訓(xùn)練集包含 M 個(gè)樣本,對(duì)第 p 個(gè)訓(xùn)練樣本 ( Mp ??????? 2,1 ),單元 j 的實(shí)際輸出為 pjO ,它的第 i 個(gè)輸入 (也即第 i 個(gè)神經(jīng)元的輸出 )為 pjO ,則 : piNi jipj OWu ??? 0 ( 41) BP 算法中大多選用 Sigmoid型函數(shù)作為輸出函數(shù),即 : )e xp (1 1)( pjpjpj uufO ???? ( 42) 定義網(wǎng)絡(luò)誤差函數(shù)為: 西南科技大學(xué) 本科生 畢業(yè)論文 26 ??p pEE ? ?221? ?? j pjpjp OdE ( 43) 式 ( 43) 中, pjd 表示對(duì) p 個(gè)訓(xùn)練樣本,單元 j 的期望輸出。訓(xùn)練網(wǎng)絡(luò)的目的是找到一組權(quán)重,使誤差函數(shù)極小化。 圖 41 三層 BP網(wǎng)絡(luò)結(jié)構(gòu) 利用梯度最速下降法,使權(quán)值沿函數(shù)的負(fù)梯度方向改變。若權(quán)值的變化量記為ijW? ,即 : jipij WEW ????? ( 44) 令式 ( 44) 中 :
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1