freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)論文-車牌預(yù)處理及定位與分割算法研究-資料下載頁

2025-06-04 03:19本頁面
  

【正文】 圖 中點(diǎn) (x0, y0)對應(yīng)新圖中的點(diǎn) (x1, y1)的轉(zhuǎn)換矩陣為: (410) 其逆運(yùn)算如下: (411) 也即: 23 (412) 當(dāng) (x0, y0)是整數(shù)時(shí),表明 (x1, y1)對應(yīng)在原圖像的網(wǎng)格點(diǎn)上,不必進(jìn)行任何變換,直接令 (x1, y1)等于 (x0, y0)處的灰度值。 當(dāng) (x0, y0)不是整數(shù)時(shí),要進(jìn)行插值變換。一般的插值變換有 3 種,即鄰近插值,線性插值,三次插值。 鄰近插值法中歸一化的圖像 g(x, y),其點(diǎn) (x1, y1)是由 (x0, y0)鄰接的 4 個(gè)點(diǎn) (m, n),(m+1, n), (m, n+1), (m+1, n+1)中幾何距離最接近它的點(diǎn)的灰度值來近似。 線性插值算法中的 (x1, y1)的灰度值是用 (x0, y0)鄰近的 4 個(gè)點(diǎn) (m, n), (m+1, n), (m,n+1), (m+1, n+1)按照如下規(guī)則計(jì)算出來的: (413) 三次插值算法中的 (x1, y1)的灰度值是用 (x0, y0)鄰近的 16 個(gè)點(diǎn)的灰度值按照一定規(guī)則計(jì)算得到??紤]到算法復(fù)雜性和實(shí)時(shí)性的處理要求,本文選用了鄰近插值法來進(jìn)行字符歸一化。將字符歸一化為 20x16 的點(diǎn)陣。 圖 48 歸一化前的單個(gè)車 牌字符 圖 49 歸一化后的單個(gè)車牌字符 24 第五章 汽車牌照的字符識別 汽車圖像經(jīng)過預(yù)處理、車牌定位、字符分割后,得到單個(gè)的歸一化字符,隨后就要進(jìn)入汽車牌照識別中的最重要的環(huán)節(jié),字符識別。本文在基于傳統(tǒng)的 BP 神經(jīng)網(wǎng)絡(luò)算法基礎(chǔ)上,為了提高識別速度和識別正確率,提出了改進(jìn)的 BP 新算法。算法的流程如下 :歸一化后的字符,分為完全不同的 3 種類型,分別是漢字字符,阿拉伯?dāng)?shù)字,英文大寫字母。針對不同類型的字符,進(jìn)行不同的特征提取,然后采用了不同類別的識別神經(jīng)網(wǎng)絡(luò),分別用來識別漢字字符,阿拉伯?dāng)?shù)字和大寫英文字符。 圖 51汽車牌照字符識別的流程 車牌字符特征提取 基于字符特征的字符識別算法一般包括以下 3 個(gè)步驟 [11]: ( 1)提取字符的特征,建立一個(gè)字符特征向量空間,每個(gè)字符對應(yīng)向量空間中的一個(gè)向量; ( 2)定義分類函數(shù); ( 3)對輸入的字符圖像自動(dòng)提取相應(yīng)的特征,根據(jù)分類函數(shù)進(jìn)行特征匹配,識別出相應(yīng)的字符。 用于字符識別的分類特征應(yīng)滿足以下要求: ( 1)有較強(qiáng)的分類能力。分類后的樣本要實(shí)現(xiàn) :類內(nèi)各樣本具有較好的一致性,類間各樣本的區(qū)分度應(yīng)盡量大; ( 2)具有較好的魯棒性,穩(wěn)定性。車牌字符經(jīng)常會發(fā)生變形、斷裂等情 況,使字符結(jié)構(gòu)等受損,應(yīng)盡量減少其影響; ( 3)易于提取,方便運(yùn)算。特征的選取直接影響到最終的識別效率,因此好的模式特征應(yīng)具有較好的平移不變性、旋轉(zhuǎn)不變性和尺度不變性。 一般,涉及到車牌內(nèi)字符的識別,最常用的有兩大類特征,分別是 :結(jié)構(gòu)特征和統(tǒng)計(jì)特征 [12]。結(jié)構(gòu)特征可以準(zhǔn)確的描述待識別漢字字符的幾何特征,同時(shí)受噪聲和字符形變的影響較小,因此基于結(jié)構(gòu)的識別方法是字符識別的一種有力工具。字符的結(jié)構(gòu)特征通常包括:特征點(diǎn)、筆畫、線段等,字符結(jié)構(gòu)特征的提取主要有兩種方法 :第一種是基于像素的字符輪廓獲取方法,這種方法 沒有考慮全局信息和結(jié)構(gòu)信息,因而結(jié)果中會存在諸如毛邊和交叉點(diǎn)變形等問題;第二種方法是用一組線段及它們相互間的關(guān)系來描述字符并進(jìn)行識別,但該方法易受邊界噪聲和交叉點(diǎn)的影響。 字符的統(tǒng)計(jì)特征,是從原始數(shù)據(jù)中提取與分類最相關(guān)的信息,這些信息使得類內(nèi)差距 25 最小,類間差距最大,同時(shí)這些信息對同一類字符的形變應(yīng)盡量保持不變。本文中,為了保證識別的正確率,簡化網(wǎng)絡(luò)規(guī)模,提高神經(jīng)網(wǎng)絡(luò)的處理速度,對英文大寫字母,阿拉伯?dāng)?shù)字的特征提取與對漢字字符的特征提取,采用不同的提取方法。對英文和阿拉伯?dāng)?shù)字的特征提取,采用具有統(tǒng)計(jì)性質(zhì)的,根 據(jù)局部特征的,適應(yīng)性較好的 13 特征提取法,也就是直接利用每個(gè)點(diǎn)的像素值作為特征提取的基礎(chǔ),從構(gòu)成該字符的像素點(diǎn)中,統(tǒng)計(jì)提取出13 個(gè)特征點(diǎn)。為了提取出這 13 個(gè)特征點(diǎn),首先把字符分 8 份,統(tǒng)計(jì)每一份內(nèi)目標(biāo)像素點(diǎn)的個(gè)數(shù)作為 8 個(gè)特征。如下圖所示: 圖 52字符分割 然后依此規(guī)律,統(tǒng)計(jì)水平方向上的中間兩列和豎直方向上的中間兩列的目標(biāo)像素個(gè)數(shù)作為 4 個(gè)特征,即畫四條穿過該位置的線,然后,統(tǒng)計(jì)線內(nèi)所占的目標(biāo)像素的個(gè)數(shù)。最后統(tǒng)計(jì)整個(gè)字符中目標(biāo)像素的個(gè)數(shù)作為一個(gè)整體特征,最后,一共得到了關(guān)于該字符的 13個(gè)特征。這樣,對于每一 個(gè)輸入樣本,輸入節(jié)點(diǎn)個(gè)數(shù)為 13 個(gè)。對于漢字字符,考慮到其自有的特性,采用密度筆畫特征。它首先將歸一化后字符圖像向不同的方向進(jìn)行投影,然后對文字黑像素的個(gè)數(shù)做累加運(yùn)算,形成筆畫密度直方圖 [13]。 基于 BP 神經(jīng)網(wǎng)絡(luò)的字符識別 神經(jīng)網(wǎng)絡(luò)理論概述 人工神經(jīng)網(wǎng)絡(luò)的研究背景最早開始于 19 世紀(jì)末, 20 世紀(jì)處。它源于物理學(xué)、心理學(xué)和神經(jīng)生理學(xué)的跨學(xué)科研究。神經(jīng)網(wǎng)絡(luò) (Neural Network)是由大量神經(jīng)元 (處理單元 ),廣泛連接而成的網(wǎng)絡(luò),它是在人類對其大腦工作機(jī)理認(rèn)識的基礎(chǔ)上,以人腦的組織結(jié)構(gòu)和活動(dòng)規(guī) 律為背景,反映了人腦的某些基本特征,可以說是對人腦的某種抽象,簡化和模仿。它是一個(gè)數(shù)學(xué)模型,可以用電子線路來實(shí)現(xiàn)或用計(jì)算機(jī)來模擬人的自然智能。 神經(jīng)網(wǎng)絡(luò)是巨量信息并行處理和大規(guī)模平行計(jì)算的基礎(chǔ),它既是高度非線形動(dòng)力學(xué)系統(tǒng),又是自適應(yīng)系統(tǒng)??捎脕砻枋稣J(rèn)知決策及控制的智能行為,它具有存儲知識和應(yīng)用經(jīng)驗(yàn)知識的自然特性,它與人腦相似之處可概括為如下兩個(gè)方面 :一是通過學(xué)習(xí)從外部環(huán)境中獲取知識;二是內(nèi)部神經(jīng)元具有存儲知識的能力。神經(jīng)網(wǎng)絡(luò)具有高度非線性映射能力、自組織和適應(yīng)能力、記憶聯(lián)想能力。它可以在外界環(huán)境的刺激作用下 調(diào)整網(wǎng)絡(luò)自由參數(shù),并以新的方式來響應(yīng)外部環(huán)境。能夠從環(huán)境中學(xué)習(xí)并在學(xué)習(xí)中提高自身性能是神經(jīng)網(wǎng)絡(luò)最有意義的性質(zhì)。 神經(jīng)網(wǎng)絡(luò)的工作方式,由兩個(gè)階段構(gòu)成: ( 1)學(xué)習(xí)期:神經(jīng)元之間的連接權(quán)值可由學(xué)習(xí)規(guī)則進(jìn)行修改,以使目標(biāo)函數(shù)達(dá)到最??; ( 2)工作期:在此期間,保持連接權(quán)值不變,由網(wǎng)絡(luò)的輸入得到相應(yīng)的輸出。神經(jīng) 26 網(wǎng)絡(luò)有不同的分類方法,但從總的方面來講,一般將神經(jīng)網(wǎng)絡(luò)分為以下四種模型 [14]:前饋網(wǎng)絡(luò)模型、反饋網(wǎng)絡(luò)模型、自組織網(wǎng)絡(luò)模型與隨機(jī)型網(wǎng)絡(luò)模型。 神經(jīng)網(wǎng)絡(luò)算法的描述 圖 53BP 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) BP 網(wǎng)絡(luò)是一個(gè)多層前饋網(wǎng)絡(luò) (FFNForward Feedback Network),最常用的 BP 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖 53,由 3 層網(wǎng)絡(luò),即輸入層,隱含層,輸出層共同組建而成,其運(yùn)行機(jī)理如下: ( 1)初始化神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu),置所有的權(quán)值為隨機(jī)任意小,以一個(gè)隨機(jī)分布隨機(jī)地挑選閉值,該分布選擇為均值等于 0 的均勻分布 [15],其方差的選擇應(yīng)該使得神經(jīng)元的輸出應(yīng)盡量在激活函數(shù)的線性部分變化; ( 2 )確定輸入的學(xué)習(xí)訓(xùn)練集合: ,期望的輸出集合 : ,輸入層到隱含層之間存在一個(gè)權(quán)值矩陣 ,其中的列向量 為隱含層第 i 個(gè)神經(jīng)元所 對應(yīng)的權(quán)值向量:隱含層到輸出層之間存在一個(gè)權(quán)值矩陣: ,其中的列向量 jw 為輸出層第 j 個(gè)神經(jīng)元對應(yīng)的權(quán)值向量。假設(shè):隱含層輸出向量記為: Tm21 }yy{y ,, ????Y ,輸出層的輸出向 27 量定義為: Tt21 }oo{o ,, ????O 。 (3)通過前饋網(wǎng)絡(luò),使隱藏層和輸出層的所有神經(jīng)元都采用非線性激活函數(shù) (一般取單極性 :Sigmoid 函數(shù) ): xexf ??? 1 1)(,逐級計(jì)算輸出值 。輸入層的神 經(jīng)單元不對輸入做函數(shù)變換,只起緩沖作用。各層信號之間的數(shù)學(xué)關(guān)系如下: 對于隱含層,有如下公式: )( jj n e tfy ? ( 51) iijnij xvn e t 0??? ( 52) 對于輸出層有如下公式: )( kk n e tfo ? ( 53) jjkmjk ywne t 0??? ( 54) (4)利用誤差反饋調(diào)整權(quán)值,用遞歸的方法從輸出節(jié)點(diǎn)開始返回到中間隱層,按下式進(jìn)行調(diào)整權(quán)值: 首先計(jì)算網(wǎng)絡(luò)輸出值與期望輸出值之間的誤差 E: 21 )(21)(21kklk odODE ????? ? ( 55) 將該式展開至隱含層,可得: 2012121 )]([21)]([ jjkmjklkkklk ywfdne tfdE ??? ??????? ( 56) 將該式展開至輸入層,可得: 28 2iij0ijk0jk1 )]}xvf(wf[{d21 nmlkE ??? ???? ( 57) 由上式可看出,通過調(diào)整權(quán)值 wij, vjk,可以改變誤差 E。因此,為使誤差不斷減小,以滿足實(shí)際要求,得到如 下的權(quán)值調(diào)整量:對于輸出層,有: jkkkjkjk wne tne tEwEw??????????? ?? ( 58) 定義一個(gè)誤差信號: )(` kkkkkkok ne toEne tooEne tE f??????????? ???? ( 59) 又由式( 1),得: )( kkkodoE ????? ( 510) 最后,可得: jkkkkjokjk yooodyw )1()( ????? ??? ( 511) 對于隱含層,有: ijjijij vne tne tEvEv??????????? ?? ( 512) 定義一個(gè)誤差信號: )(` jjjjjjyj ne tyEne tyyEne tE f??????????? ???? ( 513) 又由式( 2),得: 29 jkkkklkyE wne tod fj )()(`1 ???? ??? ( 514) 最后可得: ijjjkoklkikjij xyywxv )1()(1 ????? ? ???? ( 515) ( 5)迭代。首先判斷訓(xùn)練學(xué)習(xí)后的誤差是否達(dá)到預(yù)定要求,如果沒有達(dá)到,則返回第( 2)步輸入新的樣本輸入集;如果己經(jīng)達(dá)到預(yù)定目標(biāo)或某一給定值,則學(xué)習(xí)過程結(jié)束。 即網(wǎng)絡(luò)存在的缺陷及其原因分析 BP 神經(jīng)網(wǎng)絡(luò)的層數(shù)、及節(jié)點(diǎn)數(shù),對整個(gè)網(wǎng)絡(luò)的收斂性,收斂時(shí)間、泛化能力都有極大的影響。因此,對于 BP 神經(jīng)網(wǎng)絡(luò)的具體應(yīng)用,網(wǎng)絡(luò)最佳結(jié)構(gòu)的確定非常關(guān)鍵 。另外,網(wǎng)絡(luò)的繁簡程度對 BP 網(wǎng)絡(luò)的硬件實(shí)現(xiàn)也有很大的影響,因此,如何確定網(wǎng)絡(luò)層數(shù)和每層應(yīng)選的節(jié)點(diǎn)數(shù)非常重要。 目前,對于 BP 神經(jīng)網(wǎng)絡(luò)隱含層結(jié)構(gòu)的確定,最常用的方法是依靠經(jīng)驗(yàn)來確定。而且,對于不同應(yīng)用問題其遵循的規(guī)律也不一樣,這就給 BP 神經(jīng)網(wǎng)絡(luò)的應(yīng)用及推廣帶來了很大的障礙。 BP 神經(jīng)網(wǎng)絡(luò)采用 WidrowHoff 學(xué)習(xí)算法和非線性可微轉(zhuǎn)移函數(shù)的多層網(wǎng)絡(luò)。一個(gè)典型的 BP 網(wǎng)絡(luò)采用的是梯度下降算法,也就是 WidrowHoff 算法所固定的,這種算法計(jì)算量小,易實(shí)現(xiàn),但對于定義在多維空間上的函數(shù),其誤差函數(shù)是多維空間的曲面,曲面本身凹凸不平,存在多個(gè)局部極小點(diǎn)或平坦區(qū)域,因此,使用 BP 網(wǎng)絡(luò),在訓(xùn)練的過程中,梯度法很容易陷入某一 局部最小點(diǎn)中,以至于使得訓(xùn)練無法進(jìn)行,得到全局最優(yōu)解。 BP 神經(jīng)網(wǎng)絡(luò)在訓(xùn)練學(xué)習(xí)的后期,算法的收斂速度會相當(dāng)慢,通常會需要成百上千次迭代甚至更多。主要是有以下兩個(gè)方面的原因: (1)固定的學(xué)習(xí)率η和慣性因子α 因?yàn)楦鶕?jù)上述公式, BP 神經(jīng)網(wǎng)絡(luò)本質(zhì)上是優(yōu)化計(jì)算中的梯度下降法,利用誤差對權(quán)值、閾值的一階導(dǎo)數(shù)信息來指導(dǎo)下一步的權(quán)值調(diào)節(jié)方向,以求達(dá)到最終誤差達(dá)到預(yù)設(shè)的誤差范圍,使之最小;為了保證算法的收斂性,學(xué)習(xí)η必須小于某一上界。這就決定了 BP 神經(jīng)網(wǎng)絡(luò)的收斂速度不可能很快。 BP 神經(jīng)網(wǎng)絡(luò)中的學(xué)習(xí)率η和慣性因子α一般都是
點(diǎn)擊復(fù)制文檔內(nèi)容
畢業(yè)設(shè)計(jì)相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1