freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

復(fù)雜背景圖像中文本定位算法設(shè)計(jì)終稿畢業(yè)論文(參考版)

2025-06-30 13:46本頁(yè)面
  

【正文】 如果能夠開發(fā)出新的更為有效的特征或者能夠?qū)崿F(xiàn)對(duì)各種特征的融合,如:紋理特征與連通域特征的融合,是今后需要著重研究的重點(diǎn),運(yùn)用更為有效的分類方法也是今后研究的一個(gè)重點(diǎn)工作。由于圖像文本的背景往往比較復(fù)雜,目前的研究方向一般都是針對(duì)某一類具體應(yīng)用,例如車牌定位、文檔識(shí)別、視頻檢索等,實(shí)現(xiàn)通用的復(fù)雜背景中的文本檢測(cè)還有很多困難。(2) 實(shí)現(xiàn)了一種基于邊緣檢測(cè)的文本定位方法。本文對(duì)這一課題進(jìn)行了研究,具有理論意義與應(yīng)用價(jià)值。第四章  總結(jié) 復(fù)雜背景下的文本定位研究對(duì)于今天這樣一個(gè)信息時(shí)代有重要的意義。本文的基于邊緣檢測(cè)的文本定位方法通過連通區(qū)域分析得到候選文本區(qū)域,然后采用一定的規(guī)則對(duì)這些區(qū)域進(jìn)行鑒定與合并得到定位結(jié)果。但是利用該算法進(jìn)行文本定位時(shí),有些非文本區(qū)域并沒有剔除,故本文將利用基于邊緣檢測(cè)的文本定位方法得到的候選文本區(qū)域在支持向量機(jī)下進(jìn)行擴(kuò)充,以倬得到較精確的文本區(qū)域。表31 實(shí)驗(yàn)結(jié)果數(shù)據(jù)圖像總數(shù)100失敗圖像數(shù)4 失敗率4%實(shí)際文本總數(shù)778正確定位的文本數(shù)463%錯(cuò)誤定位的文本數(shù)366%未被定位的問本數(shù)315%其中:準(zhǔn)確率=虛假率=漏檢率==1準(zhǔn)確率實(shí)驗(yàn)結(jié)果表明,基于改進(jìn)的Canny算子的文本定位方法效果較好。本文采用失敗率、文本定位準(zhǔn)確率、虛假率、漏檢率來評(píng)價(jià)實(shí)驗(yàn)結(jié)果。文本定位結(jié)果如圖37所示: 圖37 實(shí)驗(yàn)結(jié)果示例3下面舉幾個(gè)誤檢的例子如圖38,39,310所示: 圖38 誤檢示例1 圖39 誤檢示例2 圖310 誤檢示例3本文上述實(shí)驗(yàn)是在Intel(R)Pentium(R)processor 1.40GHz的NfATLAB6 5上實(shí)現(xiàn),對(duì)100幅包含文本的圖像進(jìn)行實(shí)驗(yàn),選擇的實(shí)驗(yàn)樣本盡可能包括了文本定位的各種情況,其中包含光照不均、字跡模糊、文字歪斜等。 (324)其中S(R)表示矩形框R的面積,表示和的相交區(qū)域。對(duì)于相交文本框采用合并的方法m。如果連通域的面積不滿足上式,則它是非文本區(qū)域。面積太小的文本區(qū)域極有可能是噪聲區(qū)域,因此本文要求文本區(qū)域面積大于10個(gè)像素點(diǎn)。則認(rèn)為它是非文本區(qū)域。如果方框的高寬不滿足上式的要求,則篩掉此方框。文本區(qū)域的限制條件以及篩選出非文本區(qū)域的方法如下所示:(1) 去掉矩形框的高和寬明顯不合要求的方框。所有的連通區(qū)域?qū)⒆鳛楹蜻x區(qū)域進(jìn)行進(jìn)一步的處理。圖像金字塔中不同尺度的圖像經(jīng)過邊緣密度、二值化、連通區(qū)域分析等處理后,得到了不同尺度間不同連通域結(jié)果,這些連通區(qū)域有三種可能:文本區(qū)域,非文本區(qū)域,部分包含文本區(qū)域。該方法不僅充分利用區(qū)域的鄰域信息,而且一次掃描就可以標(biāo)記出圖像中所有目標(biāo)物體,不會(huì)出現(xiàn)標(biāo)號(hào)沖突的現(xiàn)象,真正做到了快速、簡(jiǎn)單。后續(xù)操作不斷從堆棧中取出種子段,重復(fù)上述操作直到堆棧為空(標(biāo)記完一個(gè)連通區(qū)域)。檢查當(dāng)前段的上下兩行是否有重疊并且未標(biāo)記的目標(biāo)段。算法從上往下、從左向右對(duì)圖像進(jìn)行掃描,采用8鄰域連通,如圖36所示:圖36 8鄰域連通圖,可見O點(diǎn),和8點(diǎn)是連通的,其余的點(diǎn)都不連通。當(dāng)連通區(qū)域形狀不規(guī)則時(shí),傳統(tǒng)的像素標(biāo)記法以及線標(biāo)記法執(zhí)行效率嚴(yán)重下降,算法的大部分時(shí)間浪費(fèi)在對(duì)沖突標(biāo)記的處理上,而區(qū)域增長(zhǎng)法當(dāng)圖像中的連通區(qū)域的面積較大時(shí),需要對(duì)每個(gè)目標(biāo)像素點(diǎn)進(jìn)行8鄰域的判斷,效率也極大下降?!∵B通區(qū)域分析連通域分析方法就是用來獲取圖像中各個(gè)對(duì)象的連通域,也常稱為連通域標(biāo)記(Connected Component Labeling,CCL)。考慮到整體閾值法對(duì)于光照不均、噪聲干擾大的圖像,其二值化效果較差,但其反映了整個(gè)圖像的整體灰度分布情況:而局部閩值法雖然對(duì)光照不均圖像有較好的適應(yīng)性,但局部閡值法容易出現(xiàn)筆劃斷裂及偽影(偽筆劃)現(xiàn)象。如經(jīng)典的局部閩值化算法,Bemsen算法,其閨值由考察點(diǎn)鄰域的灰度確定,算法中不存在預(yù)定閾值,適應(yīng)性較整體閾值法廣,但是當(dāng)窗H的寬度較小時(shí),很易出現(xiàn)偽影現(xiàn)象和目標(biāo)的丟失;而當(dāng)窗口寬度增大時(shí),算法的速度將受到很大影響。法,它反映了整個(gè)圖像灰度分布情況,如Ostu算法是一種經(jīng)典的整體閾值方但它單一闋值的特性決定了它的抗噪能力較差。目前圖像二值化方法主要有以下幾種:全局閾值法;局部閾值法;動(dòng)態(tài)閥值法。為了下一步的連通區(qū)域分析,本文接著對(duì)圖像進(jìn)行二值化處理。窗口的選取與字符的高度密切相關(guān),由于在此之前已經(jīng)做了金字塔分解,所以w可以取一個(gè)固定值13。但是文本區(qū)域相對(duì)于背景區(qū)域來說邊緣密度要大得多,即在以某個(gè)像素為中心的一個(gè)固定的窗口內(nèi),文本區(qū)域窗口內(nèi)邊緣像素的數(shù)量要大于背景區(qū)域窗口內(nèi)邊緣像素的數(shù)量,文字筆畫的邊緣分布比較集中,邊緣密度更好地代表了文本區(qū)域的邊緣特征。這說明改進(jìn)后的Canny算法對(duì)邊緣的提取效果比原Canny算法有了較大的提高。實(shí)驗(yàn)結(jié)果如圖34,35所示?;谝陨贤茝V公式,可以得出中心加權(quán)改進(jìn)的均值濾波算法的數(shù)學(xué)表達(dá)式為: (319)其中,x為窗口中心像素點(diǎn)的灰度值,w為權(quán)重。由于噪聲與圖像信號(hào),特別是與圖像細(xì)節(jié)相比變化較慢,因此噪聲窗口的尺寸可以選得比濾波窗口大。式(317)中函數(shù)G的作用是確定參與平均的灰度窗口大小。式(316)中函數(shù)F的作用是在濾波窗口中選取一個(gè)像素點(diǎn),將其灰度值作為被處理點(diǎn)真實(shí)灰度的近似。將MTM算法的思路推廣可得中心加權(quán)改進(jìn)的均值濾波方法。由于選用中值作為灰度窗口的中心,因此MTM濾波器能有效地濾除脈沖噪聲。MTM的數(shù)學(xué)表示為: (315)其中,只表示濾波窗口內(nèi)的像素點(diǎn)組成的集合。中心加權(quán)改進(jìn)的均值濾波算法是對(duì)改進(jìn)的均值濾波算法(MTM,Modified Trimmed Mean)的改進(jìn)。越大,噪聲抑制效果越好,圖像越平滑,但是邊界定位也越不精確。然后將極大值抑制后的圖像按進(jìn)行兩次閾值處理,將梯度小于閾值的像素灰度置為0。即在圖像I(x,y)的每個(gè)像素,I(i,j)的8鄰域里按梯度方向比較梯度幅度,如果在梯度方向上的兩個(gè)像素的幅值均小于,I(i,j)的,則其有可能是邊緣像素,否則肯定不是邊緣像素,將其梯度幅度置為0。經(jīng)過高斯濾波,圖像變得平滑,噪聲多被濾掉,設(shè)此時(shí)圖像為I(x,y),然后按照式(313)和式(314)求出圖像每一個(gè)像素的梯度幅度和方向。所選高斯函數(shù)如下: (311) (312) 其中,是高斯曲線的標(biāo)準(zhǔn)差。因此,Canny算法不容易受噪聲的干擾,能夠檢測(cè)到真正的弱邊緣。二階導(dǎo)數(shù)的零交叉點(diǎn)不僅對(duì)應(yīng)著一階導(dǎo)數(shù)的極大值也對(duì)應(yīng)著一階導(dǎo)數(shù)的極小值,也就是說,灰度變化劇烈的點(diǎn)(強(qiáng)邊緣)與灰度變化緩慢的點(diǎn)(弱邊緣)都對(duì)應(yīng)著二階導(dǎo)數(shù)零交叉點(diǎn)。Canny實(shí)現(xiàn)了評(píng)價(jià)邊緣檢測(cè)性能優(yōu)劣的三個(gè)準(zhǔn)則:(1)信噪比標(biāo)準(zhǔn),即將真實(shí)的邊緣點(diǎn)檢測(cè)出的概率要高,將非邊緣點(diǎn)判為邊緣點(diǎn)的概率要低,使輸出的信噪比最大;(2)定位精度標(biāo)準(zhǔn),即檢測(cè)出的邊緣點(diǎn)要盡可能在實(shí)際邊緣的中心; (3)單邊響應(yīng)標(biāo)準(zhǔn),即單個(gè)邊緣產(chǎn)生多個(gè)響應(yīng)的概率要低,并且虛假邊緣響應(yīng)應(yīng)得到最大抑制。為解決這一問題發(fā)展并產(chǎn)生了平滑濾波邊緣檢測(cè)方法,也就是邊緣檢測(cè)中理論最成熟的線性濾波方法,也稱線性濾波邊緣檢測(cè)算子。(3)對(duì)噪聲都比較敏感?!』贑anny算子的邊緣檢測(cè)經(jīng)典的邊緣檢測(cè)算子具有實(shí)現(xiàn)簡(jiǎn)單、運(yùn)算速度快等特點(diǎn),但其檢測(cè)受噪聲的影響很大,檢測(cè)結(jié)果不可靠,不能準(zhǔn)確判定邊緣的存在及邊緣的準(zhǔn)確位置,造成這種情況的原因有:(1) 實(shí)際的邊緣灰度與理想的邊緣灰度值間存在差異,這類算子可能檢測(cè)出多個(gè)邊緣。用這個(gè)最大值作為算子的輸出值e(x,y),這樣可將邊緣像素檢測(cè)出來。另一種方法是,可以將Prewitt算子擴(kuò)展到八個(gè)方向,即邊緣樣板算子。它的卷積算子為: 1 0 1 1 1 1 1 0 1 0 0 0 1 0 1 1 0 1當(dāng)用兩個(gè)掩模板(卷積算子)組成邊緣檢測(cè)器時(shí),通常取較大的幅度作為輸出值,這使得它們對(duì)邊緣的走向有些敏感。當(dāng)對(duì)精度要求不是很高時(shí),是一種較為常用的邊緣檢測(cè)方法。Soble算子利用像素點(diǎn)上下、左右相鄰點(diǎn)的灰度加權(quán)算法,根據(jù)在邊緣點(diǎn)處達(dá)到極值這一現(xiàn)象進(jìn)行邊緣的檢測(cè)。同時(shí),因?yàn)镾oble算子引入了局部平均,使其受噪聲的影響也比較小。其梯度大小為: (38)或取絕對(duì)值: (39)它的卷積算子 1 0 1 1 2 1 2 0 2 0 0 0 1 0 1 1 2 1由上面兩個(gè)卷積算子對(duì)圖像運(yùn)算后,代入式(39),可求的圖像的梯度幅值g(x,y),然后適當(dāng)選取門限TH,作如下判斷:g(x,y)TH,(i,j)為階躍狀邊點(diǎn),為一個(gè)二值圖像,{g(i,j也就是圖像的邊緣圖像。Sobel提出一種將方向差分運(yùn)算與局部平均相結(jié)合的方法,即Sobel算子。對(duì)于同等長(zhǎng)度但取向不同的邊緣,應(yīng)用Roberts最大值算子比應(yīng)用Roberts交叉算子所得到的合成幅度變化小。常用的高斯一拉普拉斯算子是55的模版,如圖32所示。高斯濾波器是一個(gè)良好的平滑濾波器,它能比較好的把噪聲點(diǎn)消除。但是它對(duì)圖像中的噪聲很敏感,也產(chǎn)生雙像素寬的邊緣,且也不能提供邊緣方向的信息。拉氏(Laplacian)算子是對(duì)二維函數(shù)進(jìn)行運(yùn)算的二階導(dǎo)數(shù)標(biāo)量算子。另外,在具有等斜率的寬區(qū)域上,有可能將全部區(qū)域都當(dāng)作邊緣檢測(cè)出來。如圖3l中,小的字符在底層子圖上被檢測(cè)到,而在高層的子圖上找到了較大的字符,最后的定位結(jié)果中包含了不同大小的文本區(qū)域。所謂P階金字塔模型(pstep Pyramid)是指對(duì)原始圖像分辨率逐次進(jìn)行P次縮小?!〗鹱炙纸庥捎趫D像文本大小經(jīng)常變化,有的單一字符占到整幅圖像面積的50%以上,%。圖像灰度的變化情況可以用圖像灰度分布的梯度來反映,因此我們可以用局部圖像微分技術(shù)來獲得邊緣檢測(cè)算子?!∵吘墮z測(cè)邊緣檢測(cè)的實(shí)質(zhì)是采用某種算法來提取出圖像中對(duì)象與背景間的交界線?;谶吘壍姆椒ń?jīng)常根據(jù)文本的水平排列特性進(jìn)行有效的分析,確認(rèn)文本區(qū)域。同樣,在圖像處理領(lǐng)域中,圖像的邊緣信息也非常重要,有很多提取圖像邊緣的算法,也有很多的圖像處理算法應(yīng)用圖像的邊緣信息。由于統(tǒng)計(jì)模型在模式識(shí)別研究中體現(xiàn)的優(yōu)勢(shì),本文通過將定位出的候選文本區(qū)域運(yùn)用支持向量機(jī)的分類器訓(xùn)練的方法來提高文本定位的準(zhǔn)確性,取得了不錯(cuò)的效果。復(fù)雜背景中的文字相對(duì)于其背景來說還是有著自身顯著的特征,充分利用這些特征,尋找行之有效的檢測(cè)算法?;旌系姆椒▽?duì)基于區(qū)域、紋理、邊緣的方法進(jìn)行了融合的嘗試,充分利用這三類定位的優(yōu)點(diǎn)進(jìn)行融合,是實(shí)現(xiàn)魯棒的文本定位的關(guān)鍵,但是如何進(jìn)行融合、如何提取三類方法中的有效特征并組合到一個(gè)框架中是一個(gè)難點(diǎn)。Hwang[26]等分析了OCR中字符受噪聲干擾的原因采用小波分析方法提取字符,獲得的字符筆畫完整無損耗。Liang等采用形態(tài)學(xué)方法,從規(guī)則的背景圖像中提取出文本,而字符形狀幾乎沒有損耗。還有Zhong[23]等人,在視頻文本的檢測(cè)中使用了88壓縮域DCT方法。文中實(shí)驗(yàn)采用四組不同類型的數(shù)據(jù),%,%。然后用Ridge的長(zhǎng)度限制及兩種Ridge的位置關(guān)系限制來定位文本區(qū)域。除了以上的方法之外,Tran等人[22],提出了一種利用Ridge定位文本的方法,他們先在兩種不同尺度上提取圖像的Ridge。 其它方法使用三種方法(對(duì)應(yīng)三類特征)分別進(jìn)行文本定位,然后再將這些定位的結(jié)果組合到一起的組合策略為:如果各個(gè)文本框之間有80%是重合的就認(rèn)為是文本區(qū)域,否則再用一個(gè)基于SVM的方法進(jìn)行確認(rèn)。但僅僅利用邊緣很難有效的區(qū)分文本區(qū)域和背景區(qū)域,因?yàn)楹芏嗟膱D像中背景也含有非常多的邊緣。他們用多分辨分析的方法解決字符大小不同的問題,對(duì)多分辨分解后不同尺度的圖像進(jìn)行相同的定位算法處理,即先采用一種改進(jìn)的Sobel算子提取邊緣;再用一種局部自適應(yīng)閾值的方法將邊緣圖像轉(zhuǎn)換為二值圖像;然后用投影分析的方法定位文本區(qū)域。%%的誤檢率。但是有些顏色雖然在RGB空間有明顯的差異,但轉(zhuǎn)換到灰度空間后灰度值卻相似,這種情況下該算法處理起來就較為困難,Datong Chen等人先用Canny算子提取圖像邊緣,利用形態(tài)學(xué)膨脹的方法將邊緣連接成塊;再利用基線定位和啟發(fā)性知識(shí)限制獲得文本行:最后利用支持向量機(jī)進(jìn)一步確認(rèn)文本行。Hasan和Karam先將彩色圖像轉(zhuǎn)換成灰度圖像;然后提取灰度圖像的邊緣,并將邊緣圖像二值化,再對(duì)二值邊緣圖像作形態(tài)學(xué)處理;最后利用大小、高寬比、密度等啟發(fā)性知識(shí)濾除非文本區(qū)域。由于場(chǎng)景中的文本一般為了能夠使讀者方便閱讀,制作時(shí)文本與背景在顏色上有很大的差別,所以有些研究者假設(shè)文本的邊緣比較陡峭,梯度也較大。另外紋理分析的計(jì)算量大、復(fù)雜度高,所以此類算法比較耗時(shí)。基于紋理的方法一般很難準(zhǔn)確的定位字符區(qū)域的邊框,一般在利用紋理進(jìn)行定位之后,還需提取定位窗口中的連通分量進(jìn)行更為準(zhǔn)確的定位和抽取。而且基于紋理的文本定位方法由于假設(shè)文本是一種特殊的紋理,要求字符是成塊的出現(xiàn),字符數(shù)越少越難于進(jìn)行有效的識(shí)別,也容易受復(fù)雜圖像中具有紋理特性的背景影響,虛檢率較高。大部分方法還是將圖像分為不重疊的子窗口提取子窗口的紋理特性,并進(jìn)行判斷是否為文本區(qū)域。支持向量機(jī)對(duì)于文本定位有很好的魯棒性,并且可在有限的樣本中進(jìn)行訓(xùn)練。Kim[20]將支持向量機(jī)(SVM)用于分析圖像中文本的紋理特性。為了解決訓(xùn)練樣本的不足,采用fly Sung、提出的Bootstrap(自舉)方法進(jìn)行樣本訓(xùn)練。Li等人利用基于學(xué)習(xí)的方法定位圖像中的文字?;诩y理信息的文本定位方法通常對(duì)文字的大小和風(fēng)格很
點(diǎn)擊復(fù)制文檔內(nèi)容
范文總結(jié)相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1