freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

復(fù)雜背景圖像中文本定位算法設(shè)計(jì)終稿畢業(yè)論文-全文預(yù)覽

2025-07-18 13:46 上一頁面

下一頁面
  

【正文】 測的文本定位方法,并且將其擴(kuò)展到統(tǒng)計(jì)模型支持向量機(jī)的框架下來提高文本定位的準(zhǔn)確性,取得了較好的效果。(3)算法評(píng)價(jià):對(duì)文本定位算法評(píng)價(jià)的研究目前還非常的不夠,還沒有一種國際通用的方法,也沒有一個(gè)通用的評(píng)測數(shù)據(jù)庫,導(dǎo)致了算法間無法客觀、公正地進(jìn)行比較。復(fù)雜背景圖像中的文本定位是計(jì)算機(jī)視覺領(lǐng)域的一個(gè)非常具有挑戰(zhàn)性的課題,有著十分廣泛的應(yīng)用前景,設(shè)計(jì)一個(gè)在任何復(fù)雜背景下的文本定位系統(tǒng)是無數(shù)研究者們追求的夢想,但從目前的研究情況來看,這樣的系統(tǒng)在短期內(nèi)是不可能設(shè)計(jì)出來的。應(yīng)用該方法定位出來的文本塊空間位置比較精確,但是該方法有很大的局限性,對(duì)于字體很大的文本、對(duì)比度小的文本,效果就很差了。該方法對(duì)中文、韓文等方形文字有很好的效果??偟膩碚f基于圖像分割或顏色分層的文本定位方法對(duì)于高清晰度的圖像,如雜志、封面等效果比較理想,而對(duì)于分辨率比較低,并且字符的字體比較小的圖像,則效果比較差。該方法的不足之處在于,如果圖像的對(duì)比度很低,則無法得到候選區(qū)域;其次如果字符的顏色變化很大,則顏色聚類就沒有效果。諸多因素使得復(fù)雜背景圖像中的文本定位成為一項(xiàng)極具挑戰(zhàn)性的研究課題。有的字符的背景單一,但是大部分的圖像和視頻中文字的背景都很復(fù)雜的,有很多的自然界中的物體與字符的筆劃很相似,比如樹葉、窗格等,還有一些情況既是背景又是文本。(5)同一文本區(qū)域中的字符一般具有統(tǒng)一的顏色、大小、字體。(2)字符一般大于一定的大小,太小的字符因無法識(shí)別而不去進(jìn)行定位,而字符大小的上限一般沒有限制。國外主要有美國的加州大學(xué)、IBM公司、MIT以及韓國和日本的主要研究機(jī)構(gòu)等?!∥谋径ㄎ谎芯康默F(xiàn)狀復(fù)雜背景圖像中文本定位問題的產(chǎn)生,是由于將OCR技術(shù)擴(kuò)展到其它應(yīng)用領(lǐng)域中而產(chǎn)生的問題。文本區(qū)域定位就是找出圖像中文本所在的位置或剛好包圍文本的矩形區(qū)域,是文本識(shí)別非常關(guān)鍵的一步,文本定位的精確與否直接決定整個(gè)識(shí)別系統(tǒng)準(zhǔn)確率的高低。用掃描、照相等方式獲得它們的數(shù)字圖像后,定位并識(shí)別圖像中的文字可以快速的獲得它們所包含的關(guān)鍵信息。(3)圖像、視頻檢索。復(fù)雜背景下的文本定位的應(yīng)用:(1)實(shí)時(shí)車牌定位。這項(xiàng)工作不但費(fèi)時(shí)費(fèi)力,而且手工的標(biāo)注往往是不準(zhǔn)確或不完整的,還不可避免地帶有主觀偏差。圖像文本定位作為OCR系統(tǒng)的一個(gè)預(yù)處理部分,對(duì)識(shí)別嵌入在復(fù)雜圖像中的文本具有重要的作用。進(jìn)一步,通過將定位出的候選文本區(qū)域運(yùn)用支持向量機(jī)的分類器訓(xùn)練的方法來提高文本定位的準(zhǔn)確性。要提取具有復(fù)雜背景的文本,首先要找到包含文本的區(qū)域,然后才能利用文本識(shí)別模塊進(jìn)行識(shí)別。復(fù)雜背景文本定位是一個(gè)具有較大難度性的研究課題,原因是文本圖像的背景非常復(fù)雜,圖像大多在室外拍攝,光照條件變化較大,其中不同文字的顏色、亮度、字體、大小、間距、對(duì)比度、排列方向和背景紋理等有很大差別。首先運(yùn)用改進(jìn)的Canny邊緣檢測算法檢測出文本邊緣,然后對(duì)檢測結(jié)果進(jìn)行連通區(qū)域分析、文本區(qū)域鑒定與合并得到候選的文本區(qū)域。隨著光學(xué)字符識(shí)別(OCR)技術(shù)的興起,許多學(xué)者開始進(jìn)行文檔圖像中文字定位與提取的研究。目前的計(jì)算機(jī)視覺和人工智能技術(shù)都無法自動(dòng)對(duì)圖像進(jìn)行標(biāo)注,而必須依賴于人工對(duì)圖像做出標(biāo)注。如果能夠找到解決這些問題的方法,構(gòu)造出解決復(fù)雜背景下的文本定位模型,對(duì)于豐富圖像處理理論,對(duì)于基于內(nèi)容的視頻檢索技術(shù)的發(fā)展,具有重要的理論意義和實(shí)用價(jià)值。Web服務(wù)器的數(shù)量正以驚人的速度增長,文本構(gòu)成了Web頁的重要組成部分,在有的網(wǎng)頁上圖像中的文字居然占去了總的文字量的一半以上,這個(gè)比例是相當(dāng)驚人的,Web頁中的圖像包含了許多的像素文本信息。(4)實(shí)時(shí)處理護(hù)照、票據(jù)、身份證等?;趫D像內(nèi)嵌文本的語義分析可以實(shí)現(xiàn)基于圖像內(nèi)容的檢索和過濾。如何從復(fù)雜背景中準(zhǔn)確快速的定位出文本區(qū)域以及如何降低遺漏的文字,這就是目前復(fù)雜背景圖像中的文本定位在圖像領(lǐng)域的一個(gè)研究熱點(diǎn)和難點(diǎn)。國內(nèi)外很多的學(xué)術(shù)機(jī)構(gòu)都開展了這一方面的研究工作。復(fù)雜背景圖像中的文本具有以下的特點(diǎn):(1)文本區(qū)域中的字符一般成有規(guī)律的排列,字符間隔一致,排列方向一致,一般以水平排列居多。但是可能受到光照條件的影響,使顏色差變得很小。(6)字符的背景復(fù)雜多變,無法預(yù)測。圖像文本定位的研究涉及到模式識(shí)別、圖像處理、生理學(xué)、心理學(xué)、認(rèn)知神經(jīng)科學(xué)等,和其它的檢測技術(shù)、計(jì)算機(jī)人機(jī)交互領(lǐng)域都有著十分密切的聯(lián)系。對(duì)原來輸入的圖像顏色聚類,如果候選矩形框附近的像素的顏色與候選矩形框內(nèi)的顏色在一個(gè)閾值范圍之內(nèi),則將該像素合并到候選矩形框內(nèi)。在文獻(xiàn)[3],[4]中也提出了類似的方法。在文獻(xiàn)[5]中作者提出基于梯度的文本提取方案,在經(jīng)過濾波的彩色圖像中提取四個(gè)不同方向、不同尺度大小的梯度圖像,然后對(duì)該圖像進(jìn)行二值化和聚類,最后進(jìn)行連通域分析,得到單個(gè)字符。文獻(xiàn)[7]提出了在YUV顏色空間上的邊緣提取和選擇性二值化文本提取算法,接著對(duì)文本區(qū)域進(jìn)行增強(qiáng)、弱化、噪聲的影響。微軟亞洲研究院也在進(jìn)行相關(guān)方面的研究,并取得一定的成就。(2)算法集成:多種算法集成難點(diǎn)主要在于集成方案選取上,即如何制訂不同算法的選擇策略,這將影響到整個(gè)系統(tǒng)的性能,另外還有一個(gè)必須要考慮的因素就是盡可能快的處理速度。本文在國內(nèi)外學(xué)者研究的基礎(chǔ)上,對(duì)復(fù)雜背景圖像中文本的定位進(jìn)行了進(jìn)一步的研究。第三章:實(shí)現(xiàn)了一種基于邊緣檢測的文本定位方法。 從上面列出的特征中,我們可以發(fā)現(xiàn)有很多信息幫助我們處理文本。復(fù)雜背景通常比簡單背景要求更強(qiáng)的對(duì)比度來保證文本的可讀。例如:拍攝圖像中的車站站牌、汽車車牌等等。人工本不是拍攝場景的一部分,被認(rèn)為是后期添加的結(jié)果。兩者都可以統(tǒng)一在復(fù)雜背景圖像的文本定位中?!∥谋咎卣鬟x擇文本具有尺寸、顏色與灰度值、邊緣、紋理、對(duì)比度、排列方式、符間隙、運(yùn)動(dòng)、穩(wěn)定性、背景變化、陰影和透明效果等特征,應(yīng)該選那些容易把文本與背景區(qū)分開來的特征,以使文本與背景在特征空間內(nèi),類間距離較大而類內(nèi)距離較小。連通成分分析和排列分析方法合并排列方向相同、尺寸相似的相鄰連通成分形成連通區(qū)域;形態(tài)學(xué)膨脹運(yùn)算、均值偏移算法利用邊緣點(diǎn)或小區(qū)域之間的空隙形成連通區(qū)域;水平或垂直投影方法和變異直方圖方法統(tǒng)計(jì)圖像水平或垂直方向全部或部分文本特征的值,然后對(duì)投影曲線或變異直方圖進(jìn)行分析提取文本區(qū)域。文本區(qū)域驗(yàn)證可以使用更多的特征,采用更嚴(yán)格的限制條件?,F(xiàn)在解決特定模式分類問題的關(guān)鍵就是提取有效的目標(biāo)特征,然后選擇適當(dāng)?shù)姆诸愃惴?。根?jù)不同的顏色分割方法,不同的確認(rèn)字符連通分量的方法,以及是否利用規(guī)則方法或者機(jī)器學(xué)習(xí)的方法,得到了各種基于區(qū)域的文本定位方法。Kim[20]等人利用RGB空間的顏色聚類來分割圖像,然后去除明顯的非文本區(qū)域,如細(xì)長的水平線段、圖像邊框等;文本區(qū)域通過投影分析來提??;最后將這些文本區(qū)域基于知識(shí)規(guī)則進(jìn)行合并。他們的實(shí)驗(yàn)對(duì)象為2247幀視頻圖像,實(shí)驗(yàn)表明該算法能提取視頻幀中86%100%的標(biāo)題文本。實(shí)驗(yàn)采用的圖像具有不同分辨率和背景復(fù)雜度,其中的文字大小、風(fēng)格也各不相同,%的準(zhǔn)確率?!』诩y理的文本定位方法基于紋理的文本定位方法認(rèn)為文本具有特定的紋理屬性,這種紋理是由于字符特定的排列方向以及字符顏色與背景顏色周期性變化而產(chǎn)生。兩個(gè)神經(jīng)網(wǎng)絡(luò)中一個(gè)用于檢測水平方向的紋理,一個(gè)用于檢測垂直方向的紋理。由于該方法是基于不同尺度紋理檢測的方法,因此對(duì)圖像分辨率高低不敏感,但是處理速度較慢。因此,人們提出了基于學(xué)習(xí)的方法以自動(dòng)分類紋理。由于通過紋理檢測所得到的文本區(qū)域不夠準(zhǔn)確,最后再對(duì)候選文本區(qū)進(jìn)行水平和豎直的投影分析,以進(jìn)一步確認(rèn)文本區(qū)域?;诩y理的方法有針對(duì)子窗口或者象素點(diǎn)提取紋理特征兩種。但是這類方法能夠很好的對(duì)很小的字符進(jìn)行有效的定位?!』谶吘壍奈谋径ㄎ环椒? 基于邊緣的方法,認(rèn)為文本與背景顏色之間有一定的對(duì)比度,通過邊緣檢測的方法可以有效的檢測到字符的邊緣,而且文本區(qū)域通常含有較高的邊緣密度。該方法對(duì)噪聲不敏感,能夠定位不同排列方向的文本,包括傾斜和彎曲的文本。Lyu[21]等人也提出了一種提取視頻中文字的方法。所以一般來說基于邊緣的方法對(duì)文本非常密集(圖像中的人工文本)的圖像有較好的效果。大尺度的稱為Central Ridge,小尺度的稱為Skeleton Ridge。Jun等利用灰度圖像局部領(lǐng)域技術(shù)識(shí)別復(fù)雜場景下的字符,%。Tan[25]等采用金字塔方法從地圖中分離字符,適用于GIS領(lǐng)域?!”菊滦〗Y(jié)復(fù)雜背景中的文字背景是復(fù)雜多變的,本文區(qū)域定位是復(fù)雜背景中文字識(shí)別的首要環(huán)節(jié),隨著文字識(shí)別技術(shù)的逐步成熟和發(fā)展,復(fù)雜背景中文本區(qū)域定位已成為文字識(shí)別應(yīng)用推廣的瓶頸。第三章  基于邊緣檢測的文本定位方法研究 引言從視覺的角度來看,人們?cè)谟^察一幅圖像時(shí),最先得到的信息就是圖像的輪廓,也就是圖像的邊緣信息。本文針對(duì)圖像中文本定位問題首先對(duì)圖像進(jìn)行金字塔分解,然后利用改進(jìn)的Canny算子對(duì)文本進(jìn)行邊緣檢測,連通區(qū)域分析,最后定位出候選文本區(qū)域。經(jīng)典的邊緣檢測方法,是對(duì)原始圖像中像素的某小鄰域來構(gòu)造邊緣檢測算子。例如,4階金字塔模型,總共對(duì)圖像縮小4次,在每一階都將原來圖像長寬縮小為原來的1/,對(duì)每一階子圖分別采用相同的文本定位算法,然后將不同子圖上檢測到的文本區(qū)域放大到原始圖像大?。詈缶C合每幅子圖的定位結(jié)果就可以找出大小不同的文本區(qū)域。因此,有必要求出斜率的變化率,即對(duì)圖像函數(shù)進(jìn)行二階微分運(yùn)算。因此,它比較少直接用于邊緣檢測,而主要用于已知邊緣像素后確定該像素是在圖像的黑暗區(qū)還是明亮區(qū)。2 4 4 4 2 4 0 8 0 4 4 8 24 8 4 4 0 8 0 4 2 4 4 4 2 圖32 拉普拉斯算子的55模版2)Roberts邊緣檢測由Roberts提出的算子是一種利用局部差分算子尋找邊緣的算子,它在22鄰域上計(jì)算對(duì)角導(dǎo)數(shù): (34)G(x,y)又稱為Roberts交叉算子,在實(shí)際應(yīng)用中為了簡化計(jì)算,用梯度函數(shù)的Roberts絕對(duì)值來近似: (35)另外還可以用Roberts最大值來計(jì)算: max() (36)上式能夠提供較好的不變性邊緣取向。該算子是在以f(x,y)為中心的33鄰域上計(jì)算x和y方向的偏導(dǎo)數(shù),即: (37) 實(shí)際上,上式應(yīng)用了f(x,y)鄰域圖像強(qiáng)度的加權(quán)平均差值。當(dāng)使用大的領(lǐng)域時(shí),抗噪聲特性會(huì)更好,但這樣做會(huì)增加計(jì)算量,并且得到的邊緣也比較粗。4)Prewitt 邊緣檢測方法Prewitt 提出了類似的計(jì)算偏微分估計(jì)值得方法 (310)梯度計(jì)算則與(39)相同。這些算子樣板由理想的邊緣子圖像構(gòu)成,依次用邊緣樣板檢測圖像,與被檢測區(qū)域最為相似的樣板給出最大值。(2)邊緣存在的尺度范圍各不相同,這類算子固定的大小不利于檢測出不同尺度上的所有邊緣。在線性濾波邊緣檢測方法中,最具代表性的是Canny邊緣檢測方法。通過使用兩個(gè)閾值來分別檢測強(qiáng)邊緣和弱邊緣,而且僅當(dāng)強(qiáng)邊緣和弱邊緣相連時(shí),弱邊緣才會(huì)包含在輸出中。這一步實(shí)際是一個(gè)低通濾波過程,用于消除空尺度小于高斯空間系數(shù)仃的圖像灰度變化。根據(jù)一定算法得到低閾值,在這里可以根據(jù)圖像的梯度直方圖計(jì)算。因此文本提出一種改進(jìn)的Canny算法,用中心加權(quán)改進(jìn)的均值濾波算(CWMTM,Center Weighted Modified Trimmed Mean)取代高斯濾波算法。標(biāo)準(zhǔn)MTM算法中m取為高斯噪聲標(biāo)準(zhǔn)差的2倍。在分析算法之前,先作如下定義: (316) (317) (318) 其中,表示濾波窗口,表示噪聲統(tǒng)計(jì)窗口。由于窗口大小與高斯噪聲的標(biāo)準(zhǔn)差密切相關(guān),因此從某種意義上說,G是在噪聲窗口內(nèi)估計(jì)高斯噪聲的標(biāo)準(zhǔn)差。由于賦予窗口中心點(diǎn)較大的權(quán)重,因此中心加權(quán)算法能更好地保護(hù)圖像的細(xì)節(jié)?!∵吘壧崛『投祷趶?fù)雜背景文本圖像中,無論是背景區(qū)域還是文本區(qū)域,其邊緣都比較突出,很難從邊緣強(qiáng)度上區(qū)分是背景的邊緣還是文本的邊緣。邊緣密度圖如圖3—5所示。全局閾值化方法實(shí)現(xiàn)簡單,對(duì)于具有明顯雙峰直方圖的圖像效果明顯,但對(duì)于低對(duì)比度和光照不均勻的圖像效果不佳,抗噪能力差,因而應(yīng)用范圍受到極大限制。動(dòng)態(tài)閩值法充分考慮了像元的鄰域特征,能夠根據(jù)圖像的不同背景情況自適應(yīng)地改變閩值,可較精確地提取出二值圖像,但它過度地夸大了像元的鄰域灰度的變化,會(huì)把不均勻灰度分布的背景分割到目標(biāo)中去,帶來許多不應(yīng)出現(xiàn)的假目標(biāo)。本文采用一種基于區(qū)域增長法和線標(biāo)記法的方法。算法基本思想:找到連通區(qū)域的第一個(gè)目標(biāo)段標(biāo)記該段并且壓入堆棧,作為“區(qū)域增長的種子段。接著搜索圖像中下一個(gè)未標(biāo)記的連通區(qū)域,重復(fù)上述操作直到圖像中所有的連通區(qū)域標(biāo)記完畢。本文中將部分包含文本區(qū)域劃分為文本區(qū)域。h8w12 (321)其中H為整幅圖像的高、W為寬,h為方框的高、W為寬。(3) 去掉矩形框內(nèi)文本區(qū)域面積不合要求的矩形框。經(jīng)過鑒別后,大量的不滿足條件的連通區(qū)域被去除,對(duì)于剩下的連通域,如果相互之間的位置關(guān)系滿足一定的關(guān)系,我們則把它合并起來,組合成一個(gè)更大的、更有意義的文本塊?!?shí)驗(yàn)結(jié)果利用本章第二節(jié)提出的改進(jìn)Canny算子邊緣檢測方法可以看出,該算法對(duì)復(fù)雜背景圖像中的文本定位有不錯(cuò)的效果,文本區(qū)域幾乎都被定位出來了。實(shí)驗(yàn)結(jié)果如表3l所示。 本章小結(jié) 本章提出了基于圖像邊緣檢測的文本定位方法,在基于Canny算子的邊緣檢測研究的基礎(chǔ)上,提出了一種改進(jìn)的Canny算子邊緣檢測,實(shí)驗(yàn)結(jié)果證明改進(jìn)后的算法圖像邊緣檢測準(zhǔn)確,細(xì)節(jié)處理較好。它從理論上豐富了圖像處理理論,在實(shí)際應(yīng)用中諸如Internet環(huán)境下的圖像和視頻的檢索、在現(xiàn)代交通管理中對(duì)車牌的識(shí)別,都有著巨大的商
點(diǎn)擊復(fù)制文檔內(nèi)容
范文總結(jié)相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1