【正文】
像模糊,視角變化,jepg壓縮等應(yīng)用時(shí),都優(yōu)于其他的描述素?;趶?fù)雜光照不變的的特征描述符為每一像素點(diǎn)構(gòu)造一個(gè)OSID區(qū)域描述子,并利用三種不相似性測(cè)度得到初始匹配成本;其次,依次在水平、垂直雙方向上采用基于測(cè)地線計(jì)算權(quán)重的成本聚合策略,它有效簡(jiǎn)化和改進(jìn)了自適應(yīng)權(quán)值策略的繁冗的計(jì)算,降低了計(jì)算復(fù)雜度,提高效率,消除匹配特征的相似歧義,計(jì)算魯棒匹配代價(jià);最后,采用優(yōu)勝者全選方法選取視差范圍內(nèi)的最優(yōu)視差值。實(shí)驗(yàn)結(jié)果表明,該算法結(jié)構(gòu)簡(jiǎn)單,計(jì)算快速高效,能夠有效的提高匹配精度,得到分段光滑、精度高的稠密視差圖。雖然雙目立體匹配技術(shù)經(jīng)過(guò)數(shù)十年的研究,匹配算法不斷豐富,但無(wú)論是從視覺生理的角度,還是從實(shí)際應(yīng)用方面,完善現(xiàn)有的立體匹配技術(shù)還有很大空間,基于復(fù)雜光照不變性的根據(jù)當(dāng)前雙目立體匹配算法的研究狀況[19],技術(shù)發(fā)展存在如下趨勢(shì):1) 完善雙目立體匹配總體理論框架。立體匹配經(jīng)過(guò)多年的研究己出現(xiàn)大量各具特色的研究成果,但Marr提出的理論框架還有待進(jìn)一步的完善和改進(jìn)。特別是在復(fù)雜場(chǎng)景中,如何提高算法的去歧義匹配和抗干擾能力,如何降低計(jì)算復(fù)雜度和運(yùn)算量,仍需要進(jìn)行更加深入的探索和研究。2) 立體匹配與重建相結(jié)合。對(duì)于一個(gè)完整的立體視覺系統(tǒng)而言,匹配與內(nèi)插重建過(guò)程并不是兩個(gè)不相關(guān)的獨(dú)立模塊,它們之間存在著信息的反饋。匹配結(jié)果約束著內(nèi)插的重建;反過(guò)來(lái),重建結(jié)果又引導(dǎo)著正確的匹配。基于這一思想,Hoff等提出了一種匹配、重建一體化的方法,在得到匹配的同時(shí),用一次/二次曲面擬合技術(shù)進(jìn)行內(nèi)插,重建出完整的視差表面,并以此為信息不斷修正匹配結(jié)果,循環(huán)往復(fù),最終得到精確的匹配視差。這種將匹配與重建視為一體的方法是值得重視的,它不但能生成更為完整的視差場(chǎng),而且可以為匹配提供更多的信息。3) 充分挖掘人工智能算法的發(fā)展空間,建立基于知識(shí)、規(guī)則、模型的智能化匹配算法。作為有效求解不確定性問題的最優(yōu)化工具,人工智能算法越來(lái)越多地應(yīng)用于解決立體匹配問題,它們提供了各類求解復(fù)雜系統(tǒng)優(yōu)化問題的通用框架,以此建立有目的和面向任務(wù)的智能化匹配算法,在實(shí)際應(yīng)用中有很強(qiáng)的魯棒性。另外,對(duì)于匹配左右圖像亮度不一的立體對(duì)應(yīng)對(duì),如birch tree圖像,也是智能匹配算法設(shè)計(jì)的一個(gè)挑戰(zhàn)。4) 建立實(shí)時(shí)、精確以及穩(wěn)定的實(shí)用立體匹配算法。許多立體匹配算法需要處理的數(shù)據(jù)量較大,相應(yīng)地需要存儲(chǔ)空間較大,不易實(shí)現(xiàn)快速處理。隨著大規(guī)模集成電路和專用硬件處理器的飛速發(fā)展,從實(shí)際應(yīng)用和要求出發(fā),致力于建立適用專門領(lǐng)域和面向?qū)ο蟮膶?shí)用立體匹配算法是很有意義的研究課題。研究工作可以考慮算法從以前的串行處理向并行處理發(fā)展,采用并行流水線機(jī)制和專用的信號(hào)處理器件,增強(qiáng)立體匹配的實(shí)用性。5) 立體匹配與認(rèn)知科學(xué)緊密結(jié)合。已有的立體匹配方法大多與人類視覺極為相似。許多學(xué)者對(duì)研究人類視覺計(jì)算模型比研究立體視覺系統(tǒng)更感興趣,希望立體視覺更加自然化,更加接近生物視覺。認(rèn)知科學(xué)長(zhǎng)期將人類視覺作為重要研究對(duì)象,總結(jié)了許多規(guī)則,因此自然成為立體匹配研究學(xué)習(xí)的重要對(duì)象。值得一提的是,認(rèn)知科學(xué)中的圖形組織規(guī)則對(duì)立體匹配中的圖像分割問題有著重要的指導(dǎo)意義。文獻(xiàn)提出了利用格式塔規(guī)則提取具有組織結(jié)構(gòu)的特征群作為高級(jí)基元進(jìn)行分級(jí)的立體匹配算法。Desolneux全面指出了格式塔原理與計(jì)算機(jī)視覺的內(nèi)在聯(lián)系。6) 從理解人類視覺的立體融合機(jī)制出發(fā),建立一種通用的人類雙目匹配計(jì)算模型。盡管匹配研究己取得一些成果,但在理論上和技術(shù)上都存在著很多問題。例如,如何選擇合理的匹配特征,以克服匹配準(zhǔn)確性與恢復(fù)視差全面性之間的矛盾;如何選擇有效的匹配準(zhǔn)則和算法結(jié)構(gòu),以解決存在畸變、噪聲特殊結(jié)構(gòu)及遮擋的匹配問題;如何建立更有效的圖像表達(dá)形式和立視模型,以便更充分地反映景物的本質(zhì)屬性,為匹配提供更多的約束信息,降低立體匹配的難度。就目前的研究而言,要構(gòu)造出與人類視覺一樣靈活、精確的匹配系統(tǒng),還有待于對(duì)人類自身機(jī)制的深入研究。結(jié)束語(yǔ)本文主要介紹了一種基于復(fù)雜光照不變性為每個(gè)像素點(diǎn)構(gòu)造的OSID區(qū)域描述子的立體匹配算法,并進(jìn)行3種不同相似性測(cè)度測(cè)度得到初始匹配成本,依次在水平、垂直雙方向上采用基于測(cè)地線計(jì)算權(quán)重的成本聚合策略,消除匹配特征的相似歧義,計(jì)算魯棒匹配代價(jià),采用優(yōu)勝者全選方法選取視差范圍內(nèi)的最優(yōu)視差值。在研究過(guò)程中,本文得出以下結(jié)論:1)基于OSID描述子,具有復(fù)雜度低、魯棒性強(qiáng)的特點(diǎn)。并且此描述子不隨復(fù)雜的光照變化而變化,只要將空間和時(shí)間的標(biāo)簽數(shù)設(shè)定合適,程序的運(yùn)行結(jié)果就會(huì)比較準(zhǔn)確,匹配率高。2)適當(dāng)?shù)脑龃蟠翱诖笮?,局部算法中的鄰域相似性測(cè)度往往能更好地描述局部特征,從而得到更可靠的初始視差并使匹配精度提高;局部算法的整體計(jì)算復(fù)雜度通常會(huì)集中在成本聚合,窗口較大時(shí),相應(yīng)的會(huì)增加計(jì)算復(fù)雜度,同時(shí),邊緣處的視差就會(huì)模糊不清。3)比較三種基于區(qū)域協(xié)方差的不相似測(cè)度法(SAD、SSD和FAI)的匹配性能,SAD測(cè)度法最差,SSD測(cè)度法次之,F(xiàn)AI測(cè)度法最好。雙目立體匹配問題是一個(gè)“病態(tài)”問題。雙目立體匹配實(shí)施要考慮諸多因素,并以計(jì)算復(fù)雜度和穩(wěn)定性等總體性能指標(biāo)衡量方案實(shí)施的可行性和有效性,因此,研究雙目立體匹配算法要從系統(tǒng)化的角度來(lái)分析,光照對(duì)圖像的影響日益深刻,如何減少光照對(duì)圖像質(zhì)量的影響已是一個(gè)迫在眉睫的問題,如何將本算法與其它匹配算法有機(jī)地結(jié)合,進(jìn)一步提高匹配性能,更優(yōu)化圖像質(zhì)量,將是今后研究的可能方向。致 謝首先,感謝我的導(dǎo)師劉天亮老師在畢設(shè)期間對(duì)我的悉心指導(dǎo)。在本課題的研究過(guò)程中劉老師給了我大力支持和幫助。在與劉老師的每次交流中,都促進(jìn)我加深對(duì)本課題的理解,開闊思路,使我受益匪淺。他嚴(yán)謹(jǐn)?shù)闹螌W(xué)態(tài)度,淵博的知識(shí),開闊的思路給我深遠(yuǎn)的影響,將使我受益終身。感謝我所有的老師,是他們給我打下了知識(shí)的基礎(chǔ),教會(huì)了我學(xué)習(xí)的方法;感謝我的同學(xué),是他們給我樹立了各方面的榜樣作用,創(chuàng)造了良好的學(xué)習(xí)氛圍。 陳大朋 2011年6月參考文獻(xiàn)[1] YQ, Wang L, Yang R, et al. Realtime global stereo matching using hierarchical belief propagation[C]. In: The British Machine Vision Conference 2006. 989–998.[2] Schmid C, Mohr R, Bauckhage C. Evaluation of interest point detectors[J]. International Journal of Computer Vision 2000。 37(2):151172[3] Scharstein D, Szeliski R. A taxonomy and evaluation of dense twoframe stereo correspondence algorithms[J]. International journal of puter vision 2002。 47(1):742.[4] D. G. Lowe. Distinctive image features from scaleinvariant keypoints. IJCV, 60(2):91–110, November 2004.. [5] K Mikolajczyk, C. Schmid, A performance evaluation of local descriptors. In PAMI 27(10):16151630 , 2004[6] H Bay, T. Tuytelaars, and L. Van Gool, SURF: Speeded Up Robust Features. ECCV, pp. 404417, 2008[7] Y Heo, K. Lee, and S. Lee. Illumination and camera invariant stereo matching. In CVPR, pages 1–8, 2008. [8] E. Land. An alternative technique for the putation of the designator in the retinex theory of color vision. In Proc. . Sci., pages 3078–3080, 1986.[9] D. Forsyth. A novel algorithm for color constancy. IJCV,5(1):5–36, August 1990. [10] G. Finlayson, S. Hordley, and P. Hubel. Color bycorrelation: A simple, unifying framework for coloconstancy. PAMI, 23(11):1209–1221, November 2001.[11] H. Jin, P. Favaro, and S. Soatto. Realtime feature tracking an outlier rejection with changes in illumination. In ICCV, pages 684–689, 2001. [12] D. G. Lowe. Distinctive image features from scaleinvariant keypoints. IJCV, 60(2):91–110, November 2004. [13] , S. Belongie, and J. Malik. Efficient shape matching using shape contexts. In PAMI, 27(11):1832–1837, 2005. [14] T. Ojala, M. Pietikainen, and D. Harwood. A parative study of texture measures with classification based on feature distributions. Pattern Recognition, 29(1):51–59, 1996. [15] D. Bhat and S. Nayar. Ordinal measures for image correspondence. PAMI, 20(4):415–423, April 1998. [16] S. Scherer, , and A. Pinz. The discriminatory power of ordinal measures: Towards a new coefficient. In CVPR, pages I: 76–81, 1999. [17] A. Mittal and V. Ramesh. An intensityaugmented ordinal measure for visual correspondence. In CVPR, pages I: 849–856, 2006. [18] R. Gupta and A. Mittal, SMD: A Locally Stable Monotonic Change Invariant Feature Descriptor. ECCV, pp. 265277 2008.[19] Vincent Lepetit, Pascal Lagger, Pascal Fua: Randomized Trees for RealTime Keypoint Recognition. CVPR, pp. 775 781, 2005[20] W. H. Press, S. A. Teukolsky, W. T. Vetterling, B. P. Flannery Numerical Recipes in C, Cambridge