【正文】
像模糊,視角變化,jepg壓縮等應(yīng)用時,都優(yōu)于其他的描述素?;趶?fù)雜光照不變的的特征描述符為每一像素點構(gòu)造一個OSID區(qū)域描述子,并利用三種不相似性測度得到初始匹配成本;其次,依次在水平、垂直雙方向上采用基于測地線計算權(quán)重的成本聚合策略,它有效簡化和改進了自適應(yīng)權(quán)值策略的繁冗的計算,降低了計算復(fù)雜度,提高效率,消除匹配特征的相似歧義,計算魯棒匹配代價;最后,采用優(yōu)勝者全選方法選取視差范圍內(nèi)的最優(yōu)視差值。實驗結(jié)果表明,該算法結(jié)構(gòu)簡單,計算快速高效,能夠有效的提高匹配精度,得到分段光滑、精度高的稠密視差圖。雖然雙目立體匹配技術(shù)經(jīng)過數(shù)十年的研究,匹配算法不斷豐富,但無論是從視覺生理的角度,還是從實際應(yīng)用方面,完善現(xiàn)有的立體匹配技術(shù)還有很大空間,基于復(fù)雜光照不變性的根據(jù)當前雙目立體匹配算法的研究狀況[19],技術(shù)發(fā)展存在如下趨勢:1) 完善雙目立體匹配總體理論框架。立體匹配經(jīng)過多年的研究己出現(xiàn)大量各具特色的研究成果,但Marr提出的理論框架還有待進一步的完善和改進。特別是在復(fù)雜場景中,如何提高算法的去歧義匹配和抗干擾能力,如何降低計算復(fù)雜度和運算量,仍需要進行更加深入的探索和研究。2) 立體匹配與重建相結(jié)合。對于一個完整的立體視覺系統(tǒng)而言,匹配與內(nèi)插重建過程并不是兩個不相關(guān)的獨立模塊,它們之間存在著信息的反饋。匹配結(jié)果約束著內(nèi)插的重建;反過來,重建結(jié)果又引導(dǎo)著正確的匹配?;谶@一思想,Hoff等提出了一種匹配、重建一體化的方法,在得到匹配的同時,用一次/二次曲面擬合技術(shù)進行內(nèi)插,重建出完整的視差表面,并以此為信息不斷修正匹配結(jié)果,循環(huán)往復(fù),最終得到精確的匹配視差。這種將匹配與重建視為一體的方法是值得重視的,它不但能生成更為完整的視差場,而且可以為匹配提供更多的信息。3) 充分挖掘人工智能算法的發(fā)展空間,建立基于知識、規(guī)則、模型的智能化匹配算法。作為有效求解不確定性問題的最優(yōu)化工具,人工智能算法越來越多地應(yīng)用于解決立體匹配問題,它們提供了各類求解復(fù)雜系統(tǒng)優(yōu)化問題的通用框架,以此建立有目的和面向任務(wù)的智能化匹配算法,在實際應(yīng)用中有很強的魯棒性。另外,對于匹配左右圖像亮度不一的立體對應(yīng)對,如birch tree圖像,也是智能匹配算法設(shè)計的一個挑戰(zhàn)。4) 建立實時、精確以及穩(wěn)定的實用立體匹配算法。許多立體匹配算法需要處理的數(shù)據(jù)量較大,相應(yīng)地需要存儲空間較大,不易實現(xiàn)快速處理。隨著大規(guī)模集成電路和專用硬件處理器的飛速發(fā)展,從實際應(yīng)用和要求出發(fā),致力于建立適用專門領(lǐng)域和面向?qū)ο蟮膶嵱昧Ⅲw匹配算法是很有意義的研究課題。研究工作可以考慮算法從以前的串行處理向并行處理發(fā)展,采用并行流水線機制和專用的信號處理器件,增強立體匹配的實用性。5) 立體匹配與認知科學緊密結(jié)合。已有的立體匹配方法大多與人類視覺極為相似。許多學者對研究人類視覺計算模型比研究立體視覺系統(tǒng)更感興趣,希望立體視覺更加自然化,更加接近生物視覺。認知科學長期將人類視覺作為重要研究對象,總結(jié)了許多規(guī)則,因此自然成為立體匹配研究學習的重要對象。值得一提的是,認知科學中的圖形組織規(guī)則對立體匹配中的圖像分割問題有著重要的指導(dǎo)意義。文獻提出了利用格式塔規(guī)則提取具有組織結(jié)構(gòu)的特征群作為高級基元進行分級的立體匹配算法。Desolneux全面指出了格式塔原理與計算機視覺的內(nèi)在聯(lián)系。6) 從理解人類視覺的立體融合機制出發(fā),建立一種通用的人類雙目匹配計算模型。盡管匹配研究己取得一些成果,但在理論上和技術(shù)上都存在著很多問題。例如,如何選擇合理的匹配特征,以克服匹配準確性與恢復(fù)視差全面性之間的矛盾;如何選擇有效的匹配準則和算法結(jié)構(gòu),以解決存在畸變、噪聲特殊結(jié)構(gòu)及遮擋的匹配問題;如何建立更有效的圖像表達形式和立視模型,以便更充分地反映景物的本質(zhì)屬性,為匹配提供更多的約束信息,降低立體匹配的難度。就目前的研究而言,要構(gòu)造出與人類視覺一樣靈活、精確的匹配系統(tǒng),還有待于對人類自身機制的深入研究。結(jié)束語本文主要介紹了一種基于復(fù)雜光照不變性為每個像素點構(gòu)造的OSID區(qū)域描述子的立體匹配算法,并進行3種不同相似性測度測度得到初始匹配成本,依次在水平、垂直雙方向上采用基于測地線計算權(quán)重的成本聚合策略,消除匹配特征的相似歧義,計算魯棒匹配代價,采用優(yōu)勝者全選方法選取視差范圍內(nèi)的最優(yōu)視差值。在研究過程中,本文得出以下結(jié)論:1)基于OSID描述子,具有復(fù)雜度低、魯棒性強的特點。并且此描述子不隨復(fù)雜的光照變化而變化,只要將空間和時間的標簽數(shù)設(shè)定合適,程序的運行結(jié)果就會比較準確,匹配率高。2)適當?shù)脑龃蟠翱诖笮?,局部算法中的鄰域相似性測度往往能更好地描述局部特征,從而得到更可靠的初始視差并使匹配精度提高;局部算法的整體計算復(fù)雜度通常會集中在成本聚合,窗口較大時,相應(yīng)的會增加計算復(fù)雜度,同時,邊緣處的視差就會模糊不清。3)比較三種基于區(qū)域協(xié)方差的不相似測度法(SAD、SSD和FAI)的匹配性能,SAD測度法最差,SSD測度法次之,F(xiàn)AI測度法最好。雙目立體匹配問題是一個“病態(tài)”問題。雙目立體匹配實施要考慮諸多因素,并以計算復(fù)雜度和穩(wěn)定性等總體性能指標衡量方案實施的可行性和有效性,因此,研究雙目立體匹配算法要從系統(tǒng)化的角度來分析,光照對圖像的影響日益深刻,如何減少光照對圖像質(zhì)量的影響已是一個迫在眉睫的問題,如何將本算法與其它匹配算法有機地結(jié)合,進一步提高匹配性能,更優(yōu)化圖像質(zhì)量,將是今后研究的可能方向。致 謝首先,感謝我的導(dǎo)師劉天亮老師在畢設(shè)期間對我的悉心指導(dǎo)。在本課題的研究過程中劉老師給了我大力支持和幫助。在與劉老師的每次交流中,都促進我加深對本課題的理解,開闊思路,使我受益匪淺。他嚴謹?shù)闹螌W態(tài)度,淵博的知識,開闊的思路給我深遠的影響,將使我受益終身。感謝我所有的老師,是他們給我打下了知識的基礎(chǔ),教會了我學習的方法;感謝我的同學,是他們給我樹立了各方面的榜樣作用,創(chuàng)造了良好的學習氛圍。 陳大朋 2011年6月參考文獻[1] YQ, Wang L, Yang R, et al. Realtime global stereo matching using hierarchical belief propagation[C]. In: The British Machine Vision Conference 2006. 989–998.[2] Schmid C, Mohr R, Bauckhage C. Evaluation of interest point detectors[J]. International Journal of Computer Vision 2000。 37(2):151172[3] Scharstein D, Szeliski R. A taxonomy and evaluation of dense twoframe stereo correspondence algorithms[J]. International journal of puter vision 2002。 47(1):742.[4] D. G. Lowe. Distinctive image features from scaleinvariant keypoints. IJCV, 60(2):91–110, November 2004.. [5] K Mikolajczyk, C. Schmid, A performance evaluation of local descriptors. In PAMI 27(10):16151630 , 2004[6] H Bay, T. Tuytelaars, and L. Van Gool, SURF: Speeded Up Robust Features. ECCV, pp. 404417, 2008[7] Y Heo, K. Lee, and S. Lee. Illumination and camera invariant stereo matching. In CVPR, pages 1–8, 2008. [8] E. Land. An alternative technique for the putation of the designator in the retinex theory of color vision. In Proc. . Sci., pages 3078–3080, 1986.[9] D. Forsyth. A novel algorithm for color constancy. IJCV,5(1):5–36, August 1990. [10] G. Finlayson, S. Hordley, and P. Hubel. Color bycorrelation: A simple, unifying framework for coloconstancy. PAMI, 23(11):1209–1221, November 2001.[11] H. Jin, P. Favaro, and S. Soatto. Realtime feature tracking an outlier rejection with changes in illumination. In ICCV, pages 684–689, 2001. [12] D. G. Lowe. Distinctive image features from scaleinvariant keypoints. IJCV, 60(2):91–110, November 2004. [13] , S. Belongie, and J. Malik. Efficient shape matching using shape contexts. In PAMI, 27(11):1832–1837, 2005. [14] T. Ojala, M. Pietikainen, and D. Harwood. A parative study of texture measures with classification based on feature distributions. Pattern Recognition, 29(1):51–59, 1996. [15] D. Bhat and S. Nayar. Ordinal measures for image correspondence. PAMI, 20(4):415–423, April 1998. [16] S. Scherer, , and A. Pinz. The discriminatory power of ordinal measures: Towards a new coefficient. In CVPR, pages I: 76–81, 1999. [17] A. Mittal and V. Ramesh. An intensityaugmented ordinal measure for visual correspondence. In CVPR, pages I: 849–856, 2006. [18] R. Gupta and A. Mittal, SMD: A Locally Stable Monotonic Change Invariant Feature Descriptor. ECCV, pp. 265277 2008.[19] Vincent Lepetit, Pascal Lagger, Pascal Fua: Randomized Trees for RealTime Keypoint Recognition. CVPR, pp. 775 781, 2005[20] W. H. Press, S. A. Teukolsky, W. T. Vetterling, B. P. Flannery Numerical Recipes in C, Cambridge