【正文】
ICCV, Vancouver, Canada, pp. 454461, 2001.[16] , , and D. Snow, Detecting pedestrians using patterns of motion and appearance. The 939。參考文獻(xiàn)[1] M. 1. Minsky and S. A Papert, Perceptrons. Cambridge, Ma: MIT Press, 1969, .[2] V. N. Vapnik, The Nature of Statistical Learning Theory, New York: SpringerVerlag, 1995, p 188.[3] V. N. Vapnik and A Ja. Chervonenkis, The necessary conditions for consistency of the method of empirical risk minimization. Yearbook of the Academy of Sciences of the USSR on Recognition, Classification, and Forecasting, vol. 2, pp. 217249, Nauka Moscow, 1989 (in Russian). English translation: Pattern Recogn. And Image Analysis, vol. I, no. 3, pp. 284305, 1991.[4] V. N. Vapnik and A. Ja. Chervonenkis, On the uniform convergence of relative frequencies of events to their probabilities. Rep. Academy Sci. USSR,pI81,n04,1968.[5] B. Boser, I. Guyon, and V. N. Vapnik, A training algorithm for optimal margin classifiers. in Proc. 539。上述結(jié)果大多是從不具備足夠挑戰(zhàn)的數(shù)據(jù)中得到,MIT汽車數(shù)據(jù)庫(kù)內(nèi)的圖像都非常類似,并且易于分類。注意,為了實(shí)驗(yàn)簡(jiǎn)單,所有操作均在Matlab軟件上完成。SVM 將會(huì)以懲罰參數(shù) C=1 訓(xùn)練各個(gè)不同子集的每個(gè)例子。并且隨著一定量的循環(huán)實(shí)驗(yàn)后,我們能夠獲得足夠多的點(diǎn)來(lái)繪制出ROC弧線,但是獲得的點(diǎn)集并不能永遠(yuǎn)繪制出合適并且足夠傾斜的弧線,所以為了更好的可視性和對(duì)比性,我們這里采取多項(xiàng)式弧線。我們從MIT的汽車數(shù)據(jù)庫(kù)中提取了512個(gè)圖像作為正例,從INRIA汽車數(shù)據(jù)庫(kù)[6]中提取了912個(gè)圖像作為反例(所有圖像的分辨率為128x128)。最終,獲得了每8x8像素包含2x2坐標(biāo)的RHOG區(qū)域結(jié)構(gòu)。利用方向梯度可以提高車輛識(shí)別的效果,因?yàn)榇蠖鄶?shù)汽車有著并不完全相同的外形,因此當(dāng)視角改變時(shí),它的外形也會(huì)有巨大變化。內(nèi)均勻分布?;?0176。方向值在0176。(a)原始圖像 (b)x方向梯度(c)y方向梯度 (d)整體梯度圖4 方向梯度計(jì)算結(jié)果圖下一個(gè)基礎(chǔ)的環(huán)節(jié)是確定方向,對(duì)于每一個(gè)像素計(jì)算出一個(gè)描述邊的方向的建議值。B、措施我們采取的措施是未經(jīng)任何修改的Dalas算法,并且從MIT CBCL數(shù)據(jù)庫(kù)[17]中截取的圖片也未經(jīng)伽瑪修正。為了使得直方圖對(duì)光照有較好的健壯性,利用大塊區(qū)域的“能量”局部直方圖都被標(biāo)準(zhǔn)化到一個(gè)大的區(qū)域。Ⅲ、方向梯度直方圖A、介紹方向梯度直方圖描述子[6]提供了非常優(yōu)秀的質(zhì)量/復(fù)雜度,并不像其他邊描述子像SIFT[13]或者SURF[14]描述子那樣復(fù)雜和很大計(jì)算開(kāi)銷,但也能給我們與像形狀背景[15]或者哈爾小波轉(zhuǎn)換[16]那樣的更“簡(jiǎn)單的”描述子相比,更好的結(jié)果。但是由于序列最小優(yōu)化算法的相對(duì)簡(jiǎn)單和它相對(duì)出色的效果依然使它被很多實(shí)驗(yàn)所應(yīng)用。一個(gè)更為簡(jiǎn)單的方法是,將該問(wèn)題分成一系列細(xì)小的QP問(wèn)題,而不是直接大規(guī)模的計(jì)算得到。表1 常見(jiàn)內(nèi)核函數(shù)內(nèi)核函數(shù)分類器類型線性,點(diǎn)積,CPD多項(xiàng)式,PD高斯RBF,PD多層感知器,CPDC、 序列最小優(yōu)化算法序列最小優(yōu)化算法首先被應(yīng)用于克服QP算法在計(jì)算和實(shí)施上的復(fù)雜度。因此我們通過(guò)內(nèi)核直接計(jì)算梯狀產(chǎn)生式,這樣我們就可以不必知道x的真實(shí)映射是什么。圖3 線性軟邊緣支持向量機(jī)B、 非線性軟邊緣分類器SVM分類器的主要優(yōu)勢(shì)就是它可以輕易的由一個(gè)線性的方法擴(kuò)展成為一個(gè)非線性的方法。上述表達(dá)式描述了一個(gè)凸函數(shù)問(wèn)題,意味著它將不只是具有一個(gè)最小值,而且它通常在 k=1 或者 k=2 時(shí)才能被解決,相應(yīng)的被稱為L(zhǎng)1和L2 SVMs。所以在實(shí)際應(yīng)用中,最好允許某些數(shù)據(jù)被誤分類。盡管如此,在介紹非線性SVM之前,我們也要對(duì)線性軟邊緣分類器做一個(gè)簡(jiǎn)短介紹。那么總體的問(wèn)題便是找到位于兩個(gè)類別([8]有詳解介紹)間的最大邊緣超平面,因此最大的邊緣在這里可以定義為: (3)它也等價(jià)于下式的最小值: (4)之后學(xué)習(xí)問(wèn)題的規(guī)模便減少到(4)并被下述條件所約束: (5)公式(4)和(5),構(gòu)成了一個(gè)不等條件下的二次型最優(yōu)問(wèn)題,它可以被典型的二次型(如,QP)方法解決。因此對(duì)于任何一個(gè)需要分類的新數(shù)據(jù),它必須遵守決策規(guī)則;當(dāng),當(dāng)。Ⅱ、二元SVM讓我們來(lái)考慮一個(gè)二元線性分類問(wèn)題并且它的輸入或者說(shuō)訓(xùn)練數(shù)據(jù)如下所示: (1)SVM的任務(wù)便是找到最優(yōu)的分隔超平面(如圖1和2),在所有分隔數(shù)據(jù)的超平面中,最優(yōu)的意思是最佳的標(biāo)準(zhǔn)分隔超平面(如,OCSH,[7]有詳細(xì)介紹)。不同類型的汽車通常有類似的形狀,不僅如此,可以說(shuō)它們有非常多相近的地方。去討論用于車輛識(shí)別的特征選擇問(wèn)題,是毫無(wú)意義的。SVM,基于純粹的函數(shù)估計(jì)問(wèn)題的理論分析而逐漸演變成一種新型的用于估計(jì)/分類多維函數(shù)/數(shù)據(jù)的學(xué)習(xí)算法。與基于實(shí)際實(shí)驗(yàn)所產(chǎn)生的神經(jīng)網(wǎng)絡(luò)[1]相反,SVM有很深的理論背景,即統(tǒng)計(jì)學(xué)習(xí)理論(SLT)[2]和結(jié)構(gòu)風(fēng)險(xiǎn)最小化(SRM)[3]。Ⅰ、引 言SVM和其他類似神經(jīng)網(wǎng)絡(luò)和模糊系統(tǒng)的計(jì)算機(jī)軟件技術(shù)都是機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘方向的技術(shù)。 Mohammed V, Souissi, RabatMorocco摘 要:本文采用線性和非線性內(nèi)核的軟邊緣SVM來(lái)對(duì)圖像分類,從多數(shù)據(jù)集中提取多維梯度直方圖特征向量,并將序列最小優(yōu)化算法(SMO)方法應(yīng)用于從訓(xùn)練數(shù)據(jù)中搜索最優(yōu)分隔超平面。本系統(tǒng)就是在VC++平臺(tái)上使用MFC構(gòu)建了一個(gè)軟件,結(jié)合OpenCV視覺(jué)庫(kù)針對(duì)車牌識(shí)別系統(tǒng)中各流程進(jìn)行編程設(shè)計(jì)。OpenCV 中曾經(jīng)還有一個(gè) CvCam 模塊,但從 版本開(kāi)始 OpenCV 便不再包含它,其功能被 HighGUI 所取代。早期版本的 OpenCV 包括 CxCore、Cv、CxAuv、H