【正文】
h Annu. Wkshp. Comput. Learning Theory. Pittsburg, PA: ACM, 1992, pp. 144152[6] N. Dalal and B. Triggs, Histograms of oriented gradients for human detection. Computer Vision and pattern Recognition, 2005. IEEE Computer Society Conference on, vol. I, pp. 886893, June 2005.[7] V. Kecman, Support vector machines An introduction., StudFuzz 177, , 2005.[8] V. Kecman, Learning and Soft Computing, Support Vector Machines, Neural Networks and Fuzzy Logic Models, Cambridge, MA: MIT Press, 2001.[9] 1. C. Platt, Sequential minimal optimization: a fast algorithm for training support vector machines. , Technical Report MSRTR9814, April 1998.[10] 1. Mercer, Functions of positive and negative type and their connection with the theory of integral equation. , vol. A209, pp. 415446,1909.[11] T. Joachims, Making largescale SVM learning practicaL, in Advances in Kernel Methods Support Vector Learning, chapter II, Cambridge, Ma: MIT Press, 1999.[12] R. E. Fan, P. H. Chen, and C. J. Lin, Working set selection using second order information for training SVM, Journal of Machine Learning Research, vol. 6, , 2005.[13] , Distinctive image features from scaleinvariant keypoints. International Journal of Computer Vision, voL 60, no. 2, pp. 91110, 2004.[14] H. Bay, A. Ess, , and 1. Van Gool, SURF: Speeded up robust features. Computer Vision and Image Understanding voL 110, no. 3,pp. 346359,2008.[15] , J. Malik, and , Matching shapes. The 839。 圖5 線性內(nèi)核的ROC曲線 圖6 二次多項(xiàng)式內(nèi)核的ROC曲線 圖7 當(dāng)σ=1時(shí),高斯RBF內(nèi)核的ROC曲線 圖8 當(dāng)σ=30時(shí),高斯RBF內(nèi)核的ROC曲線圖9 當(dāng)σ=70時(shí),高斯RBF內(nèi)核的ROC曲線 圖10 當(dāng)σ=3000時(shí),高斯RBF內(nèi)核的ROC曲線圖11 當(dāng)a=1,b=1時(shí),MLP內(nèi)核的ROC曲線從圖511所示,我們可以發(fā)現(xiàn)當(dāng)σ=70時(shí),線性內(nèi)核與高斯RBF內(nèi)核一道可以取得幾乎完美的結(jié)果,而其他的方法卻都徹底的失敗,不是由于識(shí)別不出任何事物,就是存在大量分類錯(cuò)誤,特別是假的正情況,但是仍然優(yōu)于隨機(jī)分類方法。每次循環(huán)中,由于整個(gè)數(shù)據(jù)庫被采取了70%訓(xùn)練集,30%測(cè)試集的交叉評(píng)判標(biāo)準(zhǔn),所以每次循環(huán)的數(shù)據(jù)是隨機(jī)取得的,幾乎是同樣數(shù)目的正例和反例被選入測(cè)試集。Ⅳ、結(jié)論為了比較不同內(nèi)核的效果,我們采取了相對(duì)簡單的交叉評(píng)判標(biāo)準(zhǔn)。在這里一個(gè)好的方向描述子需要9個(gè)帶有方向梯度的方向值來描述。180176。一個(gè)普通的1D中心的離散派生掩模[1,10]用于梯度計(jì)算。主要的思路是每個(gè)對(duì)象都能被局部分布的方向梯度所特征化,在局部分布的方向梯度中,每個(gè)小區(qū)域中的密集的定向梯度都會(huì)被累積到直方圖中。但是,盡管序列最小優(yōu)化算法并不是最快的算法,Joachims的SVM優(yōu)化算法[11]可以比序列最小優(yōu)化算法[12]快上兩倍,對(duì)于其他類型的算法可能快上更多??赡艿膬?nèi)核的數(shù)目非常巨大,它們所需要滿足的唯一條件就是Mercer的條件,表1給出了 SVM 常用的內(nèi)核函數(shù)。為了簡化問題,我們只描述L1準(zhǔn)則SVM條件下的二次問題(6)的結(jié)果,由雙變量的凹點(diǎn)給出: (8)為了尋找最優(yōu)凹點(diǎn),或者是超平面,雙變量必須要在下列條件下取得最大值: (9a)并且, (9b)注意上述由 KarushKuhnTucker(如,KKT)得到的約束條件和(6)式對(duì)于分隔的數(shù)據(jù)是一致的,只有一個(gè)不同點(diǎn)就是它們的多維變量不同。 由于分隔超平面的自帶屬性和約束條件(5),一個(gè)相互重疊的數(shù)據(jù)集合并不能很好的被分類,對(duì)于任何一個(gè)訓(xùn)練數(shù)據(jù),它都會(huì)被誤分類,相應(yīng)的,將會(huì)為了最終分類正確會(huì)使它的值增長,最優(yōu)算法因而會(huì)選擇所有訓(xùn)練數(shù)據(jù)作為支持點(diǎn)。注釋:為n+1維的分隔超平面,它的決策域在n維超平面內(nèi),并且它是超平面和輸入空間的交匯處,因此可以證明。用于汽車識(shí)別的良好的特征是方向梯度直方圖[6],它可以提供確切的關(guān)于形狀定位的信息,并且開銷不大。在本文中,我們將只關(guān)注于數(shù)據(jù)分類,更確切地說是基于特定特征的圖像分類。簡單來說,SVM是一種識(shí)別數(shù)據(jù)模式并分類或者分析的監(jiān)督式學(xué)習(xí)方法。參考文獻(xiàn)[1] 胡桂珍.基于數(shù)字圖像處理的車牌識(shí)別系統(tǒng)研究[D].成都:西南交通大學(xué),2010[2] 貢麗霞.車牌識(shí)別系統(tǒng)中的車牌定位及傾斜校正技術(shù)研究[D].太原:中北大學(xué),2010[3] 劉瑋.基于圖像處理的車牌識(shí)別技術(shù)的研究[D].哈爾濱:哈爾濱理工大學(xué),2008[4] 李云.車牌定位與字符分割算法的研究及實(shí)現(xiàn)[D].成都:電子科技大學(xué),2010[5] 沈晶,劉海波,周長建.Visual C++ 數(shù)字圖像處理典型案列詳解[M].北京:機(jī)械工業(yè)出版社,2012,27[6] 湯方義.基于OpenCV 和CUDA 的車牌識(shí)別系統(tǒng)的軟件設(shè)計(jì)與實(shí)現(xiàn)[D].長春:吉林大學(xué),2011[7] DaRocha G A,Manoel S J.Character recognition in Car license plates based on principal ponents and neutral processing[J].Pa