【正文】
大眾寶來、輝騰、捷達(dá) 100% 奧迪 A6L % 奧迪 Q5 % 奧迪 Q7 % 寶馬 3 系 % 奔馳 B 級 % 奔馳 GLK % 奔馳 S 級 % 本田鋒范 % 本田飛度 96% 本田雅閣 1 % 本田思域 % 本田雅閣 4 % 本田雅閣 5 % 比亞迪 F3 % 比亞迪 G6 80% 別克君越 % 別克林蔭大道 % 大眾 polo % 本田雅閣 3 95% 有 9 個(gè)類都能夠達(dá)到 100%的正確率,也有其他不少類別能夠達(dá)到正確率 90%以上,說明 SIFT 特征匹配在進(jìn)行車型識別的工作中確實(shí)能取得較好的實(shí)驗(yàn)效果。但是,通過對實(shí)驗(yàn)結(jié)果進(jìn)一步分析發(fā)現(xiàn)識別結(jié)果并不如數(shù)據(jù)所示這么好。主要存在以下幾個(gè)問題:在 2158 張測試數(shù)據(jù)集中存在 312 張圖片由于匹配置信度低于閾值而無法識別。識別正確率達(dá)到 95%以上的車型,有識別結(jié)果的樣本只是總樣本的一小部分。 . 基于深度學(xué)習(xí)的車型識別仿真車輛型號 識別正確率 訓(xùn)練樣本數(shù) 奔馳 B 級 50% 4 大眾寶來 50% 2 大眾輝騰 20% 5 寶馬 3 系 % 361 本田 CRV % 266 上表給出不同的迭代優(yōu)化次數(shù)得到的實(shí)驗(yàn)結(jié)果,可以看出當(dāng)?shù)螖?shù)從 200 次增加到 300 次的時(shí)候,在訓(xùn)練集上的分類精度提升的同時(shí),在測試集合上的分類精度也有提高;但是當(dāng)繼續(xù)增加迭代次數(shù)到 400 次的時(shí)候,雖然訓(xùn)練精度繼續(xù)升高,但是測試精度發(fā)生下降,這說明過多的迭代次數(shù),會帶來模型在訓(xùn)練集上發(fā)生過擬合,反而降低了在其他數(shù)據(jù)上的分類效果。另外從表中可以看出,訓(xùn)練模型消耗時(shí)間很長,并且迭代次數(shù)越多時(shí)間越長,但是一旦模型訓(xùn)練好之后,測試時(shí)間是很短的,測試 2158 張圖片總共耗費(fèi)時(shí)間都在 25 秒左右,平均處理一張圖片 11~12ms。而 SIFT 匹配算法雖然不需要進(jìn)行模型訓(xùn)練,但每幅圖比對所需時(shí)間都在 200ms 以上,實(shí)際應(yīng)用中,當(dāng)類別數(shù)和每一類的比對圖片數(shù)目的增加,處理一幅圖片會達(dá)到幾百毫秒甚至 1 秒。因此,雖然基于深度學(xué)習(xí)的模型訓(xùn)練耗時(shí),但在進(jìn)行測試的時(shí)候卻占優(yōu)勢。. 結(jié)果分析以及算法對比實(shí)驗(yàn)結(jié)果表明,我們可以控制訓(xùn)練樣本,使得深度學(xué)習(xí)算法的準(zhǔn)確率高達(dá)90%。而如果使用SIFT匹配算法,準(zhǔn)確率一般為70%左右。因此,深度學(xué)習(xí)算法的車型識別的準(zhǔn)確率大大提高?;谏鲜龇抡娼Y(jié)果,我們的到了深度學(xué)習(xí)算法適用于車輛型號識別領(lǐng)域的結(jié)論。5. 結(jié)束語本文主要如何利用深度學(xué)習(xí)的方法進(jìn)行車輛型號的識別和分類。首先,介紹了車型識別的應(yīng)用背景和深度學(xué)習(xí)的基本理論。之后,為了進(jìn)行目標(biāo)識別,我們介紹了常用算法,分析比較了作為圖像特征提取常見的算法,總結(jié)歸納了他們性能,精度以及相互之間的關(guān)聯(lián)。之后,介紹了在目標(biāo)識別工作中基本算法,闡明了各種方法的特點(diǎn)和適用場景。之后,我們以深度神經(jīng)網(wǎng)絡(luò)為理論依據(jù),分析比較了深度神經(jīng)網(wǎng)絡(luò)不同的特征學(xué)習(xí)方法,并分析了如何使用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練參數(shù)。我們分析比較不同特征學(xué)習(xí)方法的特點(diǎn)選取k均值聚類算法作為本文使用的特征學(xué)習(xí)方法,利用卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)搭建深度學(xué)習(xí)模型。、本文采用大量實(shí)測數(shù)據(jù)作為仿真數(shù)據(jù),以確保實(shí)驗(yàn)的有效性。同時(shí),基于相同的實(shí)測數(shù)據(jù)我們適用改進(jìn)SIFT特征匹配算法和深度學(xué)習(xí)算法進(jìn)行車型識別。實(shí)驗(yàn)結(jié)果表明,深度學(xué)習(xí)算法的準(zhǔn)確率高達(dá)90%,相對于SIFT匹配算法,深度學(xué)習(xí)算法的車型識別的準(zhǔn)確率大大提高?;谏鲜龇抡娼Y(jié)果,我們的到了深度學(xué)習(xí)算法適用于車輛型號識別領(lǐng)域的結(jié)論5. 致謝我感謝學(xué)校領(lǐng)導(dǎo)和老師對我的指導(dǎo),我感謝同學(xué)對我的幫助。 參考文獻(xiàn)[1]. Sullivan, ., et al., Modelbased vehicle detection and classification using orthographic approximations. Image and Vision Computing, 1997. 15(8): p. 649654. [2]. Tan, T., . Sullivan and . Baker, Modelbased localisation and recognition of road vehicles. International Journal of Computer Vision, 1998. 27(1): p. 525. [3]. Gupte, S., et al., Detection and classification of vehicles. Intelligent Transportation Systems, IEEE Transactions on, 2002. 3(1): p. 3747. [4]. Ji, P., L. Jin and X. Li. Visionbased vehicle type classification using partial gabor filter bank. 2007: IEEE. [5]. Morris, . and . Trivedi, Learning, modeling, and classification of vehicle track patterns from live video. Intelligent Transportation Systems, IEEE Transactions on, 2008. 9(3): p. 425437. [6]. Zhang, L., et al. Realtime object classification in video surveillance basedon appearance learning. 2007: IEEE. [7]. 王枚等, 基于小波變換和不變矩的車標(biāo)識別方法. 海軍航空工程學(xué)院學(xué)報(bào), 2007. 22(6): 第6556508頁. [8]. 王枚等, 基于 PCA 與不變矩的車標(biāo)定位與識別. 武漢大學(xué)學(xué)報(bào): 信息科學(xué)版, 2008. 33(1): 第3640頁. [9]. Petrovic, . and . Cootes. Analysis of Features for Rigid Structure Vehicle Type Recognition. 2004. [10]. Munroe, . and . Madden, Multiclass and singleclass classification approaches to vehicle model recognition from images. Proc. AICS, 2005. . [11]. Negri, P., et al. An orientedcontour point based voting algorithm for vehicle type classification. 2006: IEEE. [12]. Hinton, . and . Salakhutdinov, Reducing the dimensionality of data with neural networks. Science, 2006. 313(5786): p. 504507. [13]. Lowe, . Object recognition from local scaleinvariant features. 1999: Ieee. [14]. Lindeberg, T., Scalespace theory: A basic tool for analyzing structures at different scales. Journal of applied statistics, 1994. 21(12): p. 225270. [15]. Mikolajczyk, K. and C. Schmid, Scale amp。 affine invariant interest point detectors. International journal of puter vision, 2004. 60(1): p. 6386. [16]. Ke, Y. and R. Sukthankar. PCASIFT: A more distinctive representation for local image descriptors. 2004: IEEE. [17]. Bay, H., T. Tuytelaars and L. Van Gool, Surf: Speeded up robust features. 2006, Springer. p. 404417. [18]. Wang, X., et al. Contextual weighting for vocabulary tree based image retrieval. 2011: IEEE. [19]. Nister, D. and H. Stewenius. Scalable recognition with a vocabulary tree. 2006: IEEE. 2002. 31(1): 第2529頁. [20]. Coates, A., . Ng and H. Lee. An analysis of singlelayer networks in unsupervised feature learning. 2011. [21]. Boureau, Y., J. Ponce and Y. LeCun. A theoretical analysis of feature pooling in visual recognition. 2010. [22]. Coates, A., et al. Text detection and character recognition in scene images with unsupervised feature learning. 2011: IEEE. [23]. Coates, A., et al. Text detection and character recognition in scene images with unsupervised feature learning. 2011: IEEE. [24]. Wang, T., et al. Endtoend text recognition with convolutional neural networks. 2012: IEEE. [25].Coates, A. and . Ng, Learning feature representations with kmeans. 2012, Springer. p. 561580. .28