freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于深度學(xué)習(xí)車(chē)輛型號(hào)識(shí)別-文庫(kù)吧在線文庫(kù)

  

【正文】 習(xí)部分的參數(shù)固定不需要進(jìn)行調(diào)整。 接下來(lái),我們分析算法中各個(gè)實(shí)現(xiàn)步驟對(duì)算法的影響。圖 47 右圖是分別用傾斜邊緣卷積模板、水平邊緣卷積模板以及垂直邊緣卷積模板對(duì)圖片做卷積的效果,白色區(qū)域是對(duì)應(yīng)邊緣響應(yīng)高的位置。而 SIFT 匹配算法雖然不需要進(jìn)行模型訓(xùn)練,但每幅圖比對(duì)所需時(shí)間都在 200ms 以上,實(shí)際應(yīng)用中,當(dāng)類(lèi)別數(shù)和每一類(lèi)的比對(duì)圖片數(shù)目的增加,處理一幅圖片會(huì)達(dá)到幾百毫秒甚至 1 秒。之后,為了進(jìn)行目標(biāo)識(shí)別,我們介紹了常用算法,分析比較了作為圖像特征提取常見(jiàn)的算法,總結(jié)歸納了他們性能,精度以及相互之間的關(guān)聯(lián)。 參考文獻(xiàn)[1]. Sullivan, ., et al., Modelbased vehicle detection and classification using orthographic approximations. Image and Vision Computing, 1997. 15(8): p. 649654. [2]. Tan, T., . Sullivan and . Baker, Modelbased localisation and recognition of road vehicles. International Journal of Computer Vision, 1998. 27(1): p. 525. [3]. Gupte, S., et al., Detection and classification of vehicles. Intelligent Transportation Systems, IEEE Transactions on, 2002. 3(1): p. 3747. [4]. Ji, P., L. Jin and X. Li. Visionbased vehicle type classification using partial gabor filter bank. 2007: IEEE. [5]. Morris, . and . Trivedi, Learning, modeling, and classification of vehicle track patterns from live video. Intelligent Transportation Systems, IEEE Transactions on, 2008. 9(3): p. 425437. [6]. Zhang, L., et al. Realtime object classification in video surveillance basedon appearance learning. 2007: IEEE. [7]. 王枚等, 基于小波變換和不變矩的車(chē)標(biāo)識(shí)別方法. 海軍航空工程學(xué)院學(xué)報(bào), 2007. 22(6): 第6556508頁(yè). [8]. 王枚等, 基于 PCA 與不變矩的車(chē)標(biāo)定位與識(shí)別. 武漢大學(xué)學(xué)報(bào): 信息科學(xué)版, 2008. 33(1): 第3640頁(yè). [9]. Petrovic, . and . Cootes. Analysis of Features for Rigid Structure Vehicle Type Recognition. 2004. [10]. Munroe, . and . Madden, Multiclass and singleclass classification approaches to vehicle model recognition from images. Proc. AICS, 2005. . [11]. Negri, P., et al. An orientedcontour point based voting algorithm for vehicle type classification. 2006: IEEE. [12]. Hinton, . and . Salakhutdinov, Reducing the dimensionality of data with neural networks. Science, 2006. 313(5786): p. 504507. [13]. Lowe, . Object recognition from local scaleinvariant features. 1999: Ieee. [14]. Lindeberg, T., Scalespace theory: A basic tool for analyzing structures at different scales. Journal of applied statistics, 1994. 21(12): p. 225270. [15]. Mikolajczyk, K. and C. Schmid, Scale amp。、本文采用大量實(shí)測(cè)數(shù)據(jù)作為仿真數(shù)據(jù),以確保實(shí)驗(yàn)的有效性。因此,深度學(xué)習(xí)算法的車(chē)型識(shí)別的準(zhǔn)確率大大提高。主要存在以下幾個(gè)問(wèn)題:在 2158 張測(cè)試數(shù)據(jù)集中存在 312 張圖片由于匹配置信度低于閾值而無(wú)法識(shí)別。 接下來(lái)我們分析k均值聚類(lèi)算法中卷積核對(duì)特征提取的影響。為了便于分類(lèi)器分類(lèi),最后在第三層得到的特征圖上再次做均值 Pooling,得到圖片最終的特征向量,輸入到SVM 分類(lèi)器中進(jìn)行分類(lèi),得到分類(lèi)結(jié)果 。基于上述分析,我們可以構(gòu)造如下優(yōu)化問(wèn)題: (410) ?? ≥0 通過(guò)調(diào)整??和??的值,使目標(biāo)函數(shù)取值最小。 //從訓(xùn)練樣本生成用于k均值聚類(lèi)算法 聚類(lèi)的88 圖像塊 K_kernels= k_means_clustering(Patches)。 在構(gòu)建深度神經(jīng)網(wǎng)絡(luò)的時(shí)候使用卷積運(yùn)算可以大大減少需要訓(xùn)練的參數(shù)數(shù)量,但是會(huì)導(dǎo)致輸出的向量維度大大增加,例如前面舉的例子一個(gè) 3232 的圖像,假設(shè)在 88卷積模板上已經(jīng)學(xué)習(xí)得到 200 個(gè)特征,而每個(gè)特征和圖像在下一次卷積會(huì)得到(328+1) (328+1)=625 維的特征,因此 200 個(gè)特征都處理后,拼起來(lái)會(huì)得到大小為156800 維特征,如果圖片更大、特征數(shù)目更多,最后得到的特征維度過(guò)高,不利于分類(lèi)器分類(lèi)。所以,k均值聚類(lèi)算法可以有效地進(jìn)行特征學(xué)習(xí)學(xué)習(xí)。為了使得算法可以被有效的使用,我們使用k均值聚類(lèi)快速提取低緯特征。尤其對(duì)于圖像識(shí)別,深度學(xué)習(xí)擁有大量經(jīng)過(guò)實(shí)踐證實(shí)的有效算法?;谝陨系姆治?,我們改進(jìn)SIFT算法,使之適用于我們所研究的車(chē)型識(shí)別。第二個(gè)原因是可以接受的,因?yàn)殚L(zhǎng)得很像的車(chē)人眼也不容易區(qū)分,但是第一個(gè)原因值得我們關(guān)注,因?yàn)樘卣鼽c(diǎn)過(guò)于集中在某些區(qū)域?qū)嶋H上就是丟失了一些其他區(qū)域的信息,而且集中在車(chē)標(biāo)區(qū)域帶來(lái)的問(wèn)題是:即使可以很好的區(qū)分不同品牌的汽車(chē),但同品牌的不同型號(hào)就不易進(jìn)行區(qū)分了??蓴U(kuò)展性,可以很方便的與其他形式的特征向量進(jìn)行聯(lián)合。SIFT特征描述對(duì)于部分物體遮蔽的偵測(cè)率也相當(dāng)高,甚至只需要3個(gè)以上的SIFT物體特征就足以計(jì)算出位置與方位。David對(duì)于SIFT特征匹配識(shí)別算法,我們?cè)谲?chē)型識(shí)別的應(yīng)用中需要更高的要求,因此,我們首先介紹了SIFT特征匹配識(shí)別原始算法,之后提出了改進(jìn)方案,最后分析了算法性能。 對(duì)系統(tǒng)參數(shù)的學(xué)習(xí)過(guò)程就是優(yōu)化系統(tǒng)誤差的過(guò)程,因此,每次前向傳遞后系統(tǒng)的誤差會(huì)在網(wǎng)絡(luò)中做后向傳播,這時(shí),定義一個(gè)變量:節(jié)點(diǎn)的“靈敏度”,它是指誤差隨某個(gè)參數(shù)變化率,單元偏差值(bias)參數(shù)為例,根據(jù)求導(dǎo)鏈?zhǔn)椒▌t定義為: (222) 相鄰網(wǎng)絡(luò)層之間的遞推關(guān)系為: ? ??′ ? (223) 我們使用各個(gè)元素一次相乘。然后為了減少數(shù)據(jù)維度,在進(jìn)行特征圖的下采樣得到下一層 S1,此時(shí)數(shù)據(jù)變?yōu)?8 幅 1414 的特征圖;接著按類(lèi)似得到第一層的方式,使用 55 卷積核,并將不同特征圖卷積后累加起來(lái)得到,操作之后得到 20 幅 1010 特征圖,即為 C3 的輸出。 卷積神經(jīng)網(wǎng)絡(luò)在計(jì)算機(jī)視覺(jué)上的應(yīng)用已經(jīng)相當(dāng)廣泛 ,利用卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像進(jìn)行特征提取 并且在場(chǎng)景標(biāo)記 中取得較好的效果;另外也有把這種方式應(yīng)用在機(jī)器人視覺(jué)上的研究 。一般這些目標(biāo)值是由人工標(biāo)記或給出的真值(Ground Truth),也稱(chēng)為樣本標(biāo)簽(label)。每個(gè)“神經(jīng)元”都有自己的激勵(lì)函數(shù),它接受其他節(jié)點(diǎn)傳來(lái)的信號(hào),并將信號(hào)用自己的激勵(lì)函數(shù)處理后傳遞給下一級(jí)。因此,判別函數(shù)變?yōu)椋? (215) 不同的核函數(shù)會(huì)帶來(lái)不同的分類(lèi)效果,但是還沒(méi)有很好的理論方法去指導(dǎo)核函數(shù)的選取,只能通過(guò)實(shí)驗(yàn)的方式選擇合適的核函數(shù)。K 近鄰則是尋找 K 個(gè)最近鄰樣本,然后讓 K 個(gè)樣本進(jìn)行投票決定測(cè)試樣本點(diǎn)所屬類(lèi)別。而局部特征由于在一定程度上對(duì)尺度和旋轉(zhuǎn)的變化具有魯棒性,所以作為描述圖片的特征更有優(yōu)勢(shì)。我們首先介紹了原始SIFT特征匹配算法,分析該模型適用場(chǎng)景和局限,并給出了改進(jìn)算法。這里的關(guān)鍵是把原來(lái)模型中通過(guò)GMM建模的手工特征換成了通過(guò)DNN進(jìn)行更加復(fù)雜的特征學(xué)習(xí)。這主要是因?yàn)槭欠衲軌虼嬖诒磉_(dá)的理論實(shí)際上依賴于具體的問(wèn)題,而面對(duì)具體問(wèn)題的時(shí)候目前唯一能做的事情就是去類(lèi)比現(xiàn)實(shí)存在的智能體(人類(lèi))是如何解決這一問(wèn)題的,并設(shè)計(jì)模型來(lái)將它歸約為學(xué)習(xí)算法。而這個(gè)研究可能還會(huì)牽涉表達(dá)(Representation,見(jiàn)下)的一些理論。泛化誤差大致可以理解成測(cè)試數(shù)據(jù)集誤差和訓(xùn)練數(shù)據(jù)集誤差之差。首先我們介紹優(yōu)化部分。在系統(tǒng)的設(shè)計(jì)和實(shí)現(xiàn)過(guò)程中,工業(yè)界開(kāi)發(fā)應(yīng)用了當(dāng)今國(guó)際上最先進(jìn)的計(jì)算機(jī)視覺(jué)技術(shù),并通過(guò)超百萬(wàn)的大數(shù)據(jù)學(xué)習(xí)樣本進(jìn)行訓(xùn)練,大量實(shí)地?cái)?shù)據(jù)的系統(tǒng)調(diào)整和測(cè)試,還采集了描述車(chē)頭、車(chē)燈、散熱格柵等各個(gè)部分的外形輪廓、相對(duì)位置、顏色、紋理等多種特征,組成了海量的輔助分類(lèi)信息,與廠牌型號(hào)識(shí)別的結(jié)果一起最終通過(guò)可在線學(xué)習(xí)的特征決策模塊,得到綜合可信度評(píng)價(jià),從而得到最終的識(shí)別結(jié)果?;谏鲜龇抡娼Y(jié)果,我們的到了深度學(xué)習(xí)算法適用于車(chē)輛型號(hào)識(shí)別領(lǐng)域的結(jié)論。首先,介紹了車(chē)型識(shí)別的應(yīng)用背景和深度學(xué)習(xí)的基本理論。之后,為了進(jìn)行目標(biāo)識(shí)別,我們介紹了常用算法,分析比較了作為圖像特征提取常見(jiàn)的算法,總結(jié)歸納了他們性能,精度以及相互之間的關(guān)聯(lián)。 關(guān)鍵詞: k 均值聚類(lèi),深度學(xué)習(xí),卷積神經(jīng)網(wǎng)絡(luò),尺度不變特征變換, 支撐向量機(jī) Abstract With the development of intelligent transportation, the recognition of vehicle model is paid more and more attention. It can provide many ergodic for vehicle use and supervision of individual, enterprise and government. Therefore, how to design efficient algorithm
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1