freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

稀疏表示目標關聯(lián)(編輯修改稿)

2025-07-27 23:57 本頁面
 

【文章內(nèi)容簡介】 del),目標在不同攝像機中的表現(xiàn)模型之間的轉(zhuǎn)移模型(Transfer Model)的估計,以及表現(xiàn)模型相似度的估計等研究內(nèi)容。表現(xiàn)模型是指利用目標物體在不同攝像機前出現(xiàn)時表現(xiàn)出的特征所建立的模型。這些特征主要包括顏色特征、點特征、線特征、區(qū)域特征、幾何特征、模型特征等等。在已有的研究成果中,研究者往往選取這些特征中的一種或幾種聯(lián)合建立表現(xiàn)模型來參與關聯(lián)。在特征提取的過程中,某些特征需要先對攝像機進行標定,例如:點特征、幾何特征[22];然而,考慮到隨著攝像機數(shù)量的急劇增加,對每個攝像機都進行標定和對應變得愈發(fā)困難,所以現(xiàn)有的研究工作大都采用不事先標定攝像機的方法進行特征抽取與關聯(lián)。另外,為了彌補不同檢測視頻中同一目標的表現(xiàn)模型之間的變化差異,轉(zhuǎn)移模型的估計就顯得非常重要。而且,在衡量表現(xiàn)模型之間相似度的過程中,針對不同表現(xiàn)模型的相似度度量方法也同時被提出。 基于線特征的方法由于剛體目標的線特征比較容易抽取,而且對光照、時間、地點等環(huán)境變化不敏感,因此,線特征在車輛目標關聯(lián)方面得到了較多使用。Shan[2325]和Guo[2629]等人的研究組近幾年一直在研究高速公路環(huán)境中多攝像機監(jiān)控下的車輛關聯(lián)和跟蹤問題。他們針對車輛的剛體特征采用了以線特征為基礎,其它特征為輔助的表現(xiàn)模型建構方法。文獻[23, 25]提出了一個非監(jiān)督學習的方法來提取視頻中車輛的線特征,然后基于線特征來關聯(lián)車輛,這個方法在兩個視頻中車輛的形狀差別很小的情況下取得了不錯的效果。同樣基于線特征,文獻[24]不直接對車輛的表現(xiàn)模型進行關聯(lián),而是首先對不同的攝像機建立各自的關于觀測目標的內(nèi)嵌原型(Embedding Prototype), 然后通過內(nèi)嵌原型間接地進行關聯(lián),這樣做在某種程度上提高了算法對目標形狀和姿態(tài)變化的魯棒性。文獻[2628]在基于線特征的方法基礎上,首次融合點特征、區(qū)域特征等特征共同建立表現(xiàn)模型對車輛進行關聯(lián)。由于多種特征的融合關聯(lián),這使得她們的算法可以在小于30 度的姿態(tài)變化條件下取得大于90%的關聯(lián)準確率。在[24]的研究基礎上,文獻[29]把原型內(nèi)嵌和內(nèi)嵌轉(zhuǎn)移相結(jié)合,提出了更加適應目標姿態(tài)、光照條件和分辨率等大幅度變化的關聯(lián)算法。 基于顏色特征的方法顏色特征由于具有很好的區(qū)分性,因此成為眾多特征中被研究最多的一種。Cheng[3032]和Madden[33, 34]等人研究室內(nèi)監(jiān)控環(huán)境下行人的關聯(lián)跟蹤。他們通過在線k 均值聚類的方法建立了一種最大顏色光譜直方圖表示模型(MCSHR)來構建表現(xiàn)模型,并給出了針對這種模型的相似度估計算法;而且,他們還進一步利用相鄰的35 幀圖像建立累積的最大顏色光譜直方圖表示模型(IMCSHR)來克服短期內(nèi)目標的小幅度姿態(tài)變化。除此之外,在文獻[33]中,他們還嘗試采用監(jiān)控視頻中人的身高作為關聯(lián)的特征要素,并給出了身高的估計算法。在利用顏色特征方面,還有許多研究者做出了有意義的工作。例如:Orwell 等人[34]采用兩種方法對目標的顏色直方圖進行建模,一種是混合高斯參數(shù)化和交叉熵距離測量相結(jié)合的方法,另一種則是最大熵編碼和χ 2 距離測量相結(jié)合的方法,實驗表明這兩種方法都具有不錯的效果。Bowden[35]和Gilbert[36, 37]等人先把目標的顏色直方圖進行芒賽爾顏色空間的一致顏色轉(zhuǎn)換(CCCM),然后進行關聯(lián),這種方法對于低解析度目標的關聯(lián)體現(xiàn)了很好的效果;其中,文獻[19]還利用對顏色直方圖轉(zhuǎn)移矩陣的估計來提高關聯(lián)的準確性。Park 等人[38]把目標行人的前景圖像從上到下分為三部分,用下兩部分顏色的色調(diào)作為主要顏色特征,再結(jié)合目標身高等特征來參與關聯(lián)計算。在處理不同攝像機之間的顏色變化的問題上,Porikli 和Divakaran[39, 40]提出了基于顏色直方圖的非參數(shù)非線性顏色轉(zhuǎn)移函數(shù)模型和相關的距離度量,并給出了簡化算法。 Javed 等人[4142]也針對目標的顏色直方圖建立了不同視頻之間的亮度轉(zhuǎn)移函數(shù)(BTF),他們的函數(shù)包含光照、場景幾何,以及攝像機的焦距、光圈和曝光時間等參數(shù)。他們還證明了這些參數(shù)可以用低維空間參數(shù)來表示,并使用概率主成分分析(PPCA)的方法實現(xiàn)了降維計算。同樣是估計顏色轉(zhuǎn)移函數(shù),Jeong 和Jaynes[43]卻采用目標的色度而不是亮度,他們的算法體現(xiàn)了更好的關聯(lián)性能。4 無重疊視域多目標關聯(lián)技術的未來發(fā)展方向多目標關聯(lián)技術是計算機科學、機器視覺、圖像處理、人工智能、模式識別等多學科的結(jié)合,是一個尚在發(fā)展中的研究方向,還有很多技術難點有待解決。通過對多目標關聯(lián)的難點及其相關方法的分析,多目標關聯(lián)技術研究未來的發(fā)展方向為:一、結(jié)合模式識別和機器學習相關算法提高決策準確率;二、研究更為準確的目標表現(xiàn)模型。5 結(jié)束語本文對無重疊視域多目標關聯(lián)相關的問題和技術進行了綜述。目前,無重疊視域多多目標關聯(lián)算法的一般流程是:基于運動特征、差分法或分類器檢測出目標,然后對目標進行單攝像頭跟蹤,在跟蹤過程中提取出較好的目標特征,最后在多攝像頭間進行相同目標的關聯(lián)。國內(nèi)外眾多研究者綜合運用各學科知識,大膽嘗試,無重疊視域多目標關聯(lián)算法具有廣闊的研究前景。6參考文獻[1] TAN Jiyuan, WU Chengdong, ZHOU Yun,HOU Jun,WANG Qiaoqiao,Research of abnormal target algorithm in intelligent surveillance system, Mechanical amp。 Electrical Engineering Magazine,vol. 26, , March 2009.[2] Valera M,Velastin .Intelligent distributed surveillance systems [J].IEE Proc.Vision Image Signal Process,2005,152 (2):192204[3] C. Stauffer and W. Grimson. Learning patterns of activity using realtime tracking. IEEE Transactions on Pattern Ana
點擊復制文檔內(nèi)容
黨政相關相關推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1