【正文】
幀數(shù)目 該調(diào)制方案為在 IID 中描述過(guò)的在目標(biāo)運(yùn)動(dòng)相對(duì)較慢時(shí)跳幀。圖 .6 顯示了工人序列和游魚(yú)序列中的跳幀和。該調(diào)制方案?jìng)蓽y(cè)到高速運(yùn)動(dòng),并放緩運(yùn)動(dòng)估計(jì)。如圖所示,工人序列的眾多對(duì)象中有高速運(yùn)動(dòng)。再次出現(xiàn)的魚(yú)尾與魚(yú)的軀干部分顏色不相似,所以基于顏色相似的區(qū)域融合的算法會(huì)失效。該算法同樣被用在實(shí)時(shí)視頻。另一人阻擋了被跟蹤目 標(biāo)的一部分然后走開(kāi)。然而,當(dāng)跟蹤非剛性物體時(shí),遮擋 /遮擋恢復(fù)檢測(cè)算法包含 /拋棄靠近目標(biāo)邊界的像素。 D. 算法比較 圖 10 跟蹤經(jīng)方格處理過(guò)的目標(biāo) 北京理工大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) 國(guó)外文獻(xiàn)翻譯 12 圖 .11 依據(jù)特征區(qū)域跟蹤目標(biāo) 圖 .12 手動(dòng)初始化跟蹤目標(biāo) 圖 .13 自動(dòng)初始化跟蹤目標(biāo)(雙手都被跟蹤) 以下序列顯示了本文提出的算法與基于雙區(qū)域的方法相比較得出的目標(biāo)提取效果。比較下面兩種方法。 2 )基于區(qū)域的的數(shù)學(xué)形態(tài)學(xué)視頻編碼 [ 12 ] ,[ 13 ] 。 圖 .10和圖 .11 顯示的算法應(yīng)用的結(jié)果用于比較。避免向前運(yùn)動(dòng)加快了算法,但提取的質(zhì)量受到影 響。在目標(biāo)跟蹤的像素準(zhǔn)確度要求不十分嚴(yán)格的情況下,跟蹤算法主要是被設(shè)計(jì)應(yīng)用在基于對(duì)象的視頻編碼。 下表(表一)列出了所涉及的各種算法的運(yùn)算時(shí)間。因此,純粹的時(shí)間并不能表明很大的意義。如果提出前向運(yùn)動(dòng)只保留后向運(yùn)動(dòng),速度可以達(dá)到兩倍。 E. 自動(dòng) /手動(dòng)初始化的結(jié)果 在隨后的視頻序列(圖 12 和 13 ) ,我們比較自動(dòng)和手動(dòng)初始化得出的追蹤結(jié)果。如果背景是變化的就必須應(yīng)用一種更加精確的初始化方式。自動(dòng)初始化中,我們也用了一個(gè)膚色模型結(jié)合第二節(jié)所提到的算法。自動(dòng)初始化讓我們對(duì)兩只手同時(shí)跟蹤。但在其它很多視頻中,利用第二節(jié)中所提到的瑣碎的初始化算法效果并 不好。用塊運(yùn)動(dòng)矢量進(jìn)行目標(biāo)跟蹤很少被應(yīng)用。目標(biāo)是要發(fā)展一種算法用以提取物視頻對(duì)象,其精度接近于基于區(qū)域的方法,并且能夠高效地運(yùn)算。提出一個(gè)高效的用以檢測(cè)遮擋的算法并運(yùn)用二元性原理將之修改,發(fā)展成為一個(gè)檢測(cè)遮擋修復(fù)的算法。跟蹤算法可以用前向的方式被拓展成為能夠跟蹤多個(gè)目標(biāo)。這種方法可以結(jié)合蛇形浮動(dòng)來(lái)跟蹤目標(biāo)輪廓。這種做法類(lèi)似于以卡爾曼濾波為基礎(chǔ)的辦法。運(yùn)動(dòng)估計(jì)依靠顯著不同特性的和而不考慮高斯噪聲會(huì)使運(yùn)動(dòng)向量有偏差從而導(dǎo)致跟蹤效果的降低。 REFERENCES [1] Y. Altunbasak and A. M. Tekalp, “遮擋 adaptive, contentbased mesh design and forward tracking,” IEEE Trans. Image Process., vol. 6, no. 9, pp. 1270–1280, Sep. 1997. [2] A. A. Amini, T. , and R. C. Jain, “Using dynamic programming for solving variational problems in vision,” IEEE Trans. Pattern Anal. Mach. Intell., vol. 12, no. 9, pp. 855–867, Sep. 1990. [3] M. J. Black and A. Jepson, “Eigentracking: robust matching and tracking of articulated objects using a viewbased representation,” Int. J. Comput. Vis., vol. 26, no. 1, pp. 63–84, 1998. [4] B. Everitt, Cluster Analysis, 3rd ed. London, .: Hodder, 1993. [5] Y. Fu, T. Erdem, and A. M. Tekalp, “Tracking visible boundary of objects using 遮擋 adaptive motion snake,” IEEE Trans. Image Process., vol. 9, no. 12, pp. 2051–2060, Dec. 2020. [6] D. GaticaPerez, C. Gu, and M. T. Sun, “Semantic video object extraction using fourband watershed and partition lattice operators,” IEEE Trans. Circuits Syst. Video Technol., vol. 11, pp. 603–618, May 2020. [7] , “Multiviewextensive partition operators for semantic video object extraction,” IEEE Trans. Circuits Syst. Video Technol., vol. 11, no. 7, pp. 788–801, Jul. 2020. [8] B. K. P. Horn and B. G. Schunck, “Determining optical flow,” Artif. Intell., vol. 17, pp. 185–203, 1981. [9] . Huang and . Hsu, “A new motion pensation method for image sequence coding using hierarchical grid interpolation,” IEEE Trans. Circuits Syst. Video Technol., vol. 4, p. 4251, Feb. 1994. 北京理工大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) 國(guó)外文獻(xiàn)翻譯 15 [10] M. Kass, A. Witkin, and D. Terzopoulos, “Snakes: active contour models,” Int. J. Comput. Vis., vol. 1, pp. 321–331, 1987. [11] N. Peterfreund, “The velocity snake,” Proc. IEEE Nonrigid Articulated Motion, pp. 70–79, 1997. [12] P. Salembier and M. Pardas, “Hierarchical morphological segmentation for image sequen