freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)論文_基于快匹配的人群運(yùn)動(dòng)估計(jì)-預(yù)覽頁(yè)

 

【正文】 著經(jīng)濟(jì)社會(huì)的發(fā)展,各種公共場(chǎng)地和設(shè)施中的人群流動(dòng) 越來(lái)越頻繁。它們能夠直接或間接地提高上述場(chǎng)合工作人員的工作效率和建筑設(shè)施的利用率,因此對(duì)人群密度估計(jì)和運(yùn)動(dòng)估計(jì)方法的研究有著深遠(yuǎn)的意義和廣闊的前景。如對(duì)單個(gè)人的檢測(cè)、跟蹤、行為識(shí)別,對(duì)車(chē)輛的監(jiān)控,以及人和車(chē)輛的交互行為等。隨著人口的增加,人群活動(dòng)日益增加,相對(duì)應(yīng)地,人群安全問(wèn)題也越來(lái)越突出,對(duì)人群的分析研究分別在社會(huì)學(xué)、心理學(xué)、建筑學(xué)、計(jì)算機(jī)等各個(gè)學(xué)科受到了極大的關(guān)注。 傳統(tǒng)的人群監(jiān)控通過(guò)監(jiān)控場(chǎng)景所安裝的閉路電視進(jìn)行人工監(jiān)控,費(fèi)時(shí)費(fèi)力且缺乏實(shí)時(shí)性,不能做到每時(shí)每刻監(jiān)控,且比較主觀,不能做定量判斷,起不到預(yù)防的作用且容易發(fā)生漏報(bào)現(xiàn)象。自智能化人群監(jiān)控技術(shù)提出以后 ,人們對(duì)其進(jìn)行了廣泛研究 ,目前已有許多算法 ,一些實(shí)用的系統(tǒng)也開(kāi)始應(yīng)用在廣場(chǎng)、車(chē)站等場(chǎng)合的人流監(jiān)控中。 密度估計(jì)法提出一種紋理法 分析法 , 它可以在重疊現(xiàn)象嚴(yán)重的視頻中進(jìn)行較精確的估計(jì) [5], 這里略過(guò)。 運(yùn)動(dòng)估計(jì)算法是視頻壓縮編碼的核心算法之一。在 標(biāo)準(zhǔn)的搜索算法中,圖像序列的當(dāng)前幀被劃分成互不重疊 1616 大小的子塊 ,而每個(gè)子塊又可劃分成更小的子塊,當(dāng)前子塊按一定的塊匹配準(zhǔn)則在參考幀中對(duì)應(yīng)位置的一定搜索范圍內(nèi)尋找最佳匹配塊,由此得到運(yùn)動(dòng)矢量和匹配誤差。 OpenCV 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn)動(dòng)估計(jì) 3 計(jì)算機(jī)視覺(jué)是在圖像處理的基礎(chǔ)上發(fā)展起來(lái)的新興學(xué)科, OpenCV(Open Source Computer Vision Library,開(kāi)源計(jì)算機(jī)視覺(jué)庫(kù) ) 是一種數(shù)字圖像處理和計(jì)算機(jī)視覺(jué)的函數(shù)庫(kù), 它是一個(gè)跨平臺(tái)的開(kāi)源計(jì)算機(jī)視覺(jué)庫(kù), 最初 由 Intel公司微處理器實(shí)驗(yàn)室 (Intel’S Microprocessor Research Lab)的視覺(jué)交互組 (The Visual Interactivity Group)開(kāi)發(fā) [6],是 Intel資助 的兩大圖像處理利器之一,以 BSD 許可證授權(quán)發(fā)行,可免費(fèi)用于商業(yè)和研究領(lǐng)域, 它可以在 Windows 系統(tǒng)、 Linux 系統(tǒng)、Mac0Sx 系統(tǒng)等操作平臺(tái)上使用,也可以和其他編程工具結(jié)合,以滿(mǎn)足不同的使用要求。 論文工作構(gòu)思 關(guān)于人群 運(yùn)動(dòng)估計(jì),本文用到的方法是塊匹配,工具有 OpenCV 和 vc6,程序用 C 和C++編寫(xiě)。本文的研究對(duì)象是運(yùn)動(dòng)群體 (這里的群體特指人群 ),研究?jī)?nèi)容是運(yùn)動(dòng)人群的運(yùn)動(dòng)估計(jì)。閉路電視對(duì)周?chē)h(huán)境進(jìn)行例行地掃描來(lái)查找發(fā)生危險(xiǎn)的地方,并有專(zhuān)門(mén)的工作人員盯著屏幕,以便發(fā)生情況及時(shí)通報(bào)并采取措施。 當(dāng)人群己經(jīng)發(fā)生擁塞時(shí),一般采取的方法是 :關(guān)閉人群正在大量涌入的入口。雖然人群由獨(dú)立個(gè)體組成,而每一個(gè)個(gè)體又有他自己的行 為模式,但作為總體的人群有它整體性的特征,且可被描述出來(lái)。二十世紀(jì)以來(lái),人群人群密度和運(yùn)動(dòng)估計(jì)的自動(dòng)方法逐漸發(fā)展起來(lái)。 Marana的方法雖然可以解決高密度人群的估計(jì)問(wèn)題,但計(jì)算量較 大,處理時(shí)間較長(zhǎng),而且該方法沒(méi)有考慮攝像機(jī)透視效應(yīng)問(wèn)題。目前, 其研究主要集中在: 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn)動(dòng)估計(jì) 5 1)利用不同幀相同位置塊和相同幀內(nèi)相鄰塊運(yùn)動(dòng)矢量的相關(guān)性,從同幀中左上、上、左等塊的運(yùn)動(dòng)矢量及前一幀或前幾幀相同位置塊的運(yùn)動(dòng)矢量中挑選出當(dāng)前塊運(yùn)動(dòng)矢量的最優(yōu)初始值 然后再按照某一種算法進(jìn)行搜索; 2)不斷改進(jìn)運(yùn)動(dòng)估計(jì)匹配模板的形狀和大小,旨在減少搜索點(diǎn)數(shù),從而減少搜索時(shí)間,提高編碼速度; 3)通過(guò)數(shù)學(xué)不等式來(lái)改進(jìn)目標(biāo)函數(shù),通過(guò)判斷提前結(jié)束搜索,達(dá)到節(jié)約運(yùn)算量和運(yùn)算時(shí)間的目的。而本程序在人群運(yùn)動(dòng)估計(jì)這一方面運(yùn)用了一種全新的處理方 法,即利用 OpenCV 完成塊匹配法運(yùn)動(dòng)估計(jì),其真正達(dá)到了高性能高密度。說(shuō)明運(yùn)動(dòng)估計(jì)視頻處理的各個(gè)步驟所需處理,并分析處理所需算法,介紹背景建模; 第 4 章:算法的實(shí)現(xiàn)。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn) 動(dòng)估計(jì) 6 2 塊匹配算法介紹及分析 本章主要介紹塊匹配算法的各個(gè)模塊,及各模塊所用到的算法。目前這種方法被廣泛用于視頻標(biāo)準(zhǔn)變換運(yùn)動(dòng)補(bǔ)償濾波和采用基于塊的運(yùn)動(dòng)補(bǔ)償進(jìn)行的數(shù)字視頻壓縮 [11~12] 。這種方法由于實(shí)現(xiàn)較簡(jiǎn)單且容易而受到廣泛關(guān)注。如果塊足夠小,那么這種模型是相當(dāng)合理的。運(yùn)動(dòng)估計(jì)算法的整體效率主要體現(xiàn)在初始搜索點(diǎn)的選擇、匹配準(zhǔn)則和運(yùn)動(dòng)搜索策略三個(gè)方面。通常是通過(guò)研究初始搜索點(diǎn)的選擇、匹配準(zhǔn)則和運(yùn)動(dòng)搜索策略等來(lái)提高算法效率的 [13]。 (2)選擇預(yù)測(cè)的起點(diǎn)。 方法 1:基于 SAD(the Sum of Absolute Differences)值的起點(diǎn)預(yù)測(cè)方法。 方法 2:利用相鄰塊和相鄰幀對(duì)應(yīng)塊的運(yùn)動(dòng)矢量來(lái)預(yù)測(cè)當(dāng)前塊的搜索起點(diǎn)。 方法 3:基于 相鄰運(yùn)動(dòng)矢量相等的起點(diǎn)預(yù)測(cè)方法。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn) 動(dòng)估計(jì) 8 運(yùn)動(dòng)估計(jì)的復(fù)雜度主要取決于匹配計(jì)算量和所采用的搜索算法這兩個(gè)方面 [14]。 (2)最小均方誤差 : ( 2) 能夠使 MSE 值最小的點(diǎn)為最優(yōu)匹配點(diǎn)。有關(guān)搜索策略的研究主要是解決運(yùn)動(dòng)估計(jì)中存在的計(jì)算復(fù)雜度和搜索精度這一矛盾。這以后的許多搜多策略都是為了平衡搜索精度與計(jì)算速度而產(chǎn)生的。下面介紹幾種常用的經(jīng)典算法。 StPe2:在所有的 SAD 中找到最小塊誤差 (MBD)點(diǎn) (即 SAD 最小值的點(diǎn) ),該點(diǎn)所在位置即對(duì)應(yīng)的最佳運(yùn)動(dòng)矢量。 ① 基本思想 :二維對(duì)數(shù)搜索法是由原點(diǎn)開(kāi)始,以 ―十 ‖字形分布的五個(gè)點(diǎn)構(gòu)成每次搜索的點(diǎn)群,通過(guò)快速搜索跟蹤加 MBD 點(diǎn)。 Step 3::若步長(zhǎng)為 1,在中心及周?chē)?8 個(gè)點(diǎn)處找出 MBD 點(diǎn),該點(diǎn)所在位置即對(duì)應(yīng)最佳運(yùn)動(dòng)矢量,算法結(jié)束 。若發(fā)現(xiàn)新的 ―十 ‖字形點(diǎn)群的中心點(diǎn)位于搜索區(qū)域的邊緣,則步長(zhǎng)也減半。不能保證找到全局最優(yōu)點(diǎn)也正是大部分快速搜索算法的缺點(diǎn)。 . ② 算法描述 : Step 1:從原點(diǎn)開(kāi)始,選取最大搜索長(zhǎng)度的一半為步長(zhǎng),在中心點(diǎn)及周?chē)?8 個(gè)點(diǎn)處進(jìn)行塊匹配計(jì)算并比較。 ③ 搜索過(guò)程圖示 :一個(gè)可能的搜索過(guò)程如圖 24 所示。最大搜索點(diǎn)數(shù)為 1+8blW,當(dāng)搜索范圍大于 7 時(shí),僅用三步是不夠的,搜索步數(shù)的一般表達(dá)式為 lb(dmax+1). (4)交叉法 (CSA, Cross Search Algorithm) 1990 年, Chanbari 提出了交叉搜索算法,它也是在 TDL 和 TSS 基礎(chǔ)上為進(jìn)一步減小計(jì)算量而發(fā)展起來(lái)的快速搜索法。若步長(zhǎng)大于 1,則重復(fù) Step 2。若上一步 MBD 點(diǎn)處于左上角或右下角,則做 ―‖字形搜索。第三步箭頭說(shuō)明了兩種不同的搜索模式。和 WingChung Ma 提出的,該算法類(lèi)似三步法,但它基于現(xiàn)實(shí)中序列圖像的一個(gè)特征,即運(yùn)動(dòng)矢量大多都是中心分布的,從而在 55 大小的搜索窗口上構(gòu)造了有 9 個(gè)檢測(cè)點(diǎn)的搜索模板。否則進(jìn)行 Step2。 若上一步 MBD 點(diǎn)在窗口中心,則跳到 Step 4,否則,進(jìn)行 Step 3。首先搜索點(diǎn) [0, 2],由于該點(diǎn)處于邊的中心點(diǎn)處,故采用圖 26c 的模板進(jìn)行搜索,結(jié)果為 [2, 4]。 圖 27 四步搜索法搜索模板 ④ 算法分析 :FSS 是快速搜索算法的又一次進(jìn)步,它在搜索速度上不一定快于 TSS, 搜索范圍為 177。 1999 年 10 月, DS 算法被 MPEG4 國(guó)際標(biāo)準(zhǔn)采用并收入驗(yàn)證模型。而搜索窗口太大,又容易產(chǎn)生錯(cuò)誤的搜索路徑。否則,到 Step 2。 ③ 搜索過(guò)程圖示 :圖 29 顯示了一個(gè)用 DS 算法搜索到運(yùn)動(dòng)矢量 (一 4,一 2)的例子。當(dāng)粗定位結(jié)束后,可以認(rèn)為最優(yōu)點(diǎn)就在 LDSP 周?chē)?8 個(gè)點(diǎn)所圍的菱形區(qū)域內(nèi),這時(shí)再用 SDSP 來(lái)準(zhǔn)確定位,使搜索不至于有大的起伏,所以它的性能優(yōu)于其它算法。為了解決上述問(wèn)題,人們提出了利用現(xiàn)實(shí)圖像序列運(yùn)動(dòng)矢量空間分布中心偏置特性的算法,如四步搜索法 (4SS)、新三步搜索法 (N3SS)。為此,近來(lái)出現(xiàn)了十字 —菱形搜索 (CDS)算法、十字 —菱形 —六邊形搜索 (CDHS)算法等。 塊匹配準(zhǔn)則為最小絕對(duì)值差的和 ③ 在尺寸和步長(zhǎng)的選擇上,應(yīng)和實(shí)際應(yīng)用場(chǎng)景及目的有關(guān),總體上應(yīng)當(dāng)保證每一個(gè) 子塊都只具有單一運(yùn)動(dòng)或者沒(méi)有運(yùn)動(dòng),并且子塊尺寸不能過(guò)小,步長(zhǎng)不宜過(guò)長(zhǎng)。 在這些庫(kù)函數(shù)的支持下,用戶(hù)可以直接調(diào)用濾波函數(shù),形態(tài)學(xué)處理,圖像特征提取,輪廓提取算法和跟蹤算法,也可以添加自己編寫(xiě)的子函數(shù),不但能完成復(fù)雜的開(kāi)發(fā)任務(wù),還可以提高效率,達(dá)到事半功倍的效果。 下面介紹程序中用 到的各種重要函數(shù)與數(shù)據(jù)結(jié)構(gòu)。 CvPoint 是一個(gè)簡(jiǎn)單的機(jī)構(gòu)體,定義如下: CvPoint 二維坐標(biāo)系下的點(diǎn),類(lèi)型為整型 typedef struct CvPoint { int x。前者同樣有兩個(gè)成員 x,y,但他們是浮點(diǎn)類(lèi)型;后者多一個(gè)浮點(diǎn)類(lèi)型的成員 z。實(shí)際上, IplImage 是 CvMat 的派生,而 CvMat 由 CvArr 派生: 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn) 動(dòng)估計(jì) 18 圖 31 CvArr, CvMat, IplImage 的關(guān)系圖 在 OpenCV 中沒(méi)有向量結(jié)構(gòu)。 CvMat 數(shù)據(jù)結(jié)構(gòu)的定義 : typedef struct CvMat { int type。/* 矩陣頭,指向矩陣第 0 行第 0 個(gè)元素 */ short* s。 } data。 union 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn)動(dòng)估計(jì) 19 { int cols。 /* 行數(shù) */ int cols。CvMat) IplImage 從本質(zhì)上講,它是一個(gè) CvMat 對(duì)象,但它還有其他一些成員變量將矩陣解釋為圖像。 int nChannels。 char channelSeq[4]。 int width。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn) 動(dòng)估計(jì) 20 void* imageId。 int widthStep。 } IplImage。 表 32: OpenCV 圖像 深度 類(lèi)型 宏 圖像像素類(lèi)型 IPL_DEPTH_8U 無(wú)符號(hào) 8 位整數(shù) (8u) IPL_DEPTH_8S 有符號(hào) 8 位整數(shù) (8s) IPL_DEPTH_16S 有符號(hào) 16 位整數(shù) (16s) IPL_DEPTH_32S 有符號(hào) 32 位整數(shù) (32s) IPL_DEPTH_32F 32 位浮點(diǎn)數(shù)單精度 (32f) IPL_DEPTH_64F 64 位浮點(diǎn)數(shù)雙精度 (64f) 通道數(shù) nChannels 可取的值是 1, 2, 3 或 4。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運(yùn)動(dòng)估計(jì) 21 cvReleaseImage(amp。 void cvSet(CvArr*arr,CvScalar value,const CvArr*mask=NULL)。 define cvCvtScale cvConvertScale define cvScale cvConvertScale define cvConvert( src, dst ) cvConvertScale( (src), (dst), 1, 0 ) src 輸入數(shù)組 . dst 輸出數(shù)組 scale 比例因子 . shift 該加數(shù)被加到輸入數(shù)組元素按比例縮放后得到的元素上 函數(shù) cvConvertScale 有多個(gè)不同的目的因此就有多個(gè)同義函數(shù)(如上面的 define 所示)。也就是如果縮放 +轉(zhuǎn)換后的結(jié)果值不能用輸出數(shù)組元素類(lèi)型值精確表達(dá),就設(shè)置成在輸出數(shù)組數(shù)據(jù)軸上最接近該數(shù)的值。 src 原數(shù) ,必須有一個(gè)單通道。39。39。!=39。所有的數(shù)組必須有相同的大?。ɑ?ROI 大?。? 4) cvCopy 拷貝一個(gè)數(shù)組給另一個(gè)數(shù)組 void cvCopy( const CvArr* src, CvArr* dst, const CvArr* mask=NULL )。 函數(shù) cvCopy 從輸入數(shù)組中復(fù)制選定的成分到輸出數(shù)組: 如果 mask(I)!=0,則 dst(I)=src(I)。 5) GetReal*D(本程序用的是 cvGetReal2D) 返回單通道數(shù)組的指定元素 double cvGetReal1D( const CvArr* arr, int idx0
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1