freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)論文設(shè)計_基于快匹配的人群運動估計(更新版)

2025-10-25 19:54上一頁面

下一頁面
  

【正文】 p。 char colorModel[4]。 struct _IplImage* maskROI。 char* imageDataOrigin。 同 CvMat, IplImage 也有配套函數(shù): cvCreateImage, cvReleaseImage 它們格式分別是: cvCreateImage( CvSize size, int depth, int channels )。 2) cv ConvertScale(本程序用的是 cvConvert) 使用線性變換轉(zhuǎn)換數(shù)組 void cvConvertScale( const CvArr* src, CvArr* dst, double scale=1, double shift=0 )。 3) cvCmpS 比較數(shù)組的每個元素與數(shù)量的關(guān)系 void cvCmpS( const CvArr* src, double value, CvArr* dst, int cmp_op )。, 39。) 否則為 0。函數(shù)也可以用來復(fù)制散列數(shù)組(這種情況下不支持 mask)。 double cvGetReal2D( const CvArr* arr, int idx0, int idx1 )。 src 輸入數(shù)組。, 39。 value 用與數(shù)組元素比較的數(shù)量值 dst 輸出數(shù)組必須是 8u 或 8s 類型 . cmp_op 該標(biāo)識指定要檢查的元素之間的關(guān)系: CV_CMP_EQ src1(I) 等于 value CV_CMP_GT src1(I) 大于 value CV_CMP_GE src1(I) 大于等于 value CV_CMP_LT src1(I) 小于 value CV_CMP_LE src1(I) 小于等于 value CV_CMP_NE src1(I) 不等于 value 函數(shù) cvCmpS 比較數(shù)組元素與數(shù)量并且添充目標(biāo)復(fù)蓋面數(shù)組: dst(I)=src(I) op scalar, 這里 op 是 39。該函數(shù)首先對輸入數(shù)組的元素進行比例縮放,然后將 shift 加到比例縮放后得到的各四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運動估計 22 元素上,即: dst(I)=src(I)*scale + (shift,shift,...),最后可選的類型轉(zhuǎn)換將結(jié)果拷貝到輸出數(shù)組。Image)。 width 和 height 這兩個變量很重要,其次是 depth 和 nchannals。 struct _IplTileInfo* tileInfo。 int dataOrder。這個結(jié)構(gòu)最初被定義為 Intel 圖像處理庫 (IPL)的一部分。 int width。 int* i。任何時候需要向量,都只需要一個列矩陣。 /* X 坐標(biāo) , 通常以 0 為基點 */ int y。 OpenCV 目錄下還有一個 IPLMAN 的 PDF 文 件,它是 OpenCV 的早期文檔。但這些算法沒有充分考慮運動矢量概率分布的方向性,因此,在搜索過程中還需要比較多的搜索點數(shù)[17]。另外, DS 搜索時各步驟之間有很強的相關(guān)性,模板移動時只需要在幾個新的檢測點處進行匹配計算,所以也提高了搜索速度。 Step 2:以上一次找到的 MBD 點為中心點,用新的 LDSP 來計算,若 MBD 點位于中心點,則進行 Step 3。 ① 基本思想 :搜索模板的形狀和大小不但影響整個算法的運算速度,而且也影響它的性能。由于該點處于搜索窗的角上,故用圖 26b 的模板進行搜索,結(jié)果為模板中心點 [2, 41。 Step 2:窗口保持 5x5 大小,但搜索模式取決于上一步的 MBD 點位置。 ④ 算法分析 :CSA 的最大搜索點數(shù)為 5+4lbW,搜索速度很快,但是運動補償?shù)男Ч皇翘?。若步長為 1,則進行 Step 3。圖 24 中點 [+4, +4]、 [+6,+4]是第一、第二步的最小塊誤差點。 圖 23 二維對數(shù)法過程 (3)三步搜索法 (TSS,而 Three Step Search) 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運動估計 11 三步搜索法與 TDL 類似,由于其簡單、健壯、性能良好的特點,已被人們所重視。否則,重復(fù) Step 2。 ③ 模板及搜索過程圖示 :如圖 22 所示。 典型的塊匹配算法 在 MPEG24 視頻編碼算法中,運動估計 (ME)的計算量占整個編碼計算量的 2/3 以上 [16]。 (3)歸一化互相關(guān)函數(shù): ( 3) 式中 NCCF 的最大值點為最優(yōu)匹配點。如果當(dāng)前塊的各相鄰塊的運動矢量相等,則以其作為當(dāng)前塊運動矢量的預(yù)測值 。分別求出 當(dāng)前塊與其相鄰塊間的 SAD 值,然后選取 SAD 最小的塊的運動矢量作為預(yù)測值。 初始搜索點的選擇 (1)直接選擇參考幀對應(yīng)塊的中心位置。匹配塊與當(dāng)前塊之間的坐標(biāo)位移就是運動矢量,匹配塊與當(dāng)前塊的對應(yīng)象素點逐個做差就的到差值塊。 在一幅幅復(fù)雜的人群圖像中,如果依靠每個步行者的個體信息來估計人群總體的運動,必須要分離出每個個體的運動。介紹實現(xiàn)該算法的工具 ,并對程序各模塊一一實現(xiàn); 第 5 章:算法的驗證和評價。其中第 2 點通過改進模板的方法來減少搜索點數(shù)更是當(dāng)前的研究熱點,出現(xiàn)了許多算法。在密度估計上主要有Davies, Chow, Marana 等人的方法;在運動估計上主要有 Rourke 等人的方法。這種方法雖然解決了建筑物某個入口處的擁擠問題,但是人群很可能又涌向別的入口造成新的擁擠。 傳統(tǒng)的保障人群安全的途徑主要有 : 人群的密度估計與運動估計 ① 采用物理方法修正建筑物。 它包含許多常用的算法,為圖像處理、模式識別、三維重建、物體跟蹤、機器學(xué)習(xí)和線性代數(shù)提供了各種各樣的算法 [7]。高質(zhì)量的運動估計算法是高效 視頻編碼 的前提和基礎(chǔ)。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運動估計 2 人群監(jiān)控分為人群密度估計和人群運動估計,本文著手解決人群運動估計。 現(xiàn)代社會,伴隨經(jīng)濟的發(fā)展 ,各種高層建筑、地下建筑和大型商 業(yè)娛樂設(shè)施也越來越多 ,同時出入或圍繞這些建筑物的人群也在加大,一旦擁擠人群發(fā)生突發(fā)事件 ,容易造成群死群傷事故,因此必須考慮到人群的安全問題。 本文結(jié)合 OpenCV,采用塊匹配算法對人群的運動進行估計,并在功能實現(xiàn)前對OpenCV 與塊匹配各重要環(huán)節(jié)有具體分析。 隨著經(jīng)濟社會的發(fā)展,各種公共場地和設(shè)施中的人群流動越來越頻繁。如對單個人的檢測、跟蹤、行為識別,對車輛的監(jiān)控,以及人和車輛的交互行為等。 傳統(tǒng)的人群監(jiān)控通過監(jiān)控場景所安裝的閉路電視進行人工監(jiān)控,費時費力且缺乏實時性,不能做到每時每刻監(jiān)控,且比較主觀,不能做定量判斷,起不到預(yù)防的作用且容易發(fā)生漏報現(xiàn)象。 密度估計法提出一種紋理法 分析法 , 它可以在重疊現(xiàn)象嚴(yán)重的視頻中進行較精確的估計 [5], 這里略過。在 標(biāo)準(zhǔn)的搜索算法中,圖像序列的當(dāng)前幀被劃分成互不重疊 1616 大小的子塊 ,而每個子塊又可劃分成更小的子塊,當(dāng)前子塊按一定的塊匹配準(zhǔn)則在參考幀中對應(yīng)位置的一定搜索范圍內(nèi)尋找最佳匹配塊,由此得到運動矢量和匹配誤差。 論文工作構(gòu)思 關(guān)于人群 運動估計,本文用到的方法是塊匹配,工具有 OpenCV 和 vc6,程序用 C 和C++編寫。閉路電視對周圍環(huán)境進行例行地掃描來查找發(fā)生危險的地方,并有專門的工作人員盯著屏幕,以便發(fā)生情況及時通報并采取措施。雖然人群由獨立個體組成,而每一個個體又有他自己的行 為模式,但作為總體的人群有它整體性的特征,且可被描述出來。 Marana的方法雖然可以解決高密度人群的估計問題,但計算量較 大,處理時間較長,而且該方法沒有考慮攝像機透視效應(yīng)問題。而本程序在人群運動估計這一方面運用了一種全新的處理方 法,即利用 OpenCV 完成塊匹配法運動估計,其真正達到了高性能高密度。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運動估計 6 2 塊匹配算法介紹及分析 本章主要介紹塊匹配算法的各個模塊,及各模塊所用到的算法。這種方法由于實現(xiàn)較簡單且容易而受到廣泛關(guān)注。運動估計算法的整體效率主要體現(xiàn)在初始搜索點的選擇、匹配準(zhǔn)則和運動搜索策略三個方面。 (2)選擇預(yù)測的起點。 方法 2:利用相鄰塊和相鄰幀對應(yīng)塊的運動矢量來預(yù)測當(dāng)前塊的搜索起點。 四川大學(xué)本科畢業(yè)論文 基于塊匹配的人群運動估計 8 運動估計的復(fù)雜度主要取決于匹配計算量和所采用的搜索算法這兩個方面 [14]。有關(guān)搜索策略的研究主要是解決運動估計中存在的計算復(fù)雜度和搜索精度這一矛盾。下面介紹幾種常用的經(jīng)典算法。 ① 基本思想 :二維對數(shù)搜索法是由原點開始,以 ―十 ‖字形分布的五個點構(gòu)成每次搜索的點群,通過快速搜索跟蹤加 MBD 點。若發(fā)現(xiàn)新的 ―十 ‖字形點群的中心點位于搜索區(qū)域的邊緣,則步長也減半。 . ② 算法描述 : Step 1:從原點開始,選取最大搜索長度的一半為步長,在中心點及周圍 8 個點處進行塊匹配計算并比較。最大搜索點數(shù)為 1+8blW,當(dāng)搜索范圍大于 7 時,僅用三步是不夠的,搜索步數(shù)的一般表達式為 lb(dmax+1). (4)交叉法 (CSA, Cross Search Algorithm) 1990 年, Chanbari 提出了交叉搜索算法,它也是在 TDL 和 TSS 基礎(chǔ)上為進一步減小計算量而發(fā)展起來的快速搜索法。若上一步 MBD 點處于左上角或右下角,則做 ―‖字形搜索。和 WingChung Ma 提出的,該算法類似三步法,但它基于現(xiàn)實中序列圖像的一個特征,即運動矢量大多都是中心分布的,從而在 55 大小的搜索窗口上構(gòu)造了有 9 個檢測點的搜索模板。 若上一步 MBD 點在窗口中心,則跳到 Step 4,否則,進行 Step 3。 圖 27 四步搜索法搜索模板 ④ 算法分析 :FSS 是快速搜索算法的又一次進步,它在搜索速度上不一定快于 TSS, 搜索范圍為 177。而搜索窗口太大,又容易產(chǎn)生錯誤的搜索路徑。 ③ 搜索過程圖示 :圖 29 顯示了一個用 DS 算法搜索到運動矢量 (一 4,一 2)的例子。為了解決上述問題,人們提出了利用現(xiàn)實圖像序列運動矢量空間分布中心偏置特性的算法,如四步搜索法 (4SS)、新三步搜索法 (N3SS)。 塊匹配準(zhǔn)則為最小絕對值差的和 ③ 在尺寸和步長的選擇上,應(yīng)和實際應(yīng)用場景及目的有關(guān),總體上應(yīng)當(dāng)保證每一個 子塊都只具有單一運動或者沒有運動,并且子塊尺寸不能過小,步長不宜過長。 下面介紹程序中用 到的各種重要函數(shù)與數(shù)據(jù)結(jié)構(gòu)。前者同樣有兩個成員 x,y,但他們是浮點類型;后者多一個浮點類型的成員 z。 CvMat 數(shù)據(jù)結(jié)構(gòu)的定義 : typedef struct CvMat { int type。 } data。 /* 行數(shù) */ int cols。 int nChannels。 int width。 int widthStep。 表 32: OpenCV 圖像 深度 類型 宏 圖像像素類型 IPL_DEPTH_8U 無符號 8 位整數(shù) (8u) IPL_DEPTH_8S 有符號 8 位整數(shù) (8s) IPL_DEPTH_16S 有符號 16 位整數(shù) (16s) IPL_DEPTH_32S 有符號 32 位整數(shù) (32s) IPL_DEPTH_32F 32 位浮點數(shù)單精度 (32f) IPL_DEPTH_64F 64 位浮點數(shù)雙精度 (64f) 通道數(shù) nChannels 可取的值是 1, 2, 3 或 4。 void cvSet(CvArr*arr,CvScalar value,const CvArr*mask=NULL)。也就是如果縮放 +轉(zhuǎn)換后的結(jié)果值不能用輸出數(shù)組元素類型值精確表達,就設(shè)置成在輸出數(shù)組數(shù)據(jù)軸上最接近該數(shù)的值。39。!=39。 函數(shù) cvCopy 從輸入數(shù)組中復(fù)制選定的成分到輸出數(shù)組: 如果 mask(I)!=0,則 dst(I)=src(I)。 arr 輸入數(shù)組,必須是單通道 . idx0 元素下標(biāo)
點擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1