freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

目標(biāo)檢測與跟蹤技術(shù)研究及實現(xiàn)畢業(yè)論文-文庫吧資料

2025-06-28 16:10本頁面
  

【正文】 i] = 255。 frame2[j*frameWidth+i]=abs(frame4[j*frameWidth+ i] frame2[j * frameWidth + i])。 i frameWidth。 j frameHeight。}/*process函數(shù) 說明:差分相乘法檢測目標(biāo)*/void ChafenMul::process(){ int * mul = new int[frameWidth * frameHeight]。 readyCount ++。 if(readyCount == 2) memcpy(frame3,buffer,width * height * sizeof(unsigned char))。}/*PrepareData函數(shù) 說明:輸入幀圖像數(shù)據(jù),并分別將幀圖像數(shù)據(jù)拷貝至緩存中*/void ChafenMul::PrepareData(unsigned char *buffer,int width,int height){ if(readyCount == 0) memcpy(frame1,buffer,width * height * sizeof(unsigned char))。 if(frame3 != NULL) delete[] frame3。}/* ~ChafenMul函數(shù)說明:析構(gòu)函數(shù),釋放內(nèi)存空間*/ChafenMul::~ChafenMul(){ if(frame1 != NULL) delete[] frame1。 memset(frame4,0,sizeof(unsigned char) * width * height)。 memset(frame2,0,sizeof(unsigned char) * width * height)。 frame4 = new unsigned char[width * height]。 frame2 = new unsigned char[width * height]。}。 //目標(biāo)檢測閾值public: void PrepareData(unsigned char *buffer,int width,int height)。 //幀寬度和高度 int readyCount。 //第4幀數(shù)據(jù) int frameWidth。 //第2幀數(shù)據(jù) unsigned char *frame3。public: unsigned char *frame1。class ChafenMul{public: ChafenMul(int width,int height,int targetThreshold)。5) 利用形心法計算出目標(biāo)的形心位置坐標(biāo),作為下一幀跟蹤的初始位置。3) 將兩幅幀差圖像相乘,存在運(yùn)動重疊的地方出現(xiàn)較高的相關(guān)峰,其他不連續(xù)的區(qū)域的數(shù)值為零或較小,這樣利用閾值就能有效排除虛假目標(biāo)的干擾,從而得到較精確的運(yùn)動目標(biāo)的邊緣。 基于差分相乘原理的運(yùn)動目標(biāo)檢測算法實現(xiàn) 動態(tài)背景下運(yùn)動目標(biāo)的檢測步驟1) 將第一幀圖像與第三幀圖像配準(zhǔn),第二幀圖像與第四幀圖像配準(zhǔn)。公式如下: (36)式中,分別為配準(zhǔn)后的圖像像素,為經(jīng)過差分相乘處理后后所得圖像像素。為了克服干擾,可以采用多幀圖像差分相乘,銳化二維差分圖像中運(yùn)動邊緣的相關(guān)峰,增強(qiáng)圖像邊緣,減少甚至消除光照不均、噪聲和自然場景中變化帶來的干擾,能夠準(zhǔn)確地檢測出目標(biāo)的邊緣信息。 差分相乘原理在確定相鄰幀圖像背景間的運(yùn)動偏移量之后,把后幀圖像按運(yùn)動偏移量與前幀圖像進(jìn)行對準(zhǔn),再作幀間差分運(yùn)算,現(xiàn)在就減掉了之前配準(zhǔn)的背景。圖像的配準(zhǔn)可以定義為兩幅圖像空間以及強(qiáng)度上得一種映射。當(dāng)兩幀圖像的背景只有平移變化時,只需要簡單計算出平移量就可以實現(xiàn)配準(zhǔn)。下面闡述一個基于圖像配準(zhǔn)和差分相乘的目標(biāo)檢測的方法。這個方法是基于圖像配準(zhǔn)技術(shù)的,通過圖像配準(zhǔn)處理估計出幀間運(yùn)動背景的全局運(yùn)動矢量,然后把后幀與前幀進(jìn)行圖像配準(zhǔn)。圖(31)第n幀圖像 圖(32)第n+1幀圖像圖(33)第n幀對應(yīng)檢測結(jié)果 圖(34)第n+1幀對引發(fā)檢測結(jié)果 動態(tài)背景下得運(yùn)動目標(biāo)檢測如果目標(biāo)運(yùn)動的同時,攝像機(jī)也發(fā)生了相對運(yùn)動時,運(yùn)動目標(biāo)的變化與背景的變化就會混合,使得目標(biāo)檢測變得復(fù)雜困難。在達(dá)到預(yù)定的閾值后,ReceiveFrame函數(shù)將建立起背景模型,并進(jìn)行目標(biāo)檢測,檢測結(jié)果通過成員變m_pDiffImage量輸出。 else m_pBackground[t] = BYTE(pixel)。 if(pixel255) m_pBackground[t] = BYTE(255)。i++) { t = j*WIDTH+i。j++) { for(i=0。 for(j=0。i++) m_pTemplate[j*nWidth+i]+=sGray[j*nWidth+i]。j++) for(int i=0。for(int j=0。 } else { m_pDiffImage[j*nWidth+i]=0。i++) { int diff=sGray[j*nWidth+i]pGray[nWidth*j+i]。j++) { for(i=0。 for(j=0。 DeNoise(m_pDiffImage,WIDTH,HEIGHT)。 SaveBmp(m_pBackground,WIDTH,HEIGHT,8,index)。 memset(m_pTemplate,0,IMAGESIZE*sizeof(UINT))。 SaveBmp(m_pBackground,WIDTH,HEIGHT,8,index)。 memset(m_pTemplate,0,IMAGESIZE*sizeof(UINT))。GetMultiData(m_pGrayImage,WIDTH,HEIGHT)。 memcpy(m_pCurImage,sBuf,WIDTH*HEIGHT*3)。 delete []m_pTemplate。 delete []m_pDetectImage。 delete []m_pGrayImage。 delete []m_pDiffImage。 memset(m_pTemplate,0,IMAGESIZE*sizeof(UINT))。 memset(m_pBackHistgram,0,IMAGESIZE*256*sizeof(short int))。 memset(m_pDetectImage,0,IMAGESIZE*3)。 memset(m_pDiffImage,0,IMAGESIZE)。 memset(m_pBgImage,0,IMAGESIZE*3)。 memset(m_pBackground,0,IMAGESIZE)。 memset(m_pGrayImage,0,IMAGESIZE)。 memset(m_pCurImage,0,IMAGESIZE*3)。 IMAGESIZE = WIDTH*HEIGHT。 WIDTH = nwidth。 類的實現(xiàn)include include /* Construction/Destruction*/CStatsticDetect::CStatsticDetect(int nwidth, int nheight){ m_nFrame = 0。 void ImageCopy(BYTE *sGray, int m_num)。 void GetBgImage()。 void Erosion(BYTE *sGray,int nWidth, int nHeight,int structure[3][3])。 void Medianfilter_3x3(BYTE *sGray, int nWidth, int nHeight)。 void DiffImage(BYTE *sGray, BYTE *pGray,int nWidth, int nHeight,int nThreshold)。public : void RGBToYUV(BYTE *sRGB,BYTE* sGray, int nWidth, int nHeight)。 BYTE *image3。 //存取前一幀灰度圖像 BYTE *image1。 //差分圖像 UINT *m_pTemplate。 //當(dāng)前灰度圖像 BYTE *m_pBackground。 short int *m_pBackHistgram。 //檢測結(jié)果圖像 int m_nFrame, count。 //當(dāng)前幀圖像 BYTE *m_pBgImage。 void ReceiveFrame(int index, BYTE* sBuf, DETECT_METHOD sMethod)。 靜態(tài)背景目標(biāo)檢測你算法的實現(xiàn) 類的定義靜態(tài)背景檢測程序類為CStaticDetectinclude define BACK_ALL_NUM 100 //計算背景所需幀數(shù)define BACK_SEQ_NUM 3 //背景計算循環(huán)數(shù)目define THRESHOLD 20 //設(shè)置差分閾值class CStatsticDetect{public: CStatsticDetect(int nwidth, int nheight)。最后進(jìn)行形態(tài)學(xué)膨脹,將與物體接觸的所有背景點(diǎn)合并到該物體中,使邊界擴(kuò)張,把兩個靠的很近的物體連接起來,填補(bǔ)閾值分割后孔洞??刹捎脭?shù)字圖像處理中常用的對二值圖像進(jìn)行腐蝕和膨脹的方法來完成填補(bǔ)和去除工作。 (33)對當(dāng)前幀圖像與背景圖像進(jìn)行差分處理之后,還需要進(jìn)行的步驟是閾值分割,將差分圖像轉(zhuǎn)換成二值圖像,閾值分割的關(guān)鍵是閾值的選取,閾值選得過小,一些背景區(qū)域會被錯誤標(biāo)記成運(yùn)動物體;閾值選得過大,一些運(yùn)動物體會被錯誤標(biāo)記為背景圖像,要根據(jù)具體的場景和要求來選取合適的閾值,才能達(dá)到預(yù)期的目標(biāo)跟蹤效果。QP 圖(31)運(yùn)動變化區(qū)域這里設(shè)和分別為圖像序列中連續(xù)的兩幀圖像,將這兩個量按下面的規(guī)則進(jìn)行幀間差分處理。下面以第一種方法取平均值方法堿性建模,有如下公式: (31)式中:——建模的圖像序列幀數(shù);——目的背景圖像;——第k幀的圖像 檢測變化區(qū)域運(yùn)用幀差法可以檢測出相鄰兩幀圖像間發(fā)生變化的區(qū)域。下面將具體介紹它的基本步驟。本節(jié)根據(jù)它們的特點(diǎn),把這兩種方法結(jié)合用來提取運(yùn)動目標(biāo)。而回歸遞推建模方法是通過回歸方式依據(jù)輸入的每幀圖像來更新背景,不需要始終維持保存背景估計幀的緩沖區(qū),常用的有線性卡爾曼濾波法、混合高斯模型等。目前有很多的背景建模方法被提出來,但可以歸納為兩類即非回歸遞推方法和回歸遞推方法。 (2)背景差分法背景差分法是另一種常用的目標(biāo)檢測方法,基本原理是利用圖像序列與背景的參數(shù)模型(近似背景圖像的像素值)進(jìn)行差分提取出運(yùn)動區(qū)域,區(qū)別較大的區(qū)域作為運(yùn)動區(qū)域,區(qū)別較小的區(qū)域則作為背景區(qū)域。算法的不足就是不能檢測完整的運(yùn)動目標(biāo)。然后對差分圖像進(jìn)行二值化,如果對應(yīng)像素值的變化小于規(guī)定的閾值,認(rèn)為是背景像素:如果對應(yīng)像素值變化較大,則認(rèn)為這些像素區(qū)域是前景像素,這樣就確定了目標(biāo)在圖像中所處位置。(l)幀間差分法幀間差分法是常用的運(yùn)動目標(biāo)檢測方法,基本原理是在圖像序列中相鄰幀間做差提取出圖像中的運(yùn)動區(qū)域。在實際的工程系統(tǒng)中,人們更傾向于使用相對簡單的幀間差分法和背景差分法完成目標(biāo)檢測。 靜止背景下的運(yùn)動目標(biāo)檢測在靜止背景下常用的幾種檢測方法有幀間差分法、背景差分法、光流場法、塊匹配法和運(yùn)動能量法等。靜止背景產(chǎn)生背景靜止的動態(tài)圖像序列,可采用幀間差分或自適應(yīng)背景相減對消的方法來消除背景的干擾,計算方法比較簡單;變化背景是指目標(biāo)運(yùn)動同時,拍攝的攝像機(jī)也作相對運(yùn)動,產(chǎn)生背景變化的運(yùn)動圖像序列,這時情況比較復(fù)雜,目標(biāo)的變化和背景的變化混合在一起。 3 運(yùn)動目標(biāo)檢測運(yùn)動目標(biāo)檢測跟蹤把自動控制、圖像處理、信息科學(xué)等學(xué)科有機(jī)地結(jié)合在一起,形成了一種能從圖像中快速檢測出運(yùn)動目標(biāo)、提取運(yùn)動目標(biāo)位置信息并進(jìn)行實時跟蹤的高新技術(shù)。見圖23。 圖22 直方圖表達(dá)目標(biāo)運(yùn)動軌跡表達(dá)了目標(biāo)運(yùn)動位置信息,它是由一系列的關(guān)鍵點(diǎn)和一組在這些關(guān)鍵點(diǎn)間插值的函數(shù)組成的。直方圖方法的基本思路是僅保留運(yùn)動的方向信息,并將運(yùn)動方向(0到360度)分為若干個間隔,把運(yùn)動矢量場上每點(diǎn)的數(shù)據(jù)劃到與它運(yùn)動方向最接近的間隔里,最后得到的統(tǒng)計結(jié)果為運(yùn)動矢量方向直方圖。見圖21。這小節(jié)具體介紹幾種運(yùn)動的表達(dá)方式。全局運(yùn)動具有規(guī)律、整體性比較強(qiáng)等特點(diǎn)。在運(yùn)動圖像分析中,前景和背景的運(yùn)動或靜止有四種情況:兩者都運(yùn)動、兩者都靜止以及其中一個運(yùn)動而另一個靜止。在對圖像序列的研究時,一般把圖像分為前景和背景兩個部分,這樣運(yùn)動就區(qū)分為前景運(yùn)動和背景運(yùn)動兩部分。通過對獲取的圖像序列進(jìn)行分析處理,計算并確定目標(biāo)在圖像上的位置,并得出運(yùn)動趨勢和運(yùn)動軌跡。檢測場景中運(yùn)動目標(biāo)位置、運(yùn)動軌跡和運(yùn)動方
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1