freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

目標(biāo)檢測(cè)與跟蹤技術(shù)研究及實(shí)現(xiàn)畢業(yè)論文-免費(fèi)閱讀

  

【正文】 采用幀間差分相乘方法有效地降低了高頻噪聲、光照改變和自然場(chǎng)景中一些微小變化的影響,使檢測(cè)結(jié)果更精確。 if(iLine0) ++。 for(i=EDGE_SPACE。 = FALSE。所以形心為跟蹤點(diǎn),跟蹤的隨機(jī)誤差較小,穩(wěn)定性好,抗干擾能力強(qiáng)。如果背景灰度在圖像中某一塊區(qū)域中可近似地看作為恒定,且所有物體與背景具有幾乎相同的對(duì)比度,這時(shí),只需要選取合適的閾值,就可很好地確定邊界。然后計(jì)算目標(biāo)區(qū)域坐標(biāo)的加權(quán)平均,并認(rèn)為這個(gè)坐標(biāo)的加權(quán)平均就是當(dāng)前幀中目標(biāo)所在的位置。i ++) dis += float(sqrt(double(currHistogram[i] * tempHistogram[i])))。 frame[j * imgWidth * 3 + currentX * 3 + 1] = 0。 frame[currentY * imgWidth * 3 + i * 3 + 1] = 0。U39。 currentY = int((newY/sumOfWeights) + )。i ++){ pixel r = frame[j * imgWidth * 3 + i * 3] / 16。iHISTOGRAM_LENGTH。 i HISTOGRAM_LENGTH。 j ++){ for(int i = max(0,currentX trackWinWidth / 2)。}/* CalculateHistogramSp函數(shù) 說(shuō)明:統(tǒng)計(jì)直方圖,建立區(qū)域模型*/int MeanShiftSegger::CalculateHistogramSp(unsigned char* frame,char kernel, float *histogram){ int pxValue = 0。 //SetZeroHistogram(tempHistogram)。 i HISTOGRAM_LENGTH。 //目標(biāo)直方圖摸板public: //計(jì)算Bhattacharyya系數(shù) float CalculateBhattacharyya(float initHistogram[HISTOGRAM_LENGTH],float tempHistogram[HISTOGRAM_LENGTH])。private: int imgWidth。4) 根據(jù)Mean Shift向量,計(jì)算目標(biāo)新的位置:。 相似性函數(shù)一般情況下,候選模型與目標(biāo)模型的相似程度可以用相似性函數(shù)表示,這里選用系數(shù)作為相似性函數(shù)。假設(shè)已經(jīng)知道了密度最大數(shù)據(jù)所對(duì)應(yīng)的位置,就可以估計(jì)出密度梯度。此時(shí)用二值化閾值方法無(wú)法很好地分割出目標(biāo)和背景,必須利用目標(biāo)特征匹配來(lái)實(shí)現(xiàn)目標(biāo)的正確跟蹤,基于Mean shift的目標(biāo)跟蹤方法運(yùn)用的比較廣泛。} 函數(shù)調(diào)用第一步,建立ChafenMul對(duì)象,并提供給構(gòu)造函數(shù)幀圖像大小和目標(biāo)閾值參數(shù)。 j ++) { for(int i = 0。 if(readyCount == 1) memcpy(frame2,buffer,width * height * sizeof(unsigned char))。 memset(frame3,0,sizeof(unsigned char) * width * height)。 void process()。 //第1幀數(shù)據(jù) unsigned char *frame2。2) 將配準(zhǔn)后的圖像第一幀與第三幀做差分,第二幀與第四幀做差分。如果用和來(lái)表示兩幅圖像,和表示它們各自的強(qiáng)度值,這種映射關(guān)系可以表示為: (35)式中,——二維空間變換,即為;G——一個(gè)一維變換。對(duì)于動(dòng)態(tài)背景下的運(yùn)動(dòng)目標(biāo)檢測(cè),如果在動(dòng)態(tài)背景中的目標(biāo)檢測(cè)中沿用靜態(tài)背景下得目標(biāo)檢測(cè)思想,那么在進(jìn)行圖像處理時(shí),可以這樣,首先將連續(xù)幾幀的背景圖像確定于同一幀的相同位置,這樣就把運(yùn)動(dòng)目標(biāo)給顯現(xiàn)出來(lái)。 pixel = UINT(m_pTemplate[t]/count+)。inWidth。inWidth。 count = 0。RGBToYUV(m_pCurImage,m_pGrayImage,WIDTH,HEIGHT)。 delete []m_pBgImage。 m_pDetectImage = new BYTE[IMAGESIZE*3]。 m_pGrayImage = new BYTE[IMAGESIZE]。 }。 void DeNoise(BYTE *sGray,int nWidth, int nHeight)。 //存取多幀數(shù)據(jù) BYTE *m_pPreGrayImage。 //背景圖像 BYTE *m_pDetectImage。首先,需要定義結(jié)構(gòu)元素: (34)然后進(jìn)行圖像形態(tài)學(xué)腐蝕,結(jié)構(gòu)元素像“探針”一樣對(duì)二值圖像進(jìn)行探測(cè),尋找出圖像內(nèi)能夠放下它的區(qū)域,這樣就可以消除一些小而無(wú)意義的毛刺。 建立背景模型目前常用的背景建模方法有兩種:一種是取圖像序列中的一系列圖像的平均值作為背景的參考圖像,這個(gè)參考圖像十分接近于背景圖像,適用于目標(biāo)連續(xù)運(yùn)動(dòng)的情況,不適用目標(biāo)緩慢運(yùn)動(dòng)的情況;另一種是通過(guò)訓(xùn)練的方法,先設(shè)定圖像像素值服從某一種空間分布模型,通過(guò)訓(xùn)練不斷地更新分布參數(shù)。使用背景差分方法的關(guān)鍵在于背景的建模及其實(shí)時(shí)更新。下面介紹一下這兩種方法。圖23 運(yùn)動(dòng)軌跡表達(dá)在實(shí)際工程應(yīng)用中可以根據(jù)具體的場(chǎng)景、運(yùn)動(dòng)的類型、目標(biāo)的類型等來(lái)選擇合適的表達(dá)方式描述運(yùn)動(dòng)。 矢量場(chǎng)表達(dá)因?yàn)檫\(yùn)動(dòng)有大小,有方向,所以可以用矢量表示,為了表示瞬時(shí)運(yùn)動(dòng)得矢量場(chǎng),這里將運(yùn)動(dòng)矢量用不帶箭頭的線段表示,線段的長(zhǎng)度、矢量的大小與運(yùn)動(dòng)的速度均成正比關(guān)系。目前有很多運(yùn)動(dòng)目標(biāo)的跟蹤方法,不同的目的可采用不同的跟蹤算法,以保證目標(biāo)跟蹤的準(zhǔn)確性和實(shí)時(shí)性。第四章, 論述課題的目標(biāo)跟蹤環(huán)節(jié)主要闡述了運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤中的跟蹤部分,簡(jiǎn)述了兩種方法——Mean Shift算法和形心跟蹤算法,以及他們的應(yīng)用和實(shí)現(xiàn)。而就目標(biāo)檢測(cè)和跟蹤的準(zhǔn)確性來(lái)講,高準(zhǔn)確性是建立在大量復(fù)雜運(yùn)算處理的基礎(chǔ)上的。第三,目標(biāo)特征提取和目標(biāo)跟蹤技術(shù),從檢測(cè)出的目標(biāo)中提取出可識(shí)別的特征,用于后續(xù)圖像序列中目標(biāo)的跟蹤。全國(guó)的許多大學(xué)和研究所也都投入到目標(biāo)檢測(cè)跟蹤和視頻監(jiān)控的研究當(dāng)中。1997年,美國(guó)國(guó)防高級(jí)研究項(xiàng)目署設(shè)立關(guān)于視覺(jué)監(jiān)控的項(xiàng)目,主要研究用于戰(zhàn)場(chǎng)及普通民用場(chǎng)景進(jìn)行監(jiān)控的自動(dòng)視頻理解技術(shù)。期望機(jī)器通過(guò)裝配的攝像設(shè)備檢測(cè)環(huán)境,能夠?qū)崿F(xiàn)跟蹤和識(shí)別環(huán)境中的物體,并做出相應(yīng)動(dòng)作。相比與靜止圖像,圖像序列增加了時(shí)間這一變量,使得動(dòng)態(tài)圖像序列幀間存在一定的時(shí)間和空間上的對(duì)應(yīng)關(guān)系,這也導(dǎo)致我們可以利用動(dòng)態(tài)圖像序列更好地研究運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤過(guò)程。實(shí)驗(yàn)證明,通過(guò)以上方法能夠很好地實(shí)現(xiàn)對(duì)運(yùn)動(dòng)目標(biāo)的檢測(cè)與跟蹤。運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤是數(shù)字圖像處理重要部分,也成為圖像處理技術(shù)理論和應(yīng)用的研究熱點(diǎn)。本設(shè)計(jì)主要是對(duì)運(yùn)動(dòng)目標(biāo)檢測(cè)與跟蹤原理進(jìn)行分析,并通過(guò)編程實(shí)現(xiàn)對(duì)目標(biāo)的檢測(cè)與跟蹤。運(yùn)動(dòng)目標(biāo)位置的改變?cè)趫D像上的反映就是相鄰幀灰度的空間分布改變。在智能交通監(jiān)控系統(tǒng)中,期望系統(tǒng)能夠在不需要人的干預(yù)、或者很少干預(yù)的情況下,通過(guò)對(duì)攝像機(jī)拍錄的視頻序列進(jìn)行分析來(lái)實(shí)現(xiàn)相應(yīng)的需求。 國(guó)內(nèi)外發(fā)展與研究現(xiàn)狀1974年,美國(guó)白沙導(dǎo)彈靶場(chǎng)聯(lián)合新墨西哥州立大學(xué)以及亞利桑那大學(xué)科學(xué)中心開(kāi)始研制實(shí)時(shí)電視跟蹤系統(tǒng)。但我國(guó)的圖像處理技術(shù)、運(yùn)動(dòng)目標(biāo)識(shí)別跟蹤技術(shù)正在穩(wěn)步發(fā)展。第二,圖像分割和目標(biāo)的檢測(cè)技術(shù),在復(fù)雜的場(chǎng)景中利用圖像分割技術(shù)從圖像中檢測(cè)出可能的運(yùn)動(dòng)目標(biāo)。l 難以選取運(yùn)動(dòng)目標(biāo)特征動(dòng)態(tài)圖像序列包含大量信息,這些信息都可用與目標(biāo)檢測(cè)跟蹤,但由于這些信息非常龐雜,所以提取那些信息作為運(yùn)動(dòng)目標(biāo)檢測(cè)跟蹤的特征也需要認(rèn)真研究,需要根據(jù)運(yùn)動(dòng)的具體情況來(lái)選擇,很難說(shuō)有一種普遍的實(shí)用的運(yùn)動(dòng)特征用于目標(biāo)檢測(cè)跟蹤。具體章節(jié)分配如下:第一章, 緒論部分,敘述課題研究的背景及現(xiàn)狀,以及存在的問(wèn)題。檢測(cè)場(chǎng)景中運(yùn)動(dòng)目標(biāo)位置、運(yùn)動(dòng)軌跡和運(yùn)動(dòng)方向以及運(yùn)動(dòng)速度,根據(jù)當(dāng)前圖像包含的運(yùn)動(dòng)信息估測(cè)出目標(biāo)的運(yùn)動(dòng)趨勢(shì)和運(yùn)動(dòng)軌跡。全局運(yùn)動(dòng)具有規(guī)律、整體性比較強(qiáng)等特點(diǎn)。 圖22 直方圖表達(dá)目標(biāo)運(yùn)動(dòng)軌跡表達(dá)了目標(biāo)運(yùn)動(dòng)位置信息,它是由一系列的關(guān)鍵點(diǎn)和一組在這些關(guān)鍵點(diǎn)間插值的函數(shù)組成的。 靜止背景下的運(yùn)動(dòng)目標(biāo)檢測(cè)在靜止背景下常用的幾種檢測(cè)方法有幀間差分法、背景差分法、光流場(chǎng)法、塊匹配法和運(yùn)動(dòng)能量法等。算法的不足就是不能檢測(cè)完整的運(yùn)動(dòng)目標(biāo)。本節(jié)根據(jù)它們的特點(diǎn),把這兩種方法結(jié)合用來(lái)提取運(yùn)動(dòng)目標(biāo)。 (33)對(duì)當(dāng)前幀圖像與背景圖像進(jìn)行差分處理之后,還需要進(jìn)行的步驟是閾值分割,將差分圖像轉(zhuǎn)換成二值圖像,閾值分割的關(guān)鍵是閾值的選取,閾值選得過(guò)小,一些背景區(qū)域會(huì)被錯(cuò)誤標(biāo)記成運(yùn)動(dòng)物體;閾值選得過(guò)大,一些運(yùn)動(dòng)物體會(huì)被錯(cuò)誤標(biāo)記為背景圖像,要根據(jù)具體的場(chǎng)景和要求來(lái)選取合適的閾值,才能達(dá)到預(yù)期的目標(biāo)跟蹤效果。 void ReceiveFrame(int index, BYTE* sBuf, DETECT_METHOD sMethod)。 //當(dāng)前灰度圖像 BYTE *m_pBackground。public : void RGBToYUV(BYTE *sRGB,BYTE* sGray, int nWidth, int nHeight)。 void GetBgImage()。 IMAGESIZE = WIDTH*HEIGHT。 memset(m_pBgImage,0,IMAGESIZE*3)。 memset(m_pTemplate,0,IMAGESIZE*sizeof(UINT))。 delete []m_pTemplate。 SaveBmp(m_pBackground,WIDTH,HEIGHT,8,index)。 for(j=0。for(int j=0。j++) { for(i=0。在達(dá)到預(yù)定的閾值后,ReceiveFrame函數(shù)將建立起背景模型,并進(jìn)行目標(biāo)檢測(cè),檢測(cè)結(jié)果通過(guò)成員變m_pDiffImage量輸出。當(dāng)兩幀圖像的背景只有平移變化時(shí),只需要簡(jiǎn)單計(jì)算出平移量就可以實(shí)現(xiàn)配準(zhǔn)。公式如下: (36)式中,分別為配準(zhǔn)后的圖像像素,為經(jīng)過(guò)差分相乘處理后后所得圖像像素。class ChafenMul{public: ChafenMul(int width,int height,int targetThreshold)。 //幀寬度和高度 int readyCount。 frame4 = new unsigned char[width * height]。 if(frame3 != NULL) delete[] frame3。}/*process函數(shù) 說(shuō)明:差分相乘法檢測(cè)目標(biāo)*/void ChafenMul::process(){ int * mul = new int[frameWidth * frameHeight]。 if(mul[j*frameWidth +i] targetThreshold) { frame1[j * frameWidth + i] = 255。但如果對(duì)差分圖像進(jìn)行相乘運(yùn)算,圖像的噪聲被大大消減,很容易將目標(biāo)檢測(cè)出來(lái)。在維歐式空間中,給定n個(gè)點(diǎn),i=1,…,n和一個(gè)正定的帶寬矩陣H,使用核的多變量核密度估計(jì)為: (42)帶寬矩陣H的兩種通用的形式如下:一種形式為對(duì)角陣,為;另一種形式是比例單位矩陣,為。上式中函數(shù)中能夠去除不同面積計(jì)算時(shí)的影響。分析式可以看出,上式類比于核密度估計(jì)函數(shù),只多了,通過(guò)Mean shift算法進(jìn)行迭代計(jì)算,求得最大,以下為具體步驟:1) 設(shè)目標(biāo)模型的分布為,目標(biāo)的估計(jì)位置為。ifndef MEANSHIFTSEGGER_H_INCLUDEdefine MEANSHIFTSEGGER_H_INCLUDEdefine HISTOGRAM_LENGTH 4096 //直方圖長(zhǎng)度typedef unsigned char pixel。 //當(dāng)前目標(biāo)橫坐標(biāo) int currentY。 //根據(jù)當(dāng)前跟蹤窗口的大小和目標(biāo)位置繪制跟蹤窗 void DrawTrackBox(unsigned char* frame)。 //memset(currHistogram,0,sizeof(float) * HISTOGRAM_LENGTH)。 thiscurrentY = targetPosY。U39。 histogram[256 * (int)r + 16 * (int)g + (int)b] += 1。 float newX = 。j min(currentY + trackWinHeight / 2,imgHeight 1)。 newY += (weights[ptr] * (float)j)。 } else { int stopThreshold = 10。 }}/*DrawTrackBox函數(shù)說(shuō)明:在輸出中畫(huà)跟蹤窗口*/void MeanShiftSegger::DrawTrackBox(unsigned char* frame){ for(int i = currentX。 } for(int j = currentY。 }}/*函數(shù)Calcul
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1