freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于背景差分法的機動目標檢測論文(編輯修改稿)

2025-07-24 21:30 本頁面
 

【文章內(nèi)容簡介】 多,軌跡很固定的情況下,也需要加大N的數(shù)值,以使得平均值更加接近與真實的背景圖像。在這種情況下,背景的建立就需要較長的時間。本算法也有一定自適應更新功能。隨著時間的推移,在背景提取后獲取的圖像幀也可以作為新的信息量,與背景圖像進行統(tǒng)計平均或加權平均,實現(xiàn)背景的自適應更新。因此這種方法也使用于實時背景更新算法[17]。  Surendra算法Surendra背景更新算法能夠自適應地獲取背景圖像,該算法提取背景的思想是對差值圖像的亮度值進行判斷,如亮度大于閾值,背景圖像對應位置的像素點保持不變,否則利用當前幀對背景圖像進行替換更新。其算法可以分成以下幾個步驟:(1)將第1幀圖像作為背景。(2)選取閾值,迭代次數(shù),最大迭代次數(shù)。(3)求當前幀的幀差分圖像 (22)(4)由二值圖像Di更新背景圖像Bi, (23)式中,為背景圖像和差分二值圖像在的灰度值,為輸入的第幀圖像,a為更新速度。(5)迭代次數(shù),進行第(3)步的運算。當?shù)螖?shù)時結束迭代,此時可當作背景圖像。選取,選取固定閾值。在MATLAB中進行仿真。在仿真研究中發(fā)現(xiàn),MAXSTEP很大程度地決定了背景建立時的速度,a則決定背景更新的速度。這種背景建模和更新的方法,能夠很好地解決物體長時間停留對背景的影響,因為背景的更新會將它逐步地作為背景像素點更新到背景中。但是由于它的基本處理方式是幀間差分,使得它不能將色彩、亮度相似的,大面積的運動物體完整的檢測出來。這種情況下,運動物體的某些部分將作為背景區(qū)域更新到背景中[21]。 其他算法國內(nèi)外已有的背景提取與更新算法遠不止上述幾種,如混合高斯模型,分塊統(tǒng)計算法等也是目前比較常見的算法,其主體思想與算術平均法類似,只是在做法上有區(qū)別。由于絕大多數(shù)算法都是基于PC機的實現(xiàn),很少將算法的實時性作為參考要素?!∵\動目標檢測算法研究在實際的安防與監(jiān)控應用中,大多考慮攝像頭固定的情況。因此本文在研究運動目標檢測算法時,也做如下假設:攝像頭固定,只對視場內(nèi)的目標進行檢測,離開視場后再次進入的物體被視為新目標。目前,大多數(shù)的運動目標檢測的方法或是基于圖像序列中時間信息的,或是基于圖像序列中空間信息的[17]。常見的方法有如下2種: 背景減法將實時視頻流中的圖像像素點灰度值與事先已存儲或?qū)崟r得到的視頻背景模型中的相應值比較,不符合要求的像素點被認為是運動像素。這是視頻監(jiān)控中最常用的運動檢測方法。這種方法雖然能較完整的提取運動目標,但對光照和外部條件造成的環(huán)境變化過于敏感,常常會將運動目標的陰影錯誤的檢測為其自身的一部分。同時由于時間流逝,實際場景的多種因素都會發(fā)生變化,比如停留物的出現(xiàn)、光線等的變化、運動目標對背景的遮擋等等,背景需要得到實時地更新,這是影響其檢測效果的一個重要因素[20]。 幀間差法幀間差法是根據(jù)當前圖像與參考圖像的差別來獲得運動目標輪廓的方法。這種方法對于場景中的光線漸變不敏感,適于動態(tài)變化的環(huán)境,且運算量相對較小。但一般不能完整的提取運動目標,且在運動實體內(nèi)易產(chǎn)生空洞現(xiàn)象,從而不利于下一步的分析和處理[14]。第三章 背景提取背景提取是在視頻圖像序列中提取出背景。背景就是場景中靜止不動的景物。因為攝像機不動,因此圖像中的每個像素點都有一個對應的背景值,在一段時間內(nèi)這個值比較固定。背景提取的目標就是根據(jù)視頻圖像序列,找出圖像中每一點的背景值。這是下一步運動點團提取的基礎。在運動點團提取中,背景提取這一步提取出來的背景圖像將作為參考圖像,每一幀圖像都要與背景圖像作差,把背景去除,以得到運動點團前景。因此,這一步提取出的背景圖像的好壞將直接影響到之后每一幀的運動點團提取的質(zhì)量。背景會隨著時間的變化而發(fā)生變化,例如光照變化導致背景亮度、色度變化;運動物體停止運動成為背景的一部分;又如背景的一部分運動起來成為運動前景等。因此背景需要不斷更新,而背景的更新一般需要運動前景的信息,所以背景的更新將在第四章講述。本章講述背景初始化的方法,即在沒有運動前景的任何信息的情況下提取背景圖像,輸入是視頻圖像序列,每幀圖像都包括運動物體和靜止景物,輸出是只含靜止景物的背景圖像 彩色圖像的背景提取原始彩色圖像的背景提取,基本思想是,圖像中的某個像素按時間抽樣,其作為背景像素的時間比作為運動前景的時間長,即其作為背景的概率比作為前景的概率大,而且背景和前景在顏色上和亮度上都有很大不同。這是因為,對于固定場景,運動物體在運動,其轉(zhuǎn)瞬即逝,大多數(shù)時間我們看到的都是靜止背景[6],因此圖像上某個像素點作為前景的時間相對作為背景的時間短得多;而且,運動物體和靜止背景在色彩上有明顯區(qū)別,人能輕易分辨出前景物體,即使在一張靜止圖像上。 基于均值的彩色圖像背景提取這是背景提取的最簡單的方法。因為視頻中的某個像素對時間采樣,背景出現(xiàn)的次數(shù)比前景多,因此,將一定的時間段中的視頻序列采樣,,對每一個像素,將這一段時間中的所有圖像幀取平均,那么這個平均值會接近背景,背景出現(xiàn)的次數(shù)比前景越多,則這個平均值就越接近背景。前面已經(jīng)說過,運動前景是轉(zhuǎn)瞬即逝的。就以這個平均值作為這個像素的背景值。同時,求取平均值還可以在一定程度上抑制噪聲[7]。具體算法如下:1)在某時間段采樣得到N個圖像幀;2)對每一個像素點,背景。 改進的基于均值的彩色圖像背景提取。在求平均值之前,如果能去除不大可能是背景的像素,那么求出來的平均值會更加接近背景。然而,這個時候前景還沒不知道,用什么方法可以簡單有效的得到不大可能是背景的像素呢?根據(jù)背景出現(xiàn)的次數(shù)比前景多,且前景顏色和背景不同,可以知道,對于某個像素點,其對時間的采樣點在彩色RGB空間中會以背景點為中心點聚集在一起,而前景點會離中心點比較遠??梢哉J為,像素顏色矢量的一個分量離中心點的距離超過這個分量的標準差的點不大可能是背景,即使是背景,也疊加了比較大的噪聲。標準差計算公式為: (31)c=r,g,b表示矢量的紅、綠、藍三種顏色分量,是樣本的平均值。因此,可以對基于均值的彩色圖像背景提取算法做改進:在求平均值之后求標準差,然后把與均值大于標準差的采樣點去除,最后再求余下的點的平均值,把此值作為背景值。改進的算法如下:1)在某時間段采樣得到N個圖像幀;2)對每一個像素點:a)求中心點: (32)b)求標準差:,c=r,g,b (33)c)求集合 (34)上式中所有元素的平均值,這個值就是所求背景。設圖像的總像素數(shù)為M,則對每一個像素都要遍歷3次N個圖像幀——求中心點一次,求標準差一次,最后再求均值一次,因此這個算法的時間復雜度是,比原來的單純求平均值的算法費時[9]。 基于中值濾波的彩色背景圖像提取中值濾波器能有效的去除圖像的噪聲。它的一般算法為遍歷圖像的每一個像素,將它和與它相鄰的八個像素的灰度排序,取排在中間的像素的灰度值作為輸出圖像的這個像素的灰度。因為噪聲點的灰度與非噪聲點差別大,而且圖像有空間局部性,也就是說,對于沒有被噪聲污染的圖像,里面的每一個像素和它相鄰的像素的灰度差別不大。我們將這個像素和它相鄰的像素排序,噪聲點將被排到兩邊,排在中間的像素就是沒被噪聲污染的像素,把它作為濾波結果。這就是中值濾波器能有效去除圖像噪聲的原因[11]。上面說的是灰度圖像的中值濾波,如何將其擴展到彩色圖像呢?彩色圖像一般使用RGB空間表示,每個像素點是一三維矢量,各個分量分別代表紅、綠、藍三個顏色的灰度??梢苑謩e將這三種顏色的灰度圖做中值濾波,然后合成。然而這種方法將導致濾波后一個像素的三個分量來自不同的像素點,合成后的顏色不可避免的被扭曲。可以采取另外一種方法??紤]到噪聲點的顏色與非噪聲點差別大,在濾波時的排序中排到兩邊,可以將彩色圖像轉(zhuǎn)換成灰度圖像,在轉(zhuǎn)換后的灰度圖像中噪聲點和非噪聲點也會有較大的差別,排序后,取排在中間的像素對應的原始彩色圖像的像素矢量作為濾波結果。這樣濾波結果的每一個像素都是原始彩色圖像中真實存在的像素,避免了同一個像素的三個顏色分量來源于不同的像素導致的顏色扭曲。將彩色圖像轉(zhuǎn)換成灰度圖像,遍歷灰度圖像的每一個像素,將它和與它相鄰的八個像素的灰度排序,取排在中間的像素對應的原始彩色圖像的像素矢量作為輸出圖像的這個像素。中值濾波是對單幅圖像在空間采樣點上的濾波,不能直接用于背景提取。對于背景提取,我們需要將此算法擴展。視頻中的某個像素對時間采樣,背景出現(xiàn)的次數(shù)比前景多,可以認為前景是“噪聲”,這樣我們就可以對一個像素在時間上采樣得到的樣本進行濾波——對它們排序,噪聲將排在兩邊,即前景排在兩邊,排在中部的是背景,取排在中間的像素作為背景結果。我們處理的是彩色圖像序列,因此如前所述,將彩色圖像轉(zhuǎn)換成灰度圖像,然后在濾波的排序后,選擇排在中間的像素對應的原始彩色圖像的像素矢量作為濾波結果[9]。具體算法如下:1)在某時間段采樣得到N個圖像幀;2)對每一個像素點: a)將彩色像素矢量轉(zhuǎn)換成灰度。 b)將集合中的元素排序;c)設排在中間的是,則像素矢量作為濾波結果。對n個元素排序的時間復雜度是或者,取決于算法,其不是線性的,隨著n的增大迅速增大。設圖像的像素數(shù)是M,對每個像素都要對采樣的N個樣本進行排序,因此此算法的時間復雜度是或者,是比較耗時的算法。 基于共同區(qū)域的彩色圖像背景提取在一個像素的所有隨時間采樣的樣本中,在求均值之前,如果能去除不大可能是背景的樣本,那么求出來的平均值會更加接近背景。關鍵問題是在不知道前景的情況下,如何決定哪些樣本不大可能是背景。:認為離中心點距離大于標準差的點不大可能是背景點。有沒有不用計算標準差的方法呢?考慮前后相隔一定時間的兩圖像幀,因為前景在運動,其轉(zhuǎn)14 瞬即逝,因此同一個像素在有一定時間間隔的兩幀中如果差別不大,則它很大可能是背景——前景在這段時間中必然運動變化了;如果這個像素在這兩圖像幀中差別很大,則至少有一幀中的這個像素不是背景。稱在有一定時間間隔的兩圖像幀中差別不大的像素點的集合為共同區(qū)域,認為共同區(qū)域就是背景區(qū)域。在一定的時間段中,采樣得到若干有一定時間間隔的圖像對,每個圖像對找共同區(qū)域,然后對共同區(qū)域求平均值得到最后的背景圖像[10]。這時還要考慮某些像素不在任何背景區(qū)域中的情況——如果前景運動變化過于頻繁,某像素在任何圖像對中都有很大差別,這種情況將出現(xiàn)。這時,這個像素的背景值采用所有采樣圖像幀求均值的方法得到。像素在圖像對中的差別用像素矢量(彩色圖像,像素是RGB空間的矢量)的歐氏距離來量度,如果其大于一閾值,則認為差別大,否則認為差別小。這個閾值可以和第四章運動點團前景提取的二值化閾值相同,因為它們的內(nèi)涵都是前景和背景差別的量度。這個閾值如何確定將在第四章詳細講述。另外,考慮閾值的極端情況,如果這個閾值很小,任何像素在圖像對中的差別都大于這個閾值,則找不到任何共同區(qū)域,這時每一個像素的背景都是單純用所有采樣圖像幀的平均值得到;如果這個閾值很大,任何像素在圖像對中的差別都小于這個閾值,則每個圖像對中的所有像素都是共同區(qū)域,這時每一個像素的背景也是由所有采樣圖像幀的均值得到。在這兩種極端情況下,所以基于均值的圖像背景提取算法是基于共同區(qū)域的圖像背景提取算法的特殊情況。詳細算法如下:1)在某時間段采樣得到N個圖像幀;2)對每一個像素點: a)集合; b)對每一個圖像對和,如果則將和加入集合A,其中是閾值;c)計算集合中所有元素的均值作為像素點的背景值。設圖像的總像素數(shù)為,則對每一個像素都要遍歷2次個圖像幀——產(chǎn)生集合的點一次,求平均值一次,因此這個算法的時間復雜度是[8]。 灰度圖像的背景提取運動目標檢測和跟蹤可以不直接使用原始彩色圖像序列,而使用灰度圖像序列,即將彩色視頻圖像序列轉(zhuǎn)換成灰度圖像序列,然后在灰度圖像序列上提取背景,以及之后提取運動點團、運動跟蹤等。這一節(jié)首先講述彩色圖像轉(zhuǎn)換成灰度圖像的方法,然后再討論灰度圖像的背景提取。 彩色圖像轉(zhuǎn)換成灰度圖像:彩色圖像每個像素點在RGB空間中是一個三維矢量,每個分量分別代表紅、綠、藍三種顏色的灰度。最簡單的將彩色圖像轉(zhuǎn)換成灰度圖像的方法是將這三個分量取平均值。但是這種方法和人眼視覺感知不符。人眼感知紅、綠、藍三種顏色的權重是不一樣的。JPEG圖像壓縮格式采用的是YUV空間,YUV空間是RGB空間的線性變換。轉(zhuǎn)換公式是[12] (35)R、G、B分別表示紅、綠、藍三種顏色分量的灰度值。Y分量表示圖像的亮度,這是符合人眼對顏色感知的。我們就以Y分量作為圖像像素的灰度。將彩色像素轉(zhuǎn)換為灰度像素的公式為 (36)第四章 實驗仿真結果分析 視頻圖像的讀取格式隨著數(shù)字圖像處理技術的發(fā)展,基于視頻的圖像處理技術引起越來越多人的關注,被逐漸運用于目標檢測、圖像分割、目標跟蹤和行為理解等領域當中。通過單個或者多個攝像頭采集視頻圖像,加以對圖像的分析和處理,來得到人們所需要的各種信息。根據(jù)現(xiàn)有工具和知識,對現(xiàn)有的背景圖像差分算法進行深入研究,編寫MATLAB程序?qū)Ω倪M算法進行仿真,實現(xiàn)運動目標(車輛)的提取。視頻材料有DVD格式、AVI格式、MP4格式和GIF格式。由于文件格式必須持具有不同帶寬,不同存儲容量的傳輸信道和接收端,且本文工具有限,所以我選擇了AVI格式的視頻資源進行了實驗[9]。讀入的視頻截圖: 讀入第一幀視頻截圖 最后一幀視頻截圖進行圖像預處理前,應該先把圖像視頻讀入MATLAB,將視頻轉(zhuǎn)化成圖片然后輸出。為后面的工作提供資源。下面是單幀讀取和多幀讀取的結果展示。具體的程序模式為:darkcar=rgb2gray(read(I,i))。
點擊復制文檔內(nèi)容
研究報告相關推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1