freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

計算方法課程設計報告--數(shù)字圖像匹配-wenkub

2023-04-26 23:01:06 本頁面
 

【正文】 模板圖像,上述的公式的積分應用離散和代替,故歸一化相關測度匹配算式為:下圖給出了模板匹配的示意圖,其中假設源圖像f(x,y)和模板圖像g(k,l)的原點都在左上角。但是g1(x,y)與 f(x,y),完全相同。顯然,計算誤差平方和測度可以減少計算量。差值測度:這類測度幾種常用的具體計算式如下:1)2)3)相關測度:(其性能比差值測度更為優(yōu)良),以下是一步步得出“歸一化互相關函數(shù)”的定義的過程。特征匹配是指通過分別提取兩個或多個圖像的特征(點、線、面等特征),對特征進行參數(shù)描述,然后運用所描述的參數(shù)來進行匹配的一種算法。 n1). 這是因為有時為了在計算機中處理的方便, 像素點的行列的排序不是從1, 而是從0開始的. 我們常用的顯示器的像素坐標就是如此.2.數(shù)字圖像匹配算法設計:圖像匹配主要可分為以灰度為基礎的匹配和以特征為基礎的匹配?;叶葓D的每個像素的亮度用一個數(shù)值來表示,通常數(shù)值范圍在0—255之間,即可用一個字節(jié)來表示,0代表純黑,255代表純白,而其他表示灰度,根據(jù)黑白所占的比例分布在0—255之間。②像素:表示圖像顏色的最小單位,每個像素都是由一定長度的數(shù)字值來表示它的顏色和亮度。其實質(zhì)是在基元相似性的條件下,運用匹配準則的最佳搜索問題。顯然由于這些照片是及其類似的,用肉眼是很難觀察辨別出來的。圖像匹配是圖像處理的一項關鍵技術,可廣泛用于目標識別與跟蹤、立體視覺、變化檢測、車場車牌識別、人臉識別、機器人導航、測繪、等領域,已成為一門新興的分支學科。由于拍攝時間、拍攝角度、自然環(huán)境的變化、多種傳感器的使用和傳感器本身的缺陷,使拍攝的圖像不僅受噪聲的影響,而且存在嚴重的灰度失真和幾何畸變。而下面要講的圖像匹配技術就是一個處理類似問題的一項有效的技術。簡單的講就是,要判讀一幅大圖像中是否存在某種已知的圖案,則以一幅與該圖案有著相同尺寸和方向的小圖像為模板,通過一定的算法可以在圖中找到目標,確定其坐標位置。③灰度圖像:灰度圖是指只含亮度信息,不含色彩信息的圖像,就像平時看到的黑白照片:亮度由暗到明,變化是連續(xù)的。④點陣圖:顯示器的屏幕由可以發(fā)光的像素點組成. 并且從幾何位置看, ,?;叶绕ヅ涞幕舅枷?以統(tǒng)計的觀點將圖像看成是二維信號,采用統(tǒng)計相關的方法尋找信號間的相關匹配。在此課程設計中我采用了兩種基于灰度圖像匹配算法:① 基于灰度的模板匹配算法② 基于灰度的快速匹配算法。將方差測度計算式展開如下:=+—2 (*)令:Df(x,y)稱為源圖像中與模板對應區(qū)域的能量,它與像素位置(x,y)有關,但隨像素位置(x,y)的變化,Df(x,y)變化緩慢?;谏鲜龇治?,若設Df(x,y)也為常數(shù),則用Dfg(x,y)便可進行圖像匹配,當Dfg(x,y)取最大值時,便可認為模板與圖像是匹配的。在(*)式中,g(x,y)為確定的模板圖,(*)式的第二項是常數(shù),可以將略去。對任何一個f(x,y)中的(x,y),根據(jù)上式都可以算得一個P(x,y).當x和y變化時,g(j,k)在源圖像區(qū)域中移動并得出P(x,y)所有值。D2=R4∪R5∪R7∪R8。格式:A=imread(文件名,’圖像文件格式’)說明:文件名為指定圖像文件名稱的字符串。舉例:A=imread(39。注:在MATLAB中申請一個變量時不需要指定類型,其具體類型由系統(tǒng)自動判別②imwrite函數(shù)功能:交圖像寫入圖像文件(以BMP,HDF,JPEG,PCX,TIFF,XWD等格式)。圖像文件格式’是指定圖像文件的保存格式的字符串。④rgb2gray函數(shù)功能:轉(zhuǎn)換RGB圖像或顏色映像表為灰度圖像。格式Ⅱ為非交互方式,對灰度圖像進行非交互方式的剪裁操作,通過四元素向量RECT=[xmin ymin width height]指定剪裁矩陣,這些值是定義在坐標系中的,xmin和ymin是圖像矩陣I的一處坐標,width是以此坐標為準向右的延伸的長度,height是以此坐標為準向下延伸的長度,由此構(gòu)成要剪裁的矩形區(qū)域。)。相關系數(shù)是表示矩陣A與B的線性聯(lián)系密切程度的一個統(tǒng)計量,相關系數(shù)值是小于等于1的正數(shù)。r39。當新的數(shù)據(jù)落在原來的坐標范圍之外時,MATLAB交自動進行坐標比例的調(diào)整。%讀取原圖像pipeitu=imread(39。%將原圖灰度化pipeitu2gray=rgb2gray(pipeitu)。%顯示原圖像 hold on。 r=corr2(temp_picture,pipeitu2gray)。 plot(j:j+pipei_width,i+pipei_height,39。b39。)。010110139。%讀取原圖像pipeitu=imread(39。%將原圖灰度化pipeitu2gray=rgb2gray(pipeitu)。%取兩個邊中最短的一條邊k=fix(temp_min/5)。 imshow(public_A)。 for t=1:3 %去掉外圍的一圈 for s=1:3 %取順時針為正方向 temp_pipeitu_te=temp_pipeitu(t,s)。 end。 end。 plot(j:j+pipei_width,i+pipei_height,39。r39。)。如果找到了匹配地點就會用帶顏色的矩形(匹配算法一為藍色,算法二為紅色),將匹配區(qū)域給圈定下來.1. 基于灰度的歸一化匹配算法操作步驟:在matlab 命令窗口輸入如下命令:a=imread(39。39。2. 基于灰度的快速模板匹配算法操作步驟:在matlab 命令窗口輸入如下命令:a=imread(39。39。五.試驗結(jié)果評價根據(jù)實驗測試結(jié)果得:匹配算法1(基于灰度的歸一化匹配算法)的匹配時間約為40秒左右。但是單純比較這兩種算法,算法2還是比算法1的匹配速度快很多。解題步驟:1. 在matlab 命令窗口輸入如下命令: a=imread(39。picture/39。 。)。%讀取匹配圖像testpipei_2(a,b)。當然在此過程中也是存在誤差的,但卻匹配成功的情況,這主要與算法的精確度有關。還有很多東西可以挖掘,自己也還有太多太多不懂的知識需要不斷的學習,掌握。 參考文獻[1] 徐東艷, 函數(shù)庫查詢詞典[M].北京: 中國鐵道出版社,2005.[2] [M].北京:電子工業(yè)出版社,2004.[3] [M].北京: 科學出版社,2005.[4] 蘇金明,王永利. MATLAB圖形圖像[M].北京: 電子工業(yè)出版社,2005.[5] 基礎與應用[M]. 北京: 北京航空航天大學出版社,2005.附錄:附錄一:(基于灰度的歸一化匹配算法)function testpipei_1(yuantu,pipeitu)yuantu2gray=rgb2gray(yuantu)。 %將匹配圖灰度化imshow(yuantu)。 %取得相關系數(shù) if r% %下面用plot函數(shù)在原圖的坐標系上畫出匹配區(qū)域 plot(j:j+pipei_width,i,39。b39。)。 end endend附錄二:testpipei_2(基于灰度的快速模板匹配算法)function testpipei_2(yuantu,pipeitu) yuantu2gray=rgb2gray(yuantu)。temp_min=min([pipei_height,pipei_width])。 end。r=0。 else break。 end。)。 plot(j,i:i+pipei_height,39。r39。temp_shunxu_2=temp_shunxu_3amp。amp。elseif temp_shunxu_1=temp_shunxu_3amp。temp_shunxu_2=temp_shunxu_4%1 3 2 4 shunxu=dec2bin(2,5)。amp。temp_shunxu_4=temp_shunxu_2amp。amp。elseif temp_shunxu_2=temp_shunxu_1amp。temp_shunxu_3=temp_shunxu_4%2 1 3 4 shunxu=dec2bin(6,5)。amp。temp_shunxu_3=temp_shunxu_1amp。amp。elseif temp_shunxu_2=temp_shunxu_4amp。temp_shunxu_1=temp_shunxu_3%2 4 1 3 shunxu=dec2bin(10,5)。amp。temp_shunxu_1=temp_shunxu_2amp。amp。elseif temp_shunxu_3=temp_shunxu_2amp。temp_shunxu_1=temp_shunxu_4%3 2 1 4 shunxu=dec2bin(
點擊復制文檔內(nèi)容
環(huán)評公示相關推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1