freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

20xx年醫(yī)學專題—基于matlab的手背靜脈圖像特征提取-閱讀頁

2024-11-19 04:37本頁面
  

【正文】 本章將在上一章的基礎上,對預處理后的圖像進行特征提取與匹配,重點是分析和提取出可靠而又高效的特征向量以及特征匹配的算法。我們使用Matlab軟件來編程實現其特征提取與匹配。 基于原點靜距的思想來源在研究學習了國內處文獻中基于細化圖像的提取方法時發(fā)現,所有的幾何特征如端點、交叉點,線段特征等這些特征點,都只是所有的靜脈紋絡中提取了若干點,而沒有利用全部的靜脈紋絡,本文設想,能否從靜脈紋絡的全局出發(fā)來提取特征,而這些特征囊括了所有的靜脈紋絡中的點,從而增加所提取特征的代表性。而原點靜矩的提出也是根據力學的知識而來的。我們就是提取這個距離作為特征點進行匹配。根據這種思想,我們也把所得到的有效區(qū)域的二值圖像進行分割,然后在每一個小區(qū)域內分別計算它的平均原點靜矩,其具體的步驟為:1)首先,把二值圖像分為大小的子圖像,(a)所示,的大小取值我們將在下面進行計論。3)計算這個子圖像的平均原點靜矩,得到一個距離值,我們把它作為特征向量的一個維,與其它子圖像的距離值組成一個多維向量。5)重復第4)步,直到計算完所有的子圖像,最后得到一個維的特征向量。 匹配算法在研究了國內外已有文獻中提及算法的基礎上,首先對目前比較流行的基于特征點的算法進行了一些優(yōu)化。 基于原點靜距的識別分類人體手背靜脈識別系統(tǒng)的主要目的是給出輸入系統(tǒng)的待識別圖像的類別歸屬,而分類器是這個系統(tǒng)的最后一個階段,也是影響模式識別的另一重要問題,我們把測試樣本中提取的分類特征輸入到分類器的分類規(guī)則中,通過分類器輸出最后的識別結果。常用到的分類器有標準距離法,平均距離法,最近鄰法,神經網絡法等,而這些方法當中最近鄰法是比較簡單且分類效果不錯的一種分類器,也是我們本文中所用到的分類器,所以對最近鄰法做一簡單的介紹[24]。我們可以規(guī)定類的判別函數為 (35)其中,的腳標i表示類,表示類個樣本中的第。其直觀解釋是相當的簡單的,就是說對未知樣本,我們只要比較與個已知類別樣本之間的歐氏距離,并決策與離它最近的樣本同類。 基于原點靜距的匹配算法結合以前文獻中的靜脈匹配算法,以幾何特征點為基礎對基于細化圖像特征點匹配算法進行了一些優(yōu)化和改進。從細化后的圖像中可以提取很多特征值作為識別特征進行比對,如文獻中曾提到可對血管紋線的曲率,長短,相對位置等進行匹配,而它實現了以端點和交點坐標的窮舉法匹配。但是這種基于特征點的匹配方法只是利用了局部的特征信息,所以信息量比較少,這對于圖像的少量平移或者一些噪聲的抗干擾能力比較低,所以我們提出了利用所有的靜脈紋絡來進行特征提取。本文中實驗的手背靜脈數據庫是Mohamed博士所提供的,數據庫中共有250個樣本,預處理細化后的圖像128128像素大小,我們把每個人的每一幅圖像作為模式樣本,其余四幅圖像作為測試樣本,計算出測試樣本的平均原點靜距,然后在計算模式樣本和每一個測試樣本的平均原點靜矩特征向量之間的歐幾里德距離,然后結合最近鄰分類規(guī)則來進行識別,最后得到模式樣本與測試樣本之間的識別準確率。實驗全部是在用本文相同的圖像預處理的結果上進行的。實驗中把每一個人的第一幅圖像作為模式樣本也叫注冊樣本,其它四幅圖像作為為測試樣本也叫待識別樣本,算出準確識別率以后在把第二幅圖像作為模式樣本,其余四幅圖像作為測試樣本,依次循環(huán)。本文所做的幾次試驗,分別介紹如下:實驗一:在做手背靜脈圖像特征提取的實驗中,我們首先對圖像進行預處理,在細化后的圖像在進行特征提取。我們不妨做實驗驗證一下,看看哪種方案的準確率最高。同時,本實驗為了驗證這種平均原點靜矩的分辨能力的大小,從數據庫中提取了前10個人50個樣本來進行一對多的驗證實驗,從而檢驗一下這種特征是否具有分辨出模式類別的能力。那么我們定義,如果測試樣本和模式樣本來自同一個人,我們認為這兩個樣本為真匹配,如果來自不同的人,則認為這兩個樣本為假匹配。 實驗二結果待測樣本數模式類別正確識別數識別率錯誤率50104386%14%實驗三:本次實驗是在50個人的數據庫中提取了250幅圖像中來做的,我們得到128128的有效區(qū)域。同理可知,對于本次實驗將產生250個真匹配和2250個假匹配值。我們采用實驗2中的數據樣本,在取64,32,16時分別做1對1的驗證實驗,因為通過經驗我們可以看到,當取128時,就是整個圖像,相當于沒有分割,那么只能得到一個原點靜矩,這一個點的分辯能力,是很難分辨出模式類別的,同樣當取很小為1時,同樣也是整個圖像,這時原點靜矩全為零,所以一點分辨能力也沒有,因此為了計算方便我們取了上述三個中間值來驗證取值大小對匹配率的影響。方案二得到的匹配率最大,由此可看出,這種方案最適合我們的基于原點靜距的特征提取與匹配的方法,所以我們在以后的試驗中就采用這種方案。由此可看出這兩個結果是比較相似的,這也表明了此種方法在不同規(guī)模的數據庫中性能比較穩(wěn)定。通過實驗四我們知道,當取為32,即把圖像分割為44個大小相等的子圖像,得到的正確匹配率較高,所以在最終的識別過程中我們選取等于32來進行識別。本章首先介紹了基于原點靜距方法的來源和計算步驟,然后進一步介紹了匹配算法的識別分類,我們采用最簡單的識別方法——最近距離法,即比較歐式距離法,并且分析了匹配的算法。然而任何方法都不是十全十美的,本文采用的匹配算法如果在匹配中由于干擾或者其它的原因導致失敗將直接影響識別結果,所以算法還有待進一步的改進。本文的主要工作歸納如下:第一,首先,對Mohamed博士所提供的數據庫中采集到的圖像進行有效域提取,針對光強和手背薄厚對采集圖像目標與背景對比度的影響,提出采用局部直方圖均衡的方法來進行增強處理,通過實驗給出了增強的仿真圖,其次,分析了常用NiBlack算法和細化算法在靜脈圖像中的效果,利用常用的算法來完成特征提取前的工作,給出了最后圖像預處理的結果。利用細化后的靜脈圖像,提出了一種基于細化后的靜脈紋絡提取原點靜矩作為識別特征的方法,利用分割思想把有效區(qū)域圖像分割成子圖像分別提取平均原點靜矩,組合成多維特征向量,最后利用平均原點靜矩組成的向量,結合最近鄰法識別方法進行匹配,實驗結果驗證該方法的有效性和可行性。在得到的手背靜脈圖像的基礎上,進一步對靜脈圖像的識別算法進行了分析、研究和驗證。 展望人體手背靜脈識別技術是一種新的識別技術,本文關鍵技術是特征提取和分類算法,如何找到靜脈的有效特征是算法關鍵,分類算法和匹配算法也是技術的關鍵。(2) 本課題中關鍵的技術是靜脈特征的提取和識別匹配,如何提取靜脈圖像的有效特征,以及效率較高匹配算法仍需要進一步研究。(4) 未來可以考慮把手背靜脈識別系統(tǒng)硬件化,做成嵌入式靜脈識別系統(tǒng),同時與其它生物識別技術相結合,組成多模識別系統(tǒng),這也是生物識別技術發(fā)展趨勢之一,它將大大提高識別率。致 謝 我在這次論文寫作過程中的到了很多人的幫助,在這里我要向他們表示衷心的感謝。我在完成論文的過程中遇到了很多困難,老師或恰當地啟發(fā),或耐心地解答,我不僅順利的克服了困難,而且獨立解決問題的能力也得到了提高。參考文獻[1] 田捷,[M].電子工業(yè)出版社,2004:126129.[2] William [J].,28(1):9497.[3] 林喜榮,莊波,[J].清華大學學報(自然科學版),2003,43(2):164167. [4] 吳作凌,陳雄,[J].微電子學與計算機,2010,27(1): 114119. [5] 侯振雷,[J].,23(59) : 120123.[6] ,3(22) : 5864.[7] 夏鴻斌,徐文波,32(20) :128130.[8] KENNETH R. CASTLEMAN, Digital Image Processing. : Prentice Hall, Inc, a Simon amp。 clc。FeatureCell = cell(50,5)。 for j = 1:5 if i10 eval([39。39。 num2str(i) 39。 num2str(j) 39。39。39。 else eval([39。39。 num2str(i) 39。 num2str(j) 39。39。39。 end HV_Preprocessed = Preprocessed(HV_Original)。 FeatureCell{i}{j} = HV_FeatureVector。save F4 FeatureCell。[Subject,Sample] = size(FeatureCell)。for i = 1:5 TestSample = cell(1,Subject)。 for k = 1:Sample T = T+FeatureCell{j}{k}。 end for j = 1:Subject RegisterSample = FeatureCell{j}{i}。 for k = 1:Subject Distance(k) = sqrt(sum(sum((RegisterSampleTestSample{1,k}).^2)))。 R = Index(1)。 end endendRate = m/[len,wid] = size(HV_in)。J = wid/B。for i= 1:I for j = 1:J P = HV_in((i1)*B+1:i*B,(j1)*B+1:j*B)。 N = eps。 N = N+1。 HV_FeatureVector(i,j) = M0
點擊復制文檔內容
化學相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1