freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

20xx年醫(yī)學(xué)專題—基于matlab的手背靜脈圖像特征提取-閱讀頁(yè)

2024-11-19 04:37本頁(yè)面
  

【正文】 本章將在上一章的基礎(chǔ)上,對(duì)預(yù)處理后的圖像進(jìn)行特征提取與匹配,重點(diǎn)是分析和提取出可靠而又高效的特征向量以及特征匹配的算法。我們使用Matlab軟件來(lái)編程實(shí)現(xiàn)其特征提取與匹配。 基于原點(diǎn)靜距的思想來(lái)源在研究學(xué)習(xí)了國(guó)內(nèi)處文獻(xiàn)中基于細(xì)化圖像的提取方法時(shí)發(fā)現(xiàn),所有的幾何特征如端點(diǎn)、交叉點(diǎn),線段特征等這些特征點(diǎn),都只是所有的靜脈紋絡(luò)中提取了若干點(diǎn),而沒(méi)有利用全部的靜脈紋絡(luò),本文設(shè)想,能否從靜脈紋絡(luò)的全局出發(fā)來(lái)提取特征,而這些特征囊括了所有的靜脈紋絡(luò)中的點(diǎn),從而增加所提取特征的代表性。而原點(diǎn)靜矩的提出也是根據(jù)力學(xué)的知識(shí)而來(lái)的。我們就是提取這個(gè)距離作為特征點(diǎn)進(jìn)行匹配。根據(jù)這種思想,我們也把所得到的有效區(qū)域的二值圖像進(jìn)行分割,然后在每一個(gè)小區(qū)域內(nèi)分別計(jì)算它的平均原點(diǎn)靜矩,其具體的步驟為:1)首先,把二值圖像分為大小的子圖像,(a)所示,的大小取值我們將在下面進(jìn)行計(jì)論。3)計(jì)算這個(gè)子圖像的平均原點(diǎn)靜矩,得到一個(gè)距離值,我們把它作為特征向量的一個(gè)維,與其它子圖像的距離值組成一個(gè)多維向量。5)重復(fù)第4)步,直到計(jì)算完所有的子圖像,最后得到一個(gè)維的特征向量。 匹配算法在研究了國(guó)內(nèi)外已有文獻(xiàn)中提及算法的基礎(chǔ)上,首先對(duì)目前比較流行的基于特征點(diǎn)的算法進(jìn)行了一些優(yōu)化。 基于原點(diǎn)靜距的識(shí)別分類人體手背靜脈識(shí)別系統(tǒng)的主要目的是給出輸入系統(tǒng)的待識(shí)別圖像的類別歸屬,而分類器是這個(gè)系統(tǒng)的最后一個(gè)階段,也是影響模式識(shí)別的另一重要問(wèn)題,我們把測(cè)試樣本中提取的分類特征輸入到分類器的分類規(guī)則中,通過(guò)分類器輸出最后的識(shí)別結(jié)果。常用到的分類器有標(biāo)準(zhǔn)距離法,平均距離法,最近鄰法,神經(jīng)網(wǎng)絡(luò)法等,而這些方法當(dāng)中最近鄰法是比較簡(jiǎn)單且分類效果不錯(cuò)的一種分類器,也是我們本文中所用到的分類器,所以對(duì)最近鄰法做一簡(jiǎn)單的介紹[24]。我們可以規(guī)定類的判別函數(shù)為 (35)其中,的腳標(biāo)i表示類,表示類個(gè)樣本中的第。其直觀解釋是相當(dāng)?shù)暮?jiǎn)單的,就是說(shuō)對(duì)未知樣本,我們只要比較與個(gè)已知類別樣本之間的歐氏距離,并決策與離它最近的樣本同類。 基于原點(diǎn)靜距的匹配算法結(jié)合以前文獻(xiàn)中的靜脈匹配算法,以幾何特征點(diǎn)為基礎(chǔ)對(duì)基于細(xì)化圖像特征點(diǎn)匹配算法進(jìn)行了一些優(yōu)化和改進(jìn)。從細(xì)化后的圖像中可以提取很多特征值作為識(shí)別特征進(jìn)行比對(duì),如文獻(xiàn)中曾提到可對(duì)血管紋線的曲率,長(zhǎng)短,相對(duì)位置等進(jìn)行匹配,而它實(shí)現(xiàn)了以端點(diǎn)和交點(diǎn)坐標(biāo)的窮舉法匹配。但是這種基于特征點(diǎn)的匹配方法只是利用了局部的特征信息,所以信息量比較少,這對(duì)于圖像的少量平移或者一些噪聲的抗干擾能力比較低,所以我們提出了利用所有的靜脈紋絡(luò)來(lái)進(jìn)行特征提取。本文中實(shí)驗(yàn)的手背靜脈數(shù)據(jù)庫(kù)是Mohamed博士所提供的,數(shù)據(jù)庫(kù)中共有250個(gè)樣本,預(yù)處理細(xì)化后的圖像128128像素大小,我們把每個(gè)人的每一幅圖像作為模式樣本,其余四幅圖像作為測(cè)試樣本,計(jì)算出測(cè)試樣本的平均原點(diǎn)靜距,然后在計(jì)算模式樣本和每一個(gè)測(cè)試樣本的平均原點(diǎn)靜矩特征向量之間的歐幾里德距離,然后結(jié)合最近鄰分類規(guī)則來(lái)進(jìn)行識(shí)別,最后得到模式樣本與測(cè)試樣本之間的識(shí)別準(zhǔn)確率。實(shí)驗(yàn)全部是在用本文相同的圖像預(yù)處理的結(jié)果上進(jìn)行的。實(shí)驗(yàn)中把每一個(gè)人的第一幅圖像作為模式樣本也叫注冊(cè)樣本,其它四幅圖像作為為測(cè)試樣本也叫待識(shí)別樣本,算出準(zhǔn)確識(shí)別率以后在把第二幅圖像作為模式樣本,其余四幅圖像作為測(cè)試樣本,依次循環(huán)。本文所做的幾次試驗(yàn),分別介紹如下:實(shí)驗(yàn)一:在做手背靜脈圖像特征提取的實(shí)驗(yàn)中,我們首先對(duì)圖像進(jìn)行預(yù)處理,在細(xì)化后的圖像在進(jìn)行特征提取。我們不妨做實(shí)驗(yàn)驗(yàn)證一下,看看哪種方案的準(zhǔn)確率最高。同時(shí),本實(shí)驗(yàn)為了驗(yàn)證這種平均原點(diǎn)靜矩的分辨能力的大小,從數(shù)據(jù)庫(kù)中提取了前10個(gè)人50個(gè)樣本來(lái)進(jìn)行一對(duì)多的驗(yàn)證實(shí)驗(yàn),從而檢驗(yàn)一下這種特征是否具有分辨出模式類別的能力。那么我們定義,如果測(cè)試樣本和模式樣本來(lái)自同一個(gè)人,我們認(rèn)為這兩個(gè)樣本為真匹配,如果來(lái)自不同的人,則認(rèn)為這兩個(gè)樣本為假匹配。 實(shí)驗(yàn)二結(jié)果待測(cè)樣本數(shù)模式類別正確識(shí)別數(shù)識(shí)別率錯(cuò)誤率50104386%14%實(shí)驗(yàn)三:本次實(shí)驗(yàn)是在50個(gè)人的數(shù)據(jù)庫(kù)中提取了250幅圖像中來(lái)做的,我們得到128128的有效區(qū)域。同理可知,對(duì)于本次實(shí)驗(yàn)將產(chǎn)生250個(gè)真匹配和2250個(gè)假匹配值。我們采用實(shí)驗(yàn)2中的數(shù)據(jù)樣本,在取64,32,16時(shí)分別做1對(duì)1的驗(yàn)證實(shí)驗(yàn),因?yàn)橥ㄟ^(guò)經(jīng)驗(yàn)我們可以看到,當(dāng)取128時(shí),就是整個(gè)圖像,相當(dāng)于沒(méi)有分割,那么只能得到一個(gè)原點(diǎn)靜矩,這一個(gè)點(diǎn)的分辯能力,是很難分辨出模式類別的,同樣當(dāng)取很小為1時(shí),同樣也是整個(gè)圖像,這時(shí)原點(diǎn)靜矩全為零,所以一點(diǎn)分辨能力也沒(méi)有,因此為了計(jì)算方便我們?nèi)×松鲜鋈齻€(gè)中間值來(lái)驗(yàn)證取值大小對(duì)匹配率的影響。方案二得到的匹配率最大,由此可看出,這種方案最適合我們的基于原點(diǎn)靜距的特征提取與匹配的方法,所以我們?cè)谝院蟮脑囼?yàn)中就采用這種方案。由此可看出這兩個(gè)結(jié)果是比較相似的,這也表明了此種方法在不同規(guī)模的數(shù)據(jù)庫(kù)中性能比較穩(wěn)定。通過(guò)實(shí)驗(yàn)四我們知道,當(dāng)取為32,即把圖像分割為44個(gè)大小相等的子圖像,得到的正確匹配率較高,所以在最終的識(shí)別過(guò)程中我們選取等于32來(lái)進(jìn)行識(shí)別。本章首先介紹了基于原點(diǎn)靜距方法的來(lái)源和計(jì)算步驟,然后進(jìn)一步介紹了匹配算法的識(shí)別分類,我們采用最簡(jiǎn)單的識(shí)別方法——最近距離法,即比較歐式距離法,并且分析了匹配的算法。然而任何方法都不是十全十美的,本文采用的匹配算法如果在匹配中由于干擾或者其它的原因?qū)е率⒅苯佑绊懽R(shí)別結(jié)果,所以算法還有待進(jìn)一步的改進(jìn)。本文的主要工作歸納如下:第一,首先,對(duì)Mohamed博士所提供的數(shù)據(jù)庫(kù)中采集到的圖像進(jìn)行有效域提取,針對(duì)光強(qiáng)和手背薄厚對(duì)采集圖像目標(biāo)與背景對(duì)比度的影響,提出采用局部直方圖均衡的方法來(lái)進(jìn)行增強(qiáng)處理,通過(guò)實(shí)驗(yàn)給出了增強(qiáng)的仿真圖,其次,分析了常用NiBlack算法和細(xì)化算法在靜脈圖像中的效果,利用常用的算法來(lái)完成特征提取前的工作,給出了最后圖像預(yù)處理的結(jié)果。利用細(xì)化后的靜脈圖像,提出了一種基于細(xì)化后的靜脈紋絡(luò)提取原點(diǎn)靜矩作為識(shí)別特征的方法,利用分割思想把有效區(qū)域圖像分割成子圖像分別提取平均原點(diǎn)靜矩,組合成多維特征向量,最后利用平均原點(diǎn)靜矩組成的向量,結(jié)合最近鄰法識(shí)別方法進(jìn)行匹配,實(shí)驗(yàn)結(jié)果驗(yàn)證該方法的有效性和可行性。在得到的手背靜脈圖像的基礎(chǔ)上,進(jìn)一步對(duì)靜脈圖像的識(shí)別算法進(jìn)行了分析、研究和驗(yàn)證。 展望人體手背靜脈識(shí)別技術(shù)是一種新的識(shí)別技術(shù),本文關(guān)鍵技術(shù)是特征提取和分類算法,如何找到靜脈的有效特征是算法關(guān)鍵,分類算法和匹配算法也是技術(shù)的關(guān)鍵。(2) 本課題中關(guān)鍵的技術(shù)是靜脈特征的提取和識(shí)別匹配,如何提取靜脈圖像的有效特征,以及效率較高匹配算法仍需要進(jìn)一步研究。(4) 未來(lái)可以考慮把手背靜脈識(shí)別系統(tǒng)硬件化,做成嵌入式靜脈識(shí)別系統(tǒng),同時(shí)與其它生物識(shí)別技術(shù)相結(jié)合,組成多模識(shí)別系統(tǒng),這也是生物識(shí)別技術(shù)發(fā)展趨勢(shì)之一,它將大大提高識(shí)別率。致 謝 我在這次論文寫作過(guò)程中的到了很多人的幫助,在這里我要向他們表示衷心的感謝。我在完成論文的過(guò)程中遇到了很多困難,老師或恰當(dāng)?shù)貑l(fā),或耐心地解答,我不僅順利的克服了困難,而且獨(dú)立解決問(wèn)題的能力也得到了提高。參考文獻(xiàn)[1] 田捷,[M].電子工業(yè)出版社,2004:126129.[2] William [J].,28(1):9497.[3] 林喜榮,莊波,[J].清華大學(xué)學(xué)報(bào)(自然科學(xué)版),2003,43(2):164167. [4] 吳作凌,陳雄,[J].微電子學(xué)與計(jì)算機(jī),2010,27(1): 114119. [5] 侯振雷,[J].,23(59) : 120123.[6] ,3(22) : 5864.[7] 夏鴻斌,徐文波,32(20) :128130.[8] KENNETH R. CASTLEMAN, Digital Image Processing. : Prentice Hall, Inc, a Simon amp。 clc。FeatureCell = cell(50,5)。 for j = 1:5 if i10 eval([39。39。 num2str(i) 39。 num2str(j) 39。39。39。 else eval([39。39。 num2str(i) 39。 num2str(j) 39。39。39。 end HV_Preprocessed = Preprocessed(HV_Original)。 FeatureCell{i}{j} = HV_FeatureVector。save F4 FeatureCell。[Subject,Sample] = size(FeatureCell)。for i = 1:5 TestSample = cell(1,Subject)。 for k = 1:Sample T = T+FeatureCell{j}{k}。 end for j = 1:Subject RegisterSample = FeatureCell{j}{i}。 for k = 1:Subject Distance(k) = sqrt(sum(sum((RegisterSampleTestSample{1,k}).^2)))。 R = Index(1)。 end endendRate = m/[len,wid] = size(HV_in)。J = wid/B。for i= 1:I for j = 1:J P = HV_in((i1)*B+1:i*B,(j1)*B+1:j*B)。 N = eps。 N = N+1。 HV_FeatureVector(i,j) = M0
點(diǎn)擊復(fù)制文檔內(nèi)容
化學(xué)相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1