freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于pca的人臉識別算法研究畢業(yè)論文(編輯修改稿)

2025-07-21 15:48 本頁面
 

【文章內(nèi)容簡介】 (2)絕對值距離: (318)(3)明氏距離: (319)(4)馬氏距離:量綱無關,排除變量之間相關性的干擾 (320)為其對應的特征值。(5)夾角距離: (321) 基于PCA的人臉識別前面講了基于PCA的人臉識別算法要用到的基本原理,下面講三大主要步驟的實現(xiàn)。分別是構造特征臉空間,投影,比較識別。 人臉的表示在計算機中,可將人臉圖像讀入為數(shù)字矩陣或數(shù)組[6],用B(i,j)表示,行和列的下標分別對應了人臉圖片上的每一個像素點。而矩陣中的對應元素則代表改點的灰度值。一張nm大小的人臉圖片可以構成一個nm的高維向量。 (322)人臉圖像訓練樣本集可用矩陣X來表示 (323) 上式中的p代表樣本訓練集中人臉圖片的數(shù)量。在本論文中p為100. 特征臉空間的構造人臉圖像樣本集中圖片的數(shù)量為P=100,維數(shù)為nm即92112,則人臉圖像訓練樣本集合可表示為 (324)每一張圖片都是一個nm維的列向量對人臉圖像進行標準化處理: (325)是訓練樣本集的平均圖像,D為方差: (326)樣本的協(xié)方差矩陣為: (327)由(326)可知協(xié)方差矩陣的維度為的實對稱矩陣,接下來就需要求矩陣R的特征值和特征向量 (328)對角陣就為特征值組成的,正交矩陣U為特征值對應的特征向量。 (329)選擇前M(MP)個比較大的特征值對應的特征向量,組成的特征空間U為: (330) 特征提取特征提取就是人臉空間到特征空間的映射。由式(323)可知,訓練樣本為,特征提取需要以下過程:(1)平均臉的計算: (331)(2)訓練樣本中的圖片和平均臉的差: (332)(3)協(xié)方差矩陣為: (333)(4)求矩陣的特征值及其對應的正交歸一化特征矢量(5)選取前N個最大特征值及其對應的特征向量:(6)求R的正交歸一化特征向量: (334)(7)特征空間 (8)把樣本空間中每一幅人臉與平均臉的差值矢量投影到特征臉空間,即 (335) 人臉識別把待識別的人臉圖像和預存數(shù)據(jù)庫中的人臉圖像投影到特征臉空間中,在特征臉空間中每張人臉圖片都有唯一的坐標,通過計算待識別人臉照片的坐標與預存數(shù)據(jù)庫中的每張人臉的坐標的距離值,那么距離待識別人臉圖像距離最小的人臉就是被識別出的圖像。人臉間的距離本文使用歐氏距離進行計算。距離表達式如下: (336) MATLAB仿真實現(xiàn)本論文的仿真實現(xiàn)是基于MATLAB R2014a上運行實現(xiàn)的[10],系統(tǒng)可以實現(xiàn)的功能是在待測試的人臉數(shù)據(jù)庫中選取一人臉圖片輸入系統(tǒng)運行后,可輸出一張預存人臉數(shù)據(jù)庫中和此圖片為同一個人的人臉。本次仿真利用ORL人臉數(shù)據(jù)庫,該庫中的人臉圖像尺寸大小均相同,預存人臉庫中存了100張照片,共20個測試者,每人五張照片,表情,姿勢都有不同程度的變化。運行程序,分別選擇預存人臉數(shù)據(jù)庫和待識別人臉數(shù)據(jù)庫的路徑,輸入待識別的人臉圖像的名稱,最后顯示識別了的圖像系統(tǒng)的流程圖如下:結果顯示人臉識別求特征臉空間創(chuàng)建預存人臉向量庫選定待識別的人臉照片選定預存人臉數(shù)據(jù)庫圖31 系統(tǒng)主流程圖(1)輸入預存人臉數(shù)據(jù)庫,本系統(tǒng)運行第一步就是選擇要輸入的預存人臉數(shù)據(jù)庫,該數(shù)據(jù)庫中包含20個測試者,每人5張圖片,共有100張人臉圖像,每張圖像的拍攝角度都是正面,但有一定的姿勢變化,無明顯遮擋物,有眼鏡等小的遮擋物,每張圖像的大小為92*112,圖像的格式為bmp格式。,。此方法是為了后續(xù)統(tǒng)計該系統(tǒng)的識別率方便而使用。:圖32 預存人臉數(shù)據(jù)庫運行系統(tǒng)時,選擇訓練人臉數(shù)據(jù)庫圖片如下所示圖33 選擇預存人臉數(shù)據(jù)庫(2)選擇待識別人臉數(shù)據(jù)庫,待識別人臉數(shù)據(jù)庫由20張人臉照片構成,格式為bmp,也是按順序命名,與預存人臉數(shù)據(jù)庫中的圖片都是同一拍攝背景下,如下圖所示,圖34 待識別人臉數(shù)據(jù)庫圖35 選擇待識別人臉數(shù)據(jù)庫(3)選擇要識別的人臉圖像,輸入120以內(nèi)的任意數(shù)字圖36 輸入任一張待識別圖像(4)創(chuàng)建預存人臉向量庫,在系統(tǒng)中創(chuàng)建函數(shù)CreateDatebase,該函數(shù)輸入有一個為,訓練人臉數(shù)據(jù)庫的路徑,在本論文中指TrainDatabase,輸出就為預存的人臉向量庫。輸出為預存人臉向量庫T。主要實現(xiàn)的功能是將預存人臉數(shù)據(jù)庫中的圖像轉(zhuǎn)化為列向量來構成預存人臉向量庫T。第一步,讀取訓練數(shù)據(jù)庫數(shù)據(jù)庫路徑,統(tǒng)計樣本所含的圖片數(shù)Train_Number。第二步,把每一張圖片都轉(zhuǎn)化為nm行,一列向量。第三步,把所有圖像組成一個nm行,100列的新矩陣T。步驟二三的實現(xiàn)代碼如下所示T = []。for i = 1 : Train_Number str = int2str(i)。 str = strcat(39。\39。,str,39。.bmp39。)。 str = strcat(TrainDatabasePath,str)。 img = imread(str)。 [irow icol] = size(img)。 temp = reshape(img39。,irow*icol,1)。 T = [T temp]。 End(5)構造特征臉空間,本系統(tǒng)中Eigenface函數(shù)來實現(xiàn)特征臉空間的構造這一過程。該函數(shù)的輸入為預存人臉向量庫T,輸出為三個,矩陣T的每一行數(shù)據(jù)的均值m,每張人臉向量與平均臉形成的差值矩陣A,以及特征臉空間Eigenface。首先,求均值m,其次計算每一幅圖像相對均值m的差值,將其按行擴展放入到矩陣A中。通過A求出預存人臉數(shù)據(jù)庫中所有圖像樣本協(xié)方差矩陣的特征向量和特征值。利用SVD定理求得的特征向量和特征值,最后將人臉偏差矩陣投影到由特征向量構成的空間中,就得到了特征臉空間該函數(shù)的流程圖如下圖所示:結束構建特征臉空間協(xié)方差矩陣的特征值和特征向量每張人臉與平均臉的差值矩陣A計算訓練庫中的平均臉m圖37 Eigenface函數(shù)流程圖求平均臉的代碼如下所示:function [m, A, Eigenface] = Eigenface(T)m = mean(T,2)。mean_face=reshape(m,92,112)。Image_mean=mat2gray(mean_face)。imwrite(Image_mean,39。39。,39。bmp39。)。Train_Number = size(T,2)。運行代碼,輸出平均臉,如下圖所示圖38 平均臉A = []。 for i = 1 : Train_Number temp = double(T(:,i)) m。 A = [A temp]。 endL = A39。*A。 [V, D] = eig(L)。 上述代碼可求出特征向量及特征值下面代碼是實現(xiàn)特征值的選取,選取原則是按照特征值1來選取,并輸出選取的特征值占總特征值的百分比。L_eig_vec = []。eicount=0。for i = 1 : size(V,2) if D(i,i)1 eicount=eicount+1。 L_eig_vec = [L_eig_vec V(:,i)]。 endendperc=eicount/size(V,2)。運行系統(tǒng)后可知,保留1的特征值,即保留了98%的人臉特征。(6)人臉識別,本系統(tǒng)創(chuàng)建函數(shù)Recognition。該函數(shù)輸出已經(jīng)識別了的圖像名稱,輸入為差值矩陣A,特征臉空間Eigenfaces,待識別的人臉圖像和平均臉m。首先將每個預存人臉圖像重新在特征臉空間上投影,其次把待識別人臉圖像轉(zhuǎn)化為灰度圖像,將其轉(zhuǎn)化為一維列向量,再計算預存人臉圖像與均值m的差值。然后將差值投影到特征臉空間。最后按照歐氏距離的計算方法計算待識別的圖像與預存數(shù)據(jù)庫中的人臉圖像的距離作為識別結果。該函數(shù)的流程圖如下:結束計算投影后待識別人臉與預存人臉的距離將待識別人臉投影到特征臉空間將預存人臉投影到特征臉空間輸出距離最小的圖像圖39 Recognition函數(shù)流程圖該函數(shù)的主要代碼如下:Euc_dist = []。for i = 1 : Train_Number q = ProjectedImages(:,i)。 temp = ( norm( ProjectedTestImage q ) )^2。 Euc_dist = [Euc_dist temp]。end[Euc_dist_min , Recognized_index] = min(Euc_dist)。OutputName = strcat(int2str(Recognized_index),39。.bmp39。)。本部分代碼主要是實現(xiàn)了計算距離,并把與待識別圖像距離最小的圖像輸出。 結果分析運行整個系統(tǒng),可得到如下結果:圖310 識別結果顯示1圖311 識別結果顯示2再次介紹一下該識別結果的前提條件,該系統(tǒng)運行的訓練樣本是來自ORL人臉數(shù)據(jù)庫的20名測試者,每名測試者5張圖片,待識別的照片是這20名測試者同一環(huán)境下拍攝的照片,每人一張。特征值保留1的數(shù)值,即特征值按大道小排列,前98%的特征值都被選取下來,運行整個系統(tǒng)后可達到95%的識別率。經(jīng)過對本系統(tǒng)的分析,可知影響該系統(tǒng)的識別率的重要因素有兩個:一是特征值的選取原則;二是訓練樣本的數(shù)量。訓練樣本的數(shù)量,當訓練人臉庫中的樣本數(shù)量小于一定數(shù)值時,構造好特征空間后,把樣本庫中的人臉圖像進行投影后,就會使得每一張待測人臉的距離數(shù)值將會占據(jù)樣本中所有人臉距離數(shù)值的百分比增大,對于此影響最好的解決辦法是增加測試者的人臉數(shù)量,降低百分比,從而增大識別的概率。特征值的選取,第一本論文目前的特征值是將特征從大到小排列后選取了前98%的數(shù)值,識別率為95%。第二改變特征值的選取,選取前70%大的數(shù)值,再次運行程序。得識別率為75%誤識別圖像展示如下圖:圖312 誤識別圖像顯示改變特征值的選取,選取前50%大的特征值,運行系統(tǒng)后得識別率急速下降為50%,所以可知特征值的取舍對于識別率的高低有著非常直接的影響。 本章小結本章是針對自己研究學習內(nèi)容的重點介紹,講了基于PCA的人臉識別算法,對本次研究的算法的四大步驟:人臉的表示,特征臉空間的構造,特征的提取,人臉識別等步驟進行了詳細的說明?;贛ATLAB給出了仿真系統(tǒng)的各個函數(shù)流程圖,并對所得到的結果進行了分析,并做了對比論證,綜合因素提出了改進系統(tǒng)的建議。第4章 與基于Fisherface方法的特征提取原理對比 第4章 與基于Fisherface方法的特征提取原理對比 PCA方法的優(yōu)缺點PCA方法的主要優(yōu)點是由低維空間恢復的人臉圖像和原始人臉圖像具有最小的均方誤差。可以理解為通過PCA方法得到的特征在大多數(shù)情況下可以認為是最佳描述特征。但是它也有局限的地方。一是該方法對表情變化 ,人臉的姿勢偏差,光照等都比較敏感。另一個是從數(shù)據(jù)壓縮的角度看,KL變換是最優(yōu)的,但是在分類的角度不是最佳的。在壓縮層面上,PCA算法考慮了人臉圖像的所有差異,但是在分類層面看,沒有考慮這些差異屬于類內(nèi)差異還是類間差異。特征臉法雖然對臉部不同區(qū)域的影響不同,但是對整個圖像區(qū)域采用了統(tǒng)一的高分辨率。該方法比較依賴于訓練集和測試集圖像的相關性,要求測試集合和訓練集合比較相像,而且KL變換中得到的大的特征值并不一定能夠代表分類性能好的方向。但是PCA法簡單,快速,實用而且比較基礎。 基于Fisherface法的人臉特征提取理論介紹Fisherface特征提取的方法包括PCA和LDA變換兩個部分[18]。該方法是對原始的訓練樣本數(shù)據(jù)進行兩次投影變換。首先利用主成分分析法對原始的人臉樣本數(shù)據(jù)進行第一次投影變換,然后在此基礎上進行一次基于Fisher準則的線性判別分析投影。LDA方法的思想是從高維空間中提取出具有分類能力的低維度特征,盡可能的把不同類別的樣本在特征空間的投影分開,而把同類別的樣本在特征空間中的投影盡可能的密集。即樣本的類間離散度越大越好,而樣本的類內(nèi)離散度則越小越好。假設樣本集的維度為,樣本集中的任何一個樣本均屬于某個已知類別。訓練集類間的離散度矩陣為: (41)是類的平均向量,是樣本集的平均向量,是先驗概率。訓練集類內(nèi)離散度矩陣為: (42) Fisher準則函數(shù)的定義為下式: (43)需要尋找一個,它能使取最大值
點擊復制文檔內(nèi)容
環(huán)評公示相關推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1