【正文】
主要成分),依次類推。最后將每一張人臉D1維矢量投影到這個(gè)空間上去,得到一降維(從D維降到了k維)的特征臉 (k1維)。*.bmp39。 fa=imread(inFilename)。 else k=2。39。class=size(Iv,3)。 % ellsample test sample。 NumTotal=ell*class。pca=30。% Testing sample feature vectorfor classnum=1:class for e=1:ellsample It(:,e,classnum)=Iv(:,e+ell,classnum)。 %求平均向量Q=zeros(dim,ell*class)。*Q。[U,L]=eigs(R,d,39。for p=1:d Wpca(:,p)=(1/(sqrt(L(p,p))))*Q*U(:,p)。*Itr(:,num,classnum)。 endend%%%%%%%%%%dimension=size(Tldalpp,1)。for cl=1:class for img=1:ellsample %循環(huán)體開始% X=Tldalpp(:,img,cl)。 end %進(jìn)行匹配------------% %此處可以進(jìn)行修改,利用其他simlarity measure% G2=zeros(1,class)。 Sclass=max(G2)。 endendrate5 總結(jié)和討論 PCA技術(shù)的降維PCA的一大好處是對(duì)數(shù)據(jù)進(jìn)行降維的處理?!o參數(shù)化PCA技術(shù)的另一個(gè)很大的優(yōu)點(diǎn)是,它是完全無參數(shù)限制的。如圖3-7所示,PCA找出的主元將是。則在這種情況下,PCA就會(huì)失效。如圖3-8(a)所示,呈明顯的十字星狀,這種情況下,方差最大的方向并不是最優(yōu)主元方向。對(duì)于的矩陣,通過奇異值分解可以直接得到如下形式:。6 參考文獻(xiàn)[1]Jonathon Shlens,A Tutorial on Principal Component Analysis,New York: New York University Publication,2005.[2]張翠平,蘇光大,人臉識(shí)別技術(shù)綜述,中國(guó)圖像圖形學(xué)報(bào),5(11):885894,2000.[3]何國(guó)輝,甘俊英, PCA類內(nèi)平均臉法在人臉識(shí)別中的應(yīng)用研究,計(jì)算機(jī)應(yīng)用研究,(3):165169, 2006.。形式如下: (3-13)其中,是原矩陣的奇異值。等價(jià)的,保持主元間的正交假設(shè),尋找的主元同樣要使,這一類方法被稱為獨(dú)立主元分解(independent ponent analysis, ICA),如圖3-8(b)所示。圖3-7 黑色點(diǎn)表示采樣數(shù)據(jù),排列成轉(zhuǎn)盤的形狀這類根據(jù)先驗(yàn)知識(shí)對(duì)數(shù)據(jù)預(yù)先進(jìn)行非線性變換的方法就是kernelPCA,它擴(kuò)展了PCA能夠處理的問題范圍,又可以結(jié)合一些先驗(yàn)約束,是比較流行的方法。之間存在著非線性的關(guān)系。但是,這一點(diǎn)同時(shí)也可以看作是缺點(diǎn)。同時(shí)最大程度的保持了原有數(shù)據(jù)的信息。 end end lastresult %進(jìn)行最后結(jié)果的評(píng)估 % if lastresult==cl CorrectMatrix(1,img+(cl1)*ellsample)=1。*Iymean(:,classnum))/(norm(X)*norm(Iymean(:,classnum)))。 for classnum=1:class % Z1 : the mean of Z1 for i=1:ell Iymean(:,classnum)=Iymean(:,classnum)+Iy(:,i,classnum)。 CorrectMatrix=zeros(1,class*ellsample)。for classnum=1:class for num=1:ellsample Tldalpp(:,num,classnum)=Wpca39。 % training feature vector % for classnum=1:class for num=1:ell Y=zeros(d,1)。)。s size is ell * elld=rank(R)。 endendR=zeros(ell*class,ell*class)。for classnum=1:class for i=1:ell Imean=Imean+Itr(:,i,classnum)。 % Training sample feature vectorfor classnum=1:class for e=1:ell Itr(:,e,classnum)=Iv(:,e,classnum)。lda=class1。 % Similarity matrix 的參數(shù)order=1。 % ell training sample。% basic informationdim=size(Iv,1)。endsave StuFaceLab。 i=ceil(j/2)。FileNum=length(filelist)。(4)將測(cè)試人臉同樣投影到空間T上,得到一測(cè)試臉的特征,再和樣本庫中的模式類進(jìn)行相似度量(如歐氏距離)找出最小距離的模式就是識(shí)別的人臉。若取kr, 即只取k個(gè)最大特征根所對(duì)應(yīng)的特征向量(即主要分量)來描述方陣S。(2)將同一人臉的n個(gè)采樣臉,即n個(gè)訓(xùn)練樣本構(gòu)成n個(gè)列向量(這n個(gè)采樣臉數(shù)據(jù)都存在大量的噪聲,我們需要去除噪聲,從中抽取出真正的能代表人臉本質(zhì)特征的主元分量,即特征臉),計(jì)算矢量均值 和去中心化的矩陣。特征臉法是一種基于人臉全局特征的識(shí)別方法。例如彈簧振子例中取出最主要的1個(gè)維度,則數(shù)據(jù)就壓縮了5/6。使用PCA方法進(jìn)行圖