freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于pca方法的人臉識別系統(tǒng)建模與實現(xiàn)畢業(yè)論文-預覽頁

2025-07-13 18:39 上一頁面

下一頁面
 

【正文】 )。它對原數(shù)據(jù)進行重新表示。問題轉(zhuǎn)化為如下的形式:(1)怎樣才能最好的表示原數(shù)據(jù)?(2)的基怎樣選擇才是最好的?解決問題的關鍵是如何體現(xiàn)數(shù)據(jù)的特征。噪聲對數(shù)據(jù)的影響是巨大的,如果不能對噪聲進行區(qū)分,就不可能抽取數(shù)據(jù)中有用的信息。而變化的大小由方差來描述(這里的定義是個一致估計量)。圖3-5(a)中只是攝像機A采集數(shù)據(jù)時的所參考的標準正交基,而采集數(shù)據(jù)的真正分布由于攝像機的擺放、攝像機的線性扭曲與拍攝時的抖動等引起了旋轉(zhuǎn)。在新的正交基P(如圖3-5(a)的長短黑實線,假設為)下,則認為采樣點云在長線方向上分布的方差是,而在短線方向上分布的方差是,此時也達到最大。那么怎樣尋找這樣一組方向呢?直接的想法是對基向量進行旋轉(zhuǎn)。有時在實驗中引入了一些不必要的變量。(a)圖所示的情況是低冗余的,從統(tǒng)計學上說,這兩個觀測變量是相互獨立的,它們之間的信息沒有冗余。這也就是PCA中“降維”思想的本源。在統(tǒng)計學中,由協(xié)方差的性質(zhì)可以得到:(1),且當觀測變量,不相關時?!             。?-7)則互相關矩陣如下:(請注意,互相關與協(xié)方差之間只相差一個常數(shù),兩者具有完全相同的物理意義:,協(xié)方差矩陣是除去均值的互相關矩陣,正因為如此,所以下文將兩者的名字不加與區(qū)別)           (3-8)容易發(fā)現(xiàn)協(xié)方差矩陣性質(zhì)如下:(1)是一個的平方對稱矩陣。一般情況下,初始數(shù)據(jù)的協(xié)方差矩陣總是不太好的,表現(xiàn)為信噪比不高(由于實驗中引入了噪聲)且變量間相關度大(實驗者對實際模型的未知性)。對協(xié)方差矩陣進行對角化的方法有很多。它們生成的順序也就是“主元”的排序。(2)在PCA的過程中,可以同時得到新的基向量所對應的“主元排序”,利用這個重要性排序可以方便的對數(shù)據(jù)進行取舍、簡化處理或壓縮。如同彈簧運動的例子,PCA的內(nèi)部模型是連續(xù)的線性空間。使用均值和方差二階統(tǒng)計量對概率分布模型進行充分的描述只限于指數(shù)型概率分布模型(例如高斯分布),也就是說,如果我們考察的數(shù)據(jù)的概率分布并不滿足指數(shù)型概率分布,那么PCA將會失效。不過,所幸的是,根據(jù)中央極限定理(大量起微小作用的任意分布的獨立隨機變量之和的分布近似高斯分布),現(xiàn)實生活中所遇到的大部分采樣數(shù)據(jù)的概率分布都是遵從高斯分布的。(4)主元正交。對進行數(shù)學推導:    ?。?-10)定義,則是一個維的對稱方陣。此時分解出的特征向量不能覆蓋整個維空間,只需要在保證基的正交性的前提下,在剩余的空間中任意取得維正交向量填充的空格即可。(2)矩陣對角線上第i個元素是數(shù)據(jù)在方向的方差。(3)對進行特征分解,求取特征向量以及所對應的特征根并按其絕對值大到小排序。這里要特別介紹的是它在計算機視覺領域的應用,包括如何對圖像進行處理以及在人臉識別方面的特別作用。將它們排成一個矩陣:   (3-12)然后對它們進行PCA處理,找出主元。近些年來,基于對一般PCA方法的改進,結(jié)合ICA、kernelPCA等方法,在主元分析中加入關于人臉圖像的先驗知識,則能得到更好的效果。然后根據(jù)主元的排序去除其中次要的分量,然后變換回原空間,則圖像序列因為維數(shù)降低得到很大的壓縮。所謂訓練就是從先驗的大量實驗數(shù)據(jù)中統(tǒng)計抽取出某類模式的特征,然后將該特征標注為該模式類,測試就是在實踐中,已知一個樣本,用相同或不同于訓練步的方法抽取它的特征,再將該特征與模式類進行相似度度量并進行識別。(1)將MN象素的人臉排成一列向量X:D=MN, D行1列(用D個像素點描述一張人臉存在大量的冗余像素點,這個D正是需要降維的)。同理E中第二大特征根所對應的特征向量的第一個分量代表了矩陣S中第一行數(shù)據(jù)的第二重要成分(第二次要特征),該特征向量的第二個分量代表了矩陣S中第二行數(shù)據(jù)的第二重要成分(第二次要特征),依次類推。平均n張訓練樣本的特征臉庫最終得到一類人臉的特征臉,存入特征臉樣本庫。)。 fa=fa(:)。 end StuFaceLab(:,k,i)=double(fa)。)。ell=5。t=1e7。lpp=NumTotalclass。% step 1 KPCA %Itr=zeros(dim,ell,class)。 % end end% 倒入向量 Iv(dim,ell)% 樣本類數(shù) classImean=zeros(dim,1)。for classnum=1:class for num=1:ell Q(:,num+(classnum1)*ell)=Itr(:,num,classnum)Imean(:,1)。 % R39。LM39。end%% 程序至此得到了線形變換的矩陣 W .Iy=zeros(d,ell,class)。 endend% Tldalpp=zeros(d,ellsample,class)。% 算法性能測試%r=zeros(ellsample,ellsample)。 % X input sample vector % %以下為改進算法, 求每個類的 Z1 的平均值 Iymean=zeros(dimension,class)。 for classnum=1:class G2(1,classnum)=(X39。 %得出最后的結(jié)果----------% for classnum=1:class if Sclass==G2(1,classnum) lastresult=classnum。我們可以對新求出的“主元”向量的重要性進行排序,根據(jù)需要取前面最重要的部分,將后面的維數(shù)省去,可以達到降維從而簡化模型或是對數(shù)據(jù)進行壓縮的效果。在PCA的計算過程中完全不需要人為的設定參數(shù)或是根據(jù)任何經(jīng)驗模型對計算過程進行干預,最后的結(jié)果只與數(shù)據(jù)相關,與用戶是獨立的。但是這顯然不是最優(yōu)和最簡化的主元。但是,如果加入了先驗知識,對數(shù)據(jù)進行某種劃歸或變換(坐標變換),就可以將數(shù)據(jù)轉(zhuǎn)化為以為線性的空間中。在這種非高斯分布的情況下,PCA方法得出的主元并不是最優(yōu)的,在尋找主元時不能將方差作為衡量重要性的標準,要根據(jù)數(shù)據(jù)的分布情況選擇合適的能描述真實分布的變量,然后根據(jù)概率分布式來計算兩個向量上數(shù)據(jù)分布的相關性。其中是一個的矩陣,是一個的矩陣,而是
點擊復制文檔內(nèi)容
規(guī)章制度相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1