freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

使用模塊化pca方法改進(jìn)面部識(shí)別技術(shù)畢業(yè)論文外文翻譯-資料下載頁

2025-02-28 15:10本頁面

【導(dǎo)讀】Keywords:PCA;Facerecognition;ModularPCA;Poseinvariance;Illumination. industrialrobotics(Nayaretal.,1996),andmobilerobotics(Weng,1996).Butresults

  

【正文】 ,那些描述人臉的向量都有相互的聯(lián)系。我們可以看到同一類的人臉圖像位于圖像空間的某一位置周圍。因此人臉圖像用一組由訓(xùn)練人臉圖像協(xié)方差矩陣產(chǎn)生的特征向量表示。這個(gè)想法來自于特征圖像(我們的案例特征圖像)是去找到一個(gè)更低維空間,在哪兒用短的向量描述人臉圖像。圖 1以圖形的方式闡釋了這個(gè)想法。 計(jì)算特征臉 假設(shè)人臉數(shù)據(jù)庫的人臉圖像是 L*L 的。這些圖像可以被表示為 2L 維的向量,或 維空間的一個(gè)點(diǎn)。一組圖像相當(dāng)于一組在高維空間的點(diǎn)。 因?yàn)槟槻繄D像在結(jié)構(gòu)上是相似的,這些點(diǎn)將不會(huì)隨機(jī)的分布,因此可以使用低緯子空間進(jìn)行描述。 PCA 給出了這個(gè)子空間的基向量(被稱為面部空間)。每個(gè)基向量的長(zhǎng) ,同時(shí)協(xié)防差矩陣的特征向量與原人臉圖像相一致。 1I,2I, ...,MI為一組人臉圖像訓(xùn)練集。平均臉定義為: M11A= IM ii?? ( 1) 每個(gè)臉偏離平均臉程度用向量 YiiIA?? 表示,協(xié)方差矩陣 C 為: M T11C= YM iii Y?? ( 2) 協(xié)方差矩陣的特征向量被計(jì)算出來,同時(shí)選擇 39。M 最大特征值對(duì)應(yīng)的特征向量作為有意義的特征向量。從這些特征向量,每一幅圖像在訓(xùn)練組的分量通過如下計(jì)算出來 .( ) ,TiK K iW E I A i K? ? ? ( 3) 其中 39。KEs是 C 最大的特征值 39。M 對(duì)應(yīng)的特征向量, K 從 1 變化到 39。M 。 分類 測(cè)試圖像 通過以下操作如下放入面部空間 .( )Tte s tK K te s tW E I A K? ? ? ( 4) 權(quán)重 組成一個(gè)向量39。Tp 1 2T = [ W ,W ,. .. ,W ]M,這個(gè)描述每一個(gè)輸入臉部圖像的特征臉的貢獻(xiàn)。這個(gè)向量可以用來使測(cè)試圖像與預(yù)先確定的臉部類相匹配。一個(gè)簡(jiǎn)單的技巧是通過 pT 計(jì)算 testKW 的距離,其中 pT 是 pth 類的均值向量。當(dāng) min( )pD ??時(shí),這個(gè)測(cè)試圖像可以認(rèn)為是 p 類的,其中p test pD W T??和 i? 是閥值。 3 分塊 PCA 方法 基于 PCA 的人臉識(shí)別方法在多姿態(tài)和光照變化的情況下不是非常有效,因?yàn)镻CA 處理每一幅圖像的全部信息,同時(shí)用一組權(quán)值進(jìn)行表示。在上述條件下的權(quán)重向量很大的不同與正常姿態(tài)和光照條件下圖像的權(quán)重向量,因此很難正確的識(shí)別他們。另一方面,如果人臉圖像被分成較小的區(qū) 域,同時(shí)計(jì)算每一個(gè)區(qū)域的權(quán)重向量,這些權(quán)重將會(huì)更加具有人臉本地信息的代表性。當(dāng)只有姿態(tài)或光照一種因素變化時(shí),只有一些人臉區(qū)域?qū)?huì)變化,其他區(qū)域?qū)?huì)保持一致與正常人臉圖像區(qū)域。所以臉部區(qū)域權(quán)重不會(huì)受到變化的姿態(tài)和光照的影響,將緊密地與同一個(gè)人在正常情況下的臉部區(qū)域權(quán)重相匹配。因此期望通過以下分塊 PCA 方法提高識(shí)別率。我們預(yù)計(jì)如果人臉圖像被分成非常小的區(qū)域人臉將可能會(huì)丟失全局信息,同時(shí)這種方法的準(zhǔn)確性可能會(huì)惡化。 在這個(gè)方法中,每一幅在訓(xùn)練集中的圖像被分成 N 個(gè)小的圖像。因此每個(gè)子圖的大小將是 2LN 。這些子圖用數(shù)學(xué)表示為: ( , ) ( ( 1 ) , ( 1 ) ) ,i j i LLI m n I j m j n i jNN? ? ? ? ? ? ( 5) 其中 i從 1到 M, M是訓(xùn)練集中圖像的數(shù)量, j 從 1 到 N, N是子圖的數(shù)量,m和 n從 1到 LN。圖表 2 顯示的是將人臉圖像使用( 5)式在 N=4 時(shí)分成四個(gè)子圖的結(jié)果。 所有訓(xùn)練子圖的均值圖像可以通過以下計(jì)算出來: 111. MN ijijAIMN ??? ?? ( 6) 下一步是通過減去均值來標(biāo)準(zhǔn)化每個(gè)訓(xùn)練子圖: ,ij ijY I A i j? ? ? ( 7) 通過標(biāo)準(zhǔn)化子圖的可以計(jì)算協(xié)防差矩陣如下: 111 .. MN Tij ijijC Y YMN ??? ?? ( 8) 下一步我們發(fā)現(xiàn) C 的特征向量與最大的特征值 39。M 相關(guān)聯(lián)。我們把特征向量記為39。12, ,..., ME E E。通過特征向量計(jì)算權(quán)重如下所示: .( ) , , ,Tp n jK K p n jW E I A p n j K? ? ? ( 9) 其中 K取值為 1,2, … , 39。M ,n 從 1到 ? , ? 為每個(gè)人的圖片數(shù)量, p從 1到P, P 為訓(xùn)練集中人的數(shù)量。同樣也可以使用特征向量即如下所示的方程計(jì)算測(cè)試子圖的權(quán)重。 ( ) ,Tte stjK K te stjW E I A j K? ? ? ( 10) 在訓(xùn)練集中每一類均值權(quán)重集通過類的權(quán)重組計(jì)算出來。如下所示: 39。111 ,Mp jK p n jKKnT W p j?????? ?? ( 11) 下一步通過如下所示計(jì)算出最小距離 39。39。 11Mp j te s tjK p jKKD W TM ???? ( 12) j11NppjDDN ?? ? ( 13) min( )piD ?? , p為一個(gè)特定的值。在訓(xùn)練集對(duì)應(yīng)的人臉類是最接近測(cè)試圖像。因此測(cè)試圖像被公認(rèn)為屬于 pth 人臉類。 4圖像數(shù)據(jù)庫 在 UMIST 和 Yale 兩個(gè)圖像數(shù)據(jù)庫下進(jìn)行評(píng)估傳統(tǒng) PCA 算法和分塊 PCA 算法的表現(xiàn)。 UMIST 數(shù)據(jù)庫圖像有不同的姿態(tài), Yale 數(shù)據(jù)庫圖像有不同的光照和表情方式。在這兩個(gè)數(shù)據(jù)庫中的所有圖像都進(jìn)行了規(guī)范化,并剪切成 64*64 像數(shù)。 UMIST 姿態(tài)數(shù)據(jù)庫 在我們測(cè)試中我們采取了 UMIST 人臉數(shù)據(jù)庫的一部分,它有 20個(gè)不同的人,每人 10 張圖像。每個(gè)人的每個(gè)圖像都是在不同的姿態(tài)和正常的表情下采集的。取出一個(gè)人的十張圖像,只有八張用于訓(xùn)練,其余的兩張用于測(cè)試識(shí)別率。圖3a和 3b 顯示了一個(gè)人的一組分別用于訓(xùn)練和測(cè)試的圖像。在選擇訓(xùn)練和測(cè)試圖像時(shí),測(cè)試這兩個(gè)算法的測(cè)試圖像的頭部姿態(tài)角,要在訓(xùn)練圖像頭部姿態(tài)角度以外。在這個(gè)選擇的訓(xùn)練圖像和測(cè)試圖像下, PCA 算法和分塊 PCA方法可能表現(xiàn)不佳,但是我們的目標(biāo)是用訓(xùn)練圖像頭部姿態(tài)角度以外測(cè)試圖像比較它們的性能。 Yale 表情和光照數(shù)據(jù)庫 Yale 數(shù)據(jù)庫有 15 個(gè)成人的 165 張圖像,每個(gè)人 11 張圖像。這些人臉圖像面部表情和光照是變化的。這些圖像有正常,悲傷,高興,困乏,驚訝和眨眼的表情。也有光源在中心,左邊,右邊的圖像。除了這些,還有戴眼鏡與不戴眼鏡的圖像。取出一個(gè)人的 11 張圖像,只有 8 張用于訓(xùn)練,其他的三張用于測(cè)試識(shí)別率。圖 4a和 4b 顯示了一組一個(gè)人分別用于訓(xùn)練和測(cè)試的圖像。訓(xùn)練圖像和測(cè)試圖像的選擇以方便比較兩種方法的表現(xiàn),其中測(cè)試圖像光照不均勻,有局部遮擋。 我們還進(jìn)行了一些實(shí)驗(yàn),從每個(gè)人的 11 張用于訓(xùn)練和測(cè)試識(shí)別率圖像中留出一幅圖像。重復(fù) 11 次,每次留下不同的圖像。這種測(cè)試去掉一個(gè)的測(cè)試在本文的下面將會(huì)提及。 5測(cè)試結(jié)果 我們測(cè)試了不同數(shù)量特征向量的 PCA 和分塊 PCA 算法的性能??紤]到更多的特征向量將會(huì)提高識(shí)別率,然而計(jì)算成本增加是與特征向量的數(shù)量呈線性關(guān)系。圖 5 顯示了在不同數(shù)量特征向量下 PCA 和分塊 PCA 的識(shí)別率。圖 5所示的是通過使用 Yale 人臉數(shù)據(jù)庫留下一個(gè)測(cè)試的結(jié)果。閥值不能用于此測(cè)試,因?yàn)闆]有拒絕,只有正確識(shí)別或錯(cuò)誤識(shí)別。也可以從圖 5 中觀察出來,隨著 39。M 的增加, PCA和分塊 PCA 的識(shí)別率 都在增加,其中當(dāng) 39。M 30 時(shí),識(shí)別率沒有多少提高。當(dāng) N=4,16,64,256,和 1024 已經(jīng)觀察到了類似的結(jié)果。分塊 PCA 的結(jié)果也已與 Pentland等人( 1994)所描述的分塊特征空間進(jìn)行了比較。據(jù)觀察分塊 PCA 算法提供了更好的識(shí)別率,它不需要檢測(cè)特定部位如眼鏡,鼻子和嘴。 在本文余下的部分的測(cè)試都是在 39。 20M? 下進(jìn)行試驗(yàn)的即特征向量對(duì)應(yīng)著協(xié)方差矩陣 20 個(gè)最大特征值。我們測(cè)試的目的是用姿態(tài)和光照變化的人臉圖像比較兩種算法, 39。M 的變化將會(huì)對(duì)兩種算法有相同影響。如圖 5 所示,因此只有前20個(gè)特征向量在測(cè)試中被考慮。 當(dāng)子圖大小是小于或等于 4*4( N=256),可以從協(xié)方差矩陣得到的特征向量的數(shù)量將小于 20,因此協(xié)方差矩陣大小小于或等于 16*16。對(duì)于 2220,LLNN?的特征向量是被考慮的。例如當(dāng) N=256 時(shí), 16 個(gè)特征向量是被考慮的。對(duì)于 N=4096,該算法逐像素降低了訓(xùn)練圖像和測(cè)試圖像的像素值。我們使用 PCA 方法和模塊PCA 方法重構(gòu)測(cè) 試圖像。在 PCA 方法下,圖像重構(gòu)為 .Tte st K te stKI A E W?? ( 14) 測(cè)試圖像使用分塊 PCA 方法以類似的方式重構(gòu)如下: .Tte stj K te stjKI A E W?? ( 15) 圖 6 和圖 7顯示了來自 UMIST 和 Yale 數(shù)據(jù)庫測(cè)試集的一張人臉圖像使用這兩種方法的重構(gòu)圖像。在這個(gè)圖中,分塊 PCA方法重構(gòu)的圖像與 PCA方法重構(gòu)的圖像有明顯的區(qū)別。 姿態(tài)變化的結(jié)果 在這個(gè)實(shí)驗(yàn)中,我們使用 UMIST 數(shù)據(jù)庫圖像比較兩種方法在大范圍姿態(tài)變化下的識(shí)別率,錯(cuò)誤識(shí)別率和錯(cuò)誤拒絕率。訓(xùn)練和測(cè)試圖像按照 節(jié)所講進(jìn)行選擇。此外,我們從 4 到 4096 改變 N,觀察 N 對(duì)人臉識(shí)別的影響。由于數(shù)據(jù)庫中所有圖像的大小都是 64*64 像素, N最大可以取到 4096,即一個(gè)子圖就是一個(gè)單個(gè)像素。圖 8 顯示了分塊 PCA 方法在 N變化下的識(shí)別率,虛假識(shí)別率和錯(cuò)誤拒絕率。對(duì)于 PCA,它的識(shí)別率為 ,虛假識(shí)別率為 和錯(cuò)誤拒絕率為 . 從結(jié)果我們注意到,分塊 PCA 方法在 N=4 和 16 有稍好的識(shí)別率和虛假識(shí)別率,但傳統(tǒng)的 PCA 方法有稍小的錯(cuò)誤拒絕率。因此該方法在變化的姿態(tài)條件下,相比于 PCA 方法沒有顯著地改善。 表情和光照變化下的結(jié)果 在這個(gè)試驗(yàn)中,我們使用 Yale 數(shù)據(jù)庫中的圖像比較了在表情和光照巨大變化下,兩種方法的識(shí)別率,虛假識(shí)別率和錯(cuò)誤拒絕率。訓(xùn)練圖像和測(cè)試圖像按照 節(jié)所述進(jìn)行選擇。像以前一樣,我們變化 N 從 4 到 4096,以觀察它對(duì)人臉識(shí)別的影響。圖 9顯示分塊 PCA 方法在 N變化下的識(shí)別率,虛假識(shí)別率和錯(cuò)誤拒絕率。對(duì)于 PCA 而言,識(shí)別率為 ,虛假識(shí)別率為 和 錯(cuò)誤拒絕率為 。 第二組實(shí)驗(yàn)是通過取出一個(gè)測(cè)試進(jìn)行的。分塊 PCA 方法得到結(jié)果如圖 10 所示。對(duì)于 PCA 而言,識(shí)別率為 ,虛假識(shí)別率為 和錯(cuò)誤拒絕率為 。 我們可以從實(shí)驗(yàn)結(jié)果觀察到分塊 PCA 方法在 N=4,16 和 64 各方面完全優(yōu)于PCA 方法。然而,在 N=16 時(shí)可以獲得最好的結(jié)果。在 N=16 時(shí),使用 PCA 和分塊PCA 重構(gòu)一張測(cè)試圖像。重構(gòu)的圖像顯示在圖 11,第一張圖像是使用 PCA方法得到的重構(gòu)圖像,第二張是原始圖像,第三張是采用分塊 PCA 在 N=16 獲得重構(gòu)圖像的串聯(lián)。 在光照變化 條件下,基于 PCA 的方法不是非常有效。因?yàn)樗紤]了每幅圖像的全局信息,并使用一組權(quán)重表示它們。在此條件下,測(cè)試圖像的權(quán)重向量非常不同于正常光照下訓(xùn)練圖像的權(quán)重向量,因此很難正確的辨識(shí)它們。對(duì)于分塊PCA 而言,可以觀察到巨大改進(jìn)。因?yàn)槿四槇D像被分成較小的區(qū)域,并計(jì)算每個(gè)區(qū)域的權(quán)重向量。因此權(quán)重向量將會(huì)具有更多的人臉本地信息。因此,在光照變化時(shí),人臉區(qū)域的權(quán)重不會(huì)受到變化的光照的影響,緊密與在正常情況下同一個(gè)的人臉區(qū)域權(quán)重相匹配。在這個(gè)實(shí)驗(yàn)結(jié)果觀察到使用分塊 PCA 取得了更好的識(shí)別結(jié)果。 6 結(jié)論 分塊 PCA 方法 已經(jīng)提出了。它是在人臉識(shí)別領(lǐng)域使用 PCA 方法的一個(gè)改進(jìn)。分塊 PCA 方法在大范圍光照和表情變化下的性能優(yōu)于 PCA 方法。 對(duì)于大范圍的姿態(tài)變化,分塊 PCA 的性能還沒有什么重大改進(jìn)。對(duì)于人臉識(shí)別,分塊 PCA 方法可以作為 PCA 方法的一種替代。特別是,在識(shí)別系統(tǒng)受到大范圍光照和表情變化時(shí),分塊 PCA 方法非常有用。 參考文獻(xiàn): [1] Chellappa ,R. Wilson, . Sirohey,. Human and machine recognition of faces: A surve
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1