freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于信息融合的面部表情分析與識別-預(yù)覽頁

2024-10-31 10:42 上一頁面

下一頁面
 

【正文】 部表情識別 3. 將支持向量機(jī)理論和信息融合理論結(jié)合在一起,提出基于基于 SVM的多特征多分類器融合的面部表情識別 4. 將徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)用于面部表情特征的融合上,提出基于 RBF網(wǎng)絡(luò)的多特征融合的面部表情識別 信息融合與面部表情分析 ? 信息融合就是把來自多個(gè)信息源的目標(biāo)信息合并歸納為一個(gè)具有同意表示形式輸出的推理過程 , 其基本的出發(fā)點(diǎn)是通過對這些信息源所提供的信息的合理支配和使用 , 利用多個(gè)信源在時(shí)間或空間上的冗余性和互補(bǔ)性對這些信息進(jìn)行綜合處理 , 以獲得對被測對象具有一致性的解釋和描述 , 使得該信息系統(tǒng)獲得比它得各個(gè)組成部分更優(yōu)越的性能。其中 MIT、 CMU、Maryland 大學(xué)、 Standford 大學(xué)、日本城蹊大學(xué)、東京大學(xué)、 ATR 研究所的貢獻(xiàn)尤為突出 ?;谛畔⑷诤系拿娌勘砬榉治雠c識別 研 究 生:劉 松 指導(dǎo)老師:應(yīng)自爐 學(xué)科專業(yè):信號與信息處理 論文選題來源 ?廣東自然科學(xué)基金項(xiàng)目: ( 032356) 研究現(xiàn)狀 ? 國際上 對 人臉面部表情識別的研究 現(xiàn)在逐漸成為科研熱點(diǎn)。美國、日本、英國、德國、荷蘭、法國等經(jīng)濟(jì)發(fā)達(dá)國家和發(fā)展中國家如印度、新加坡都有專門的研究組進(jìn)行這方面的研究。 面部表情識別: 就是將待識別的人臉面部表情和數(shù)據(jù)庫中的已知人臉面部表情比較 , 得出相關(guān)信息 。 人臉圖像人臉圖像人臉圖像像素層融合特征提取面部表情識別識別結(jié)果基于特征層融合的面部表情識別 這種方法對每個(gè)傳感器的觀測數(shù)據(jù)進(jìn)行特征的抽取以得到一個(gè)特征向量 , 然后把這些特征向量融合起來并根據(jù)融合后得到的特征向量進(jìn)行面部表情識別及判定。從日本女性表情數(shù)據(jù)庫中( JAFFE)選取 120幅圖像,共 10個(gè)人, 12幅 /人,其中 84幅圖像作為訓(xùn)練樣本, 7個(gè)人, 12幅 /人,測試樣本為 36幅圖像, 3個(gè)人, 12幅 /人。 ,確定待識別的樣本 的所屬類別。PCA 選擇最優(yōu)的投影變換 : 是按照降序排列的前 個(gè)特征值對應(yīng)的特征向量 , 這種變換變化就稱為主元分析 。 每一類的均值為: 總均值為: 類間離散度矩陣 : 相對于傳統(tǒng)的主元分析 , 其基本區(qū)別是以每一類的平均值代替類內(nèi)的具體圖像 , 我們稱為 MPCA 。 主要包括幾何歸一化和灰度歸一化 。 為 KL變換生成矩陣 , 進(jìn)行 KL變換 。 特征向量具體選取多少 , 本文采取實(shí)驗(yàn)的方法進(jìn)行確定 。 , 確定待識別的樣本 的所屬類別 。 利用矩陣分塊技術(shù) ,令 在矩陣 是對稱矩陣的條件下 ,分別用 和 來代替 和 后并不影響 Fisher準(zhǔn)則函數(shù)的取值 , 然而 和 均為分塊對角矩陣 , 這樣替換后 , 計(jì)算量將大幅度下降 。39。BS 39。39。 讀入每一個(gè)二維的人臉圖像數(shù)據(jù)并轉(zhuǎn)化為一維的向量 , 對于一個(gè)表情的人臉圖像 , 選擇一定數(shù)量的圖像構(gòu)成訓(xùn)練集 , 其余的構(gòu)成測試集 , 假定圖像的大小是 w*h ( w和 h分別維圖像的寬度和高度 ) , 用于訓(xùn)練的人臉個(gè)數(shù)是 ,n1測試的圖像個(gè)數(shù)是 n2, 令 m=w*h, 則訓(xùn)練集是一個(gè) m*n1的矩陣 , 測試集是 m*n2的矩陣 。 ? ?Timiii xxxx , 21 ??39。 然后選取其中一部分構(gòu)造特征子空間 。 每一幅人臉圖像投影到特征子空間以后 , 就對應(yīng)于子空間中的一個(gè)點(diǎn) 。 . ?39。識別結(jié)構(gòu)如下: SOMMLP基于網(wǎng)絡(luò)級聯(lián)的面部表情識別子系統(tǒng)PCA最近距離分類器基于PCA和最近距離分類器級聯(lián)的表情識別子系統(tǒng)FLD最大相關(guān)分類器基于FLD與最大相關(guān)分類器級聯(lián)的表情識別子系統(tǒng)幾何關(guān)系最近鄰距離分類器基于幾何關(guān)系與最近鄰距離分類器級聯(lián)的識別子系統(tǒng)圖像預(yù)處理SV M信息融合中心識別結(jié)果基于基于 SVM的多特征多分類器融合的面部表情識別 ?基于 SVM信息融合的面部表情識別結(jié)構(gòu) ?支持向量機(jī)和最優(yōu)超平面 ?SVM融合原理 ?SVM融合函數(shù)以及融合模型 ?幾種常用的核函數(shù) ?基于 SVM信息融合的面部表情識別流程 ?實(shí)驗(yàn)結(jié)果 支持向量機(jī)和最優(yōu)超平面 支持向量機(jī) (SVM) 是一種基于結(jié)構(gòu)風(fēng)險(xiǎn)最小化原則的學(xué)習(xí)方法 ,它可以用來解決三大問題 :模式識別 、 函數(shù)的回歸估計(jì)及分布密度函數(shù)的估計(jì) 。為了很好的識別人臉表情 , 基于支持向量機(jī)的決策融合應(yīng)作如下處理:首先 , 將多種分類器的決策通過非線性映射 映射到一個(gè)高維空間中去 ,然后 , 在高維空間中進(jìn)行線性回歸 。 ? ?GFGFGF xxx 1221 , ?實(shí)驗(yàn)結(jié)果 在兩個(gè)數(shù)據(jù)庫上進(jìn)行實(shí)驗(yàn),從耶魯大學(xué)的 Yale Face 數(shù)據(jù)庫中選取 60幅人臉圖像,共 15個(gè)人,4幅 /人,其中訓(xùn)練樣本 56幅, 14個(gè)人, 4幅 /人,測試樣本為剩下的 4幅圖像, 1個(gè)人, 4/人,通過隨機(jī)變換訓(xùn)練樣本和測試樣本,我們重復(fù) 15次這樣的實(shí)驗(yàn)。 其輸出是由隱節(jié)點(diǎn)基函數(shù)的線性組合計(jì)算得到。 在 Yale face數(shù)據(jù)庫上用 =52維特征向量構(gòu)造特征子空間 。 Yale face 數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果 表情類型 GF PCA FLD RBFSN Happy % % % 80% Normal % % % 80% Sad % 60% % % Surprised 80% % 80% % 日本女性表情數(shù)據(jù)庫上的實(shí)驗(yàn)結(jié)果 表情類型 GF PCA FLD RBFS Happy 80% 70% % % Normal % %% % 80% Sad % % 70% % Surprised % % 80%% % 展 望 ? 人臉的自動分割 。 ? 基于代數(shù)特征的面部表情識別方法 。 攻讀碩士期間發(fā)表論文 《 基于局部特征和整體特征融合的面部表情識別 》 , 電子技術(shù)應(yīng)用 , 2020年第 3期 《 基于 SVM信息融合的面部表情識別 》 , 五邑大學(xué)學(xué)報(bào) ( 自然科學(xué)版 ) , 已錄用 謝 謝!
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1