freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)設(shè)計(jì)-人臉面部識(shí)別系統(tǒng)設(shè)計(jì)-閱讀頁(yè)

2024-12-23 19:51本頁(yè)面
  

【正文】 誤報(bào)率的關(guān)鍵。 物體分割方法大體上有 3 大類方法:基于像素的方法,基于邊界的方法和基于區(qū)域的方法。基于邊界的方法由于處理的像素?cái)?shù)量相對(duì)較少,各 像素點(diǎn)間的相鄰關(guān)系也相對(duì)簡(jiǎn)單,所以處理起來的速度要比基于區(qū)域的方法快 ;但另一方面,由于基于邊界的方法是從局部特性來求圖像整體的分割,因此在全局宏觀性質(zhì)的考慮上不如基于區(qū)域的方法。算法的流程如圖 42所示。 ① 去噪聲處理 在完全沒有先驗(yàn)知識(shí)的情況下,對(duì)于一些獨(dú)立 的膚色像素點(diǎn),想將它們歸為一個(gè)個(gè)人臉區(qū)域,很自然會(huì)想到找連通區(qū)的 方法。但由于噪聲 普遍存在于數(shù)字圖像中,還有基于膚色模型的分割結(jié)果存在判斷失誤的情況,都會(huì)在連通的人臉區(qū)域中產(chǎn)生非膚色的噪聲。 本程序采用了一種基于像素“密度”的濾波方法來去除噪聲。直觀地講,就是在以每一個(gè)膚色像素為中心的 5*5 領(lǐng)域內(nèi)統(tǒng)計(jì)膚色像素的個(gè)數(shù),超過半數(shù) 時(shí)中心點(diǎn)保留為膚色,否則認(rèn)為是非膚色。為提高人臉區(qū)域提取算法的速度,本程序采用如下的膚色區(qū)域邊界提取算法:掃描圖像一遍,將與非膚色像素點(diǎn)相鄰的膚色像素點(diǎn)提取出來作為膚色區(qū)域的邊界。 由上面所述的邊界提取算法得 到的膚色區(qū)域邊界,這樣的邊界上點(diǎn)和點(diǎn)之間的相鄰關(guān)系是遵循四連通原則的,即在以一個(gè)像素點(diǎn)為中心的 3*3 領(lǐng)域內(nèi),按照上、下、左、右 4 個(gè)方向來跟蹤邊界。 但是,后邊的尋找初始的人臉區(qū)域外接矩形的算法是基于邊界的,所以邊界點(diǎn)數(shù)目越少越有利于提高算法性能。例如:過于接近的邊界點(diǎn)會(huì)導(dǎo)致不應(yīng)該出現(xiàn)的小矩形的出現(xiàn); 2*2 的小正方形中的 4 個(gè)像素點(diǎn)如果都是邊界點(diǎn)就會(huì)導(dǎo)致邊界跟蹤失敗。這樣一來,冗余的邊界點(diǎn)被減少,邊界相鄰關(guān)系也更加簡(jiǎn)答,利用四連通原則來判斷邊界的連通和閉合關(guān)系就會(huì)減少失誤和跟蹤失敗的現(xiàn)象?;谌缦聨讞l論據(jù),可以知道“簡(jiǎn)化四連通邊界”得到的外接矩形可以找到人臉區(qū)域的外接矩形。閉合的“簡(jiǎn)化四連通邊界”內(nèi)部還可能存在閉合的或者不閉合的“簡(jiǎn)化四連通邊界”,也就是說可能 還存在連通的非膚色區(qū)域,但考慮到預(yù)處理的前提是盡可能包括膚色即人臉區(qū)域,所以在沒有其他先驗(yàn)知識(shí)的情況下,應(yīng)該講這樣的膚色區(qū)域用一個(gè)矩形包圍起來,參加后面的人臉檢測(cè)。 論據(jù)二:由于受到噪聲和邊界提取并不完全精確等因素的影響,找到的“簡(jiǎn)化四連通邊界”也并 不一定都是閉合的。下面就是由邊界的連通性和閉合性得到的初始的一系列矩形即提取人臉區(qū)域外接矩形的具體算法。 第 2 步:在 圖像中的邊界點(diǎn)中從下到上、從左到右尋找一個(gè)未檢測(cè)過的邊界點(diǎn),即標(biāo)志域?yàn)椤拔礄z測(cè)過的邊界點(diǎn)”的點(diǎn)。 第 3 步:從這一“邊界跟蹤的起始點(diǎn)”開始,按照四連通的原則,在其上、下、左、右的 4個(gè)鄰接點(diǎn)中尋找“未檢測(cè)過的邊界點(diǎn)”,因?yàn)椴淮嬖诠铝⒌倪吔琰c(diǎn),所以這個(gè)點(diǎn)一定能找到,將其標(biāo)志域改為“已檢測(cè)過的邊界點(diǎn)”,并將其作為當(dāng)前操作點(diǎn),轉(zhuǎn)第 4 步。如果找到,轉(zhuǎn)第 5 步;否則轉(zhuǎn)第 6步。如果新找到的點(diǎn)是“邊界跟蹤的起始點(diǎn)”,要判斷這一點(diǎn)與當(dāng)前操作點(diǎn)是否“互相找到對(duì)方”,如果是,仍以原來那個(gè)當(dāng)前操作點(diǎn)開始,轉(zhuǎn)回第 4 步;如果不是,將“邊界跟蹤的起始點(diǎn)”的標(biāo)志域改為“已檢測(cè)過的邊界點(diǎn)”,并轉(zhuǎn)第 6 步。 第 7 步:整個(gè)圖像中的人臉區(qū)域?qū)ふ彝戤?,得到了一系列外接矩形? 尤其可能出現(xiàn)一個(gè)封閉的膚色連通區(qū)的邊界被跟蹤成了幾小段的情況,所以這 一步的歸并處理也顯得必不可少。 第 2 步:當(dāng)兩個(gè)矩形的邊界接觸或兩個(gè)矩形出現(xiàn)重疊現(xiàn)象時(shí),用這兩個(gè)矩形公共的外接矩形來代替這兩個(gè)矩形。 經(jīng)過這樣的歸并處理以后,就可以得到最終的輸出矩形,即膚色分割處理長(zhǎng) 春 大 學(xué) 畢業(yè)設(shè)計(jì)(論文)紙 共 37 頁(yè) 第 20 頁(yè) ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ 裝 ┊ ┊ ┊ ┊ ┊ 訂 ┊ ┊ ┊ ┊ ┊ 線 ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ 的最終結(jié)果。 ( 1)基于相似度的方法 首先定義 r=R/(R+G+B),b=B/(R+G+B),這樣把三維的 RGB 降為二維。 那么可以采用訓(xùn)練的方法來 計(jì)算得到一個(gè) 分布中心, 然后根據(jù)所考察的像素離該中心的遠(yuǎn)近得到一個(gè)和膚色相似的度,繼而得到一個(gè)原圖的相似度分布圖,再按照一定的規(guī)則對(duì)該分布圖二值化,以最終確定膚色的區(qū)域。如下面的公式: M=E(x), C=E((xM)(xM)T) x=[r,b]T ( 45) 程序中提供了訓(xùn)練參數(shù)的功能,可以用訓(xùn)練的參數(shù)取代默認(rèn)參數(shù)。 核心代碼如下: //////////////////////////////////////////////////////////////// //計(jì)算相似度 //////////////////////////////////////////////////////////////// for(i=0。 i++) { for(j=0。 j++) { double x1,x2。 x1 = 。 double t。 t /= (brcov[0][0]*brcov[1][1]brcov[0][1]*brcov[1][0])。 m_pLikeliHoodArray[i][j] = exp(t)。 double max = 。 im_nHeight。 jm_nWidth。 圖 43 相似度計(jì)算圖 ///////////////////////////////////////////////////////////////////////// //二值化圖像 ///////////////////////////////////////////////////////////////////////// for(i=0。 i++) for(j=0。 j++) { if(m_pLikeliHoodArray[i][j]k*+) m_pBinaryArray[i][j] = 1。 } 長(zhǎng) 春 大 學(xué) 畢業(yè)設(shè)計(jì)(論文)紙 共 37 頁(yè) 第 22 頁(yè) ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ 裝 ┊ ┊ ┊ ┊ ┊ 訂 ┊ ┊ ┊ ┊ ┊ 線 ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ 圖 44 二值化圖 ( 2)基于皮膚區(qū)域、頭發(fā)區(qū)域的方法 r=R/R+G+B,g=G/R+G+B,Y=++ ( 46) 其中 RGB 為原圖像素的值。同時(shí),當(dāng) Y40 是,該區(qū)域可能使頭發(fā)的顏色。然后那些上面是頭發(fā),下面是膚色的區(qū)域,并且滿足面積大于一定的域值,這樣的區(qū)域可能就是人臉。 核心代碼如下: ////////////////////////////////////////////////////////////////////// // 標(biāo)記臉和頭發(fā)的位置 ////////////////////////////////////////////////////////////////////// for(i=0。i++) for(j=0。j++) { double r,g,Y,temp。 長(zhǎng) 春 大 學(xué) 畢業(yè)設(shè)計(jì)(論文)紙 共 37 頁(yè) 第 23 頁(yè) ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ 裝 ┊ ┊ ┊ ┊ ┊ 訂 ┊ ┊ ┊ ┊ ┊ 線 ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ r = (double)m_pSourceData[i][j].rgbRed/temp。 Y = *m_pSourceData[i][j].rgbRed+*m_pSourceData[i][j].rgbGreen +*m_pSourceData[i][j].rgbBlue。amp。amp。amp。amp。amp。 //臉的位置 } else if(Y40) { m_pBinaryArray[i][j] = 1。 //什么也不是 } } 圖 45 臉和頭發(fā)計(jì)算圖 人臉特征的檢測(cè) 特征檢測(cè)在人臉識(shí)別、驗(yàn)證和建模中都具有重要的意義,因?yàn)檠劬?、鼻子和嘴巴等特征集中了人臉的大部分信息? 下面介紹人臉特征檢測(cè)算法??梢栽诘头直媛氏绿崛∷竭吘墸缓笳业饺四槄^(qū)域內(nèi)富含這些邊緣的連通區(qū),作為人臉特征的候選區(qū)域。對(duì)正面的人臉來說,眼睛、嘴巴等特征和整個(gè)人臉的尺寸之間存在先驗(yàn)的約束關(guān)系,這就是人臉結(jié)構(gòu)的恒常性,因此利用這些約束關(guān)系,確定特征區(qū)域的大?。ㄒ?yàn)橄日已劬Γ鸵匝劬Φ拇笮闇?zhǔn),然后再調(diào)整 嘴巴的大小)。 ( 1)人顏色篩選 無論是眼睛還是嘴巴,都位于人臉上的非膚色區(qū)域,而且眼睛的顏色特征黑白分明。 ( 2)雙眼的定位 把篩選過的特征區(qū)域兩兩配對(duì),再用 PCA 模板進(jìn)行驗(yàn)證,就可以得到真正的雙眼。由于假定姿態(tài)是正的,雙眼必定位于人臉的上半部分,它們的 連線是近似水平的,而且它們中心比眉毛低。 ( 3)嘴巴的定位 找到雙眼之后,可以在它們的下方搜索候選區(qū)特征區(qū)域,尋找非膚色面積較大、近似位于雙眼對(duì)稱軸上的候選作為嘴巴。 雙眼和嘴巴的輪廓提取 確定了雙眼和嘴巴的位置之后,還要精確地找到它們的輪廓。上述整體方法雖然更魯棒,但過分依賴與圖像本身,最后的結(jié)果往往細(xì)節(jié)過多,而且有時(shí)候會(huì)因初 始值不好而誤收斂。這樣既避免了局部檢測(cè)方法不穩(wěn)定的問題,又解決了上述方法中細(xì)節(jié)過多和誤收斂的問題。 4 段曲線的表達(dá)式為: h1 w1 θ w3 x0,y0 h2 x 圖 47 眼睛輪廓的模型 長(zhǎng) 春 大 學(xué) 畢業(yè)設(shè)計(jì)(論文)紙 共 37 頁(yè) 第 26 頁(yè) ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ 裝 ┊ ┊ ┊ ┊ ┊ 訂 ┊ ┊ ┊ ┊ ┊ 線 ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ ┊ y=h1(1x2/w12) w1≤ x≤ 0 y=h1(1x2/w22) 0≤ x≤ w2 ( 48) y=h2((x+w1w3)2/w321) w1≤ x≤ w3 w1 y=h2((x+w1w3)2/ (w1+w2w3)21) w3 w1≤ x≤ w2 評(píng)價(jià)函數(shù)的選擇是關(guān)鍵。因此,先對(duì)圖像進(jìn)行邊緣提取,然后作適當(dāng)尺度的閉運(yùn)算,就可以使眼睛內(nèi)部形成單一的高亮度區(qū)。因此可以定義評(píng)價(jià)函數(shù)如下: minC=∮ Φ D+I(x)dx∮ Φ DI(x)dx ( 49) 其中 D表示眼睛區(qū)域,Φ D+表示眼睛輪廓之外的帶狀區(qū)域,Φ D表示輪廓之內(nèi)的帶狀區(qū)域。 ( 2)嘴巴輪廓的提取 嘴巴輪廓的模型如圖 45所示,由兩段四次曲線組成,曲線的參數(shù)有 7個(gè):嘴巴的中心( x0,y0)、連接兩嘴角的直線傾角θ、上下半嘴的高度 h1和 h2嘴角到嘴巴中心的距離 w,以及上下半嘴的四次項(xiàng)系數(shù) q1和 q
點(diǎn)擊復(fù)制文檔內(nèi)容
公司管理相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1