freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于特征的人臉檢測系統(tǒng)的設(shè)計(jì)與實(shí)現(xiàn)計(jì)算機(jī)科學(xué)與技術(shù)畢業(yè)論文-閱讀頁

2024-11-23 10:56本頁面
  

【正文】 了人臉 的膚色特征來實(shí)現(xiàn)人臉檢測功能。這里采取的應(yīng)對措施是,對用膚色模型檢測出來 的候選區(qū)域進(jìn)行細(xì)節(jié)驗(yàn)證,排除人體四肢及顏色近似膚色的區(qū)域等非人臉區(qū)域, 來降低錯(cuò)誤報(bào)警率。 膚色模型理論所謂膚色模型,也和其他的數(shù)學(xué)建模一樣,即用一種代數(shù)的(解析的)或查 找表等形式來表達(dá)哪些像素的色彩屬于膚色,或者表征出來某一像素的色彩與膚 色的相似程度。膚色信息的使用可以有效簡化人臉定位,但是它容易受到復(fù)雜背景和亮度變 化的影響[5]。YCbCr 色彩格式的計(jì)算過程和空間坐標(biāo)表示 形式比較簡單,而且實(shí)驗(yàn)結(jié)果表明在 YCbCr 色彩空間中膚色的聚類特性比較好。YCbCr 色彩格式是直接由 RGB 色彩格式通過線性變換得到的,其亮度分量 Y 并不是完全獨(dú)立于色度信息而存在的,所以膚色的聚類區(qū)域也是隨 Y 的不同 而呈非線性變化的趨勢。(a) (b)圖 31 (a)為膚色點(diǎn)于 YCbCr 空間,(b)為膚色點(diǎn)在 CbCr 空間投影從圖中可以看到,在 YCbCr 色彩空間中,膚色聚類是呈兩頭尖的紡錘形狀, 即在 Y 值較大和較小的部分,膚色聚類區(qū)域是隨之縮減的。從中可以得出結(jié) 論,簡單地排除 Y 分類,按照傳統(tǒng)的做法在二維的 CbCr 子平面中尋求膚色的 聚類區(qū)域是比較粗糙的,不完善的,還必須考慮 Y 值不同造成的影響,從而對 YCbCr 色彩格式進(jìn)行非線性分段色彩變換。用這 4 個(gè)邊界來限制膚色聚類區(qū) 域可以很好地適應(yīng)亮度過明或過暗的區(qū)域,從而使膚色模型的魯棒性大大提高。YCbCr坐標(biāo)空間到 YCb’Cr’坐標(biāo)空間的變換過程推導(dǎo)如下[6]:(1)圖 32(a)和(b)中,膚色區(qū)域的中軸線分別用Cb (Y ) 和C r (Y ) 來表示,可以得到Cb (Y ) 和C r (Y ) 的表達(dá)式為:? 108+ ( K i ? Y ) ? (118? 108 ), if (Y K ) ? K ? Y iC b (Y ) = ?( ? ) ? (118? 108 )i?108 + Y K hmin, if ( K h Y )Y max? K h(31)? 154? ( K i ? Y ) ? (154? 144 ), if (Y K ) ?C (Y ) = ?K ? Y( ? ) ? (154 i? 132 )ir Y K?154 ? hmin, if ( K h Y )Y max? K h其中 K i 和 K h 為非線性分段色彩變換的分段閾值,分別為:K i =125,K h =188。(2)同樣,圖 32(a)和(b)中,膚色區(qū)域的寬度分別用Wcb (Y ) 和Wcr (Y ) 來表示,表達(dá)式為:? WLc+ (Y ? Ymin ) ? (Wci ? WLci ) , if (Y K )? i K ? Y iWci (Y ) = ?i( ? ) ? (min? )(32)?WHci +Ymax YWciWHci, if (K h Y )Ymax ? K h其中 i 代表 b 或 r,Wcb = ,WLcb = 23,WHcb = 14,Wcr = ,WLcr = 20,WHcr = 10(3)最后,根據(jù)上面的結(jié)果得到如下的非線性分段色彩變換公式:?C ′ (Y ) = ?(Ci (Y ) ? Ci (Y )) ?Wci+ Ci (K h ), if (Y K i )or(K h Y )(33)i ? Wci (Y )Ci (Y ), if (Y ∈ [K i , K h ])經(jīng)過這樣的非線性分段色彩變換,我們的膚色聚類在 YCb’Cr’空間中的分布情況如圖 32(c)所示。(a) (b) (c) (d)圖 32 (a)為 Cb 隨 Y 的變化,(b)為 Cr 隨 Y 的變化,(c)為變換后的膚色聚類分布,(d) 為投影后的膚色聚類模型按照傳統(tǒng)的方法,可用一個(gè)橢圓來近似這一膚色區(qū)域,如圖 32(d)中綠色的 橢圓。sin 232。cos232。這里的常量是我經(jīng)過實(shí)驗(yàn)處理,稍作修改的,與Anil K. Jain[6]等提出的膚色模型中給出的常數(shù)數(shù)值上有點(diǎn)差異。為了能夠有效地克服由于光照的亮度變化及有色光的照射給檢測造成的困難,autofaceGFB 人臉檢測系統(tǒng)除了使用前面提到的非線性分段色彩 變換技術(shù)外,還使用了 Anil K. Jain 等提出的光照補(bǔ)償技術(shù)[6],以及 Shumate 等 提出的用于消除有色光干擾的色彩平衡技術(shù)[8],通過使用這些技術(shù),來使基于膚 色模型的人臉檢測適應(yīng)光照變化的環(huán)境。由于上一小節(jié)已經(jīng)對非線性分段 色彩變換技術(shù)作了詳細(xì)介紹,這里主要介紹下 Gamma 校正、光照補(bǔ)償和色彩平 衡技術(shù)。其公式如下 : new_pixel_value=old_pixel_value1/。(c)和(d)分別為 Gamma 校正前后得到的膚色區(qū)域,可見,Gamma 校正后 圖像原本較暗的左半邊臉也可以被檢測出來。這種現(xiàn)象在藝術(shù)照片 中更為常見。整幅圖像的其他像素點(diǎn)的 色彩值也都按這一調(diào)整尺度進(jìn)行變換[6]。圖 34 的例子[7]表現(xiàn)了光線補(bǔ)償?shù)淖饔?,其?a)是原圖像,顯然發(fā)生了偏黃 現(xiàn)象,(b)是經(jīng)過光線補(bǔ)償后得到的圖像,而(c)和(d)分別是對(a)和(b)進(jìn)行膚色分 割得到的結(jié)果,從中可以很明顯地看出光線補(bǔ)償?shù)淖饔?。本系統(tǒng)采用色彩平衡的方法來消除有色光的干擾,在這之前應(yīng)先判斷是否有有色光干擾, 否則色彩平衡的結(jié)果可能會(huì)使圖像中人臉的顏色發(fā)生較大改變,反而影響膚色模 型的檢測效果。在現(xiàn)實(shí)世界中,一般來說圖像中的物體和背 景的顏色變化是隨機(jī)的,相互獨(dú)立,因此這個(gè)假設(shè)是合理的。b) 對圖像中的每一個(gè)像素,調(diào)整三分量值分別為:b= (b*GrayWorldValue)/averb。 r= (r*GrayWorldValue)/averr。 g= (g*255)/factor。這里給出一個(gè)例子說明色彩平衡的效果。(a)(b)(c)(d)圖 35色彩平衡的作用 基于膚色特征的人臉檢測的實(shí)現(xiàn)在基于膚色特征的人臉檢測算法的具體實(shí)現(xiàn)中,對膚色進(jìn)行建模得到膚色區(qū) 域后,為了去掉人體四肢及其他近似膚色的非人臉區(qū)域,需要對候選膚色區(qū)域進(jìn) 行驗(yàn)證。 故本模塊沒有借鑒這種方法來判斷候選區(qū)域是否包含眼睛、嘴等器官,而是使用 Sobel 差分方法對候選區(qū)域進(jìn)行驗(yàn)證。這里對原輸入圖像候選區(qū)域的灰度圖進(jìn)行 y方向的圖像差分處理,然后對差 分結(jié)果圖進(jìn)行二值化處理。因?yàn)槊恳粋€(gè)人臉器官特征與人臉區(qū)域有一個(gè)最大比 例,因此當(dāng)一個(gè)人臉候選區(qū)域上存在大于該區(qū)域 20%的“器官”時(shí),將其剔除。 算法偽代碼基于膚色特征的人臉檢測算法的偽代碼如下:1. 輸入待檢測圖像。3. 進(jìn)行色彩空間轉(zhuǎn)換,由 RGB 色彩格式通過線性變換得到 YCbCr 色彩格 式。 Cr=(439*r368*g71*b)/1000+128。4. 對 YCbCr 空間進(jìn)行非線性轉(zhuǎn)換,用來消除色度對亮度的依賴關(guān)系。這里用到的主要是 YCbCr 空間中的色度信息,建模的形 式是橢圓公式匹配兩個(gè)色度分量的距離。7. 腐蝕處理,使非人臉區(qū)域變小,恢復(fù)到膨脹前的大小。9. 再次膨脹和腐蝕,主要是為了得到人臉區(qū)域的像素點(diǎn),方便后面定位人 臉區(qū)域。for i=1,…,輪廓數(shù)目 n1) 計(jì)算第 i 個(gè)輪廓的面積;2) if(輪廓面積=600) 認(rèn)為是人臉候選區(qū)域,計(jì)算輪廓的最外面矩形邊界;3) 使用 Sobel 差分方法對候選區(qū)域進(jìn)行驗(yàn)證。else像素置為黑色。 算法實(shí)現(xiàn)流程圖圖 36 基于膚色特征的人臉檢測算法流程圖 測試及評價(jià)測試的人臉圖像由數(shù)碼相機(jī)采集和互聯(lián)網(wǎng)下載,具有不同的大小,不同的復(fù) 雜背景,光照有亮有暗,部分有有色光照射,人臉尺寸有大有小,既有單人臉也 有多人臉,既有正面人臉也有側(cè)面人臉,有白種、黃種和黑種人,除了人臉,圖 像中還出現(xiàn)人體四肢等皮膚區(qū)域。每幅圖像的檢測速度隨圖像大小而 變化,圖像越小,檢測耗時(shí)越少??梢钥闯觯谀w色特征的算法檢測人臉?biāo)俣群芸?,能夠達(dá)到 實(shí)時(shí)的要求。從圖中可以看出,該算法可以正確檢 測不同光照條件下,人臉圖像大小各不相同,膚色各異的人臉圖像,且能夠檢測 任意姿態(tài)下,任意表情的人臉,檢測效果非常好。而當(dāng)四肢出現(xiàn)交疊時(shí),特別是多人的合照中兩人的四肢交疊在一起時(shí), 容易發(fā)生誤檢。圖 37 檢測結(jié)果示例為了說明程序中 Sobel 驗(yàn)證的作用,下面給出了幾幅進(jìn)行 Sobel 驗(yàn)證前后的 對比圖。同樣,圖 38(c)中有三個(gè)四肢區(qū)域被誤檢,應(yīng)用 Sobel 驗(yàn)證 后,圖 38(d)所示,誤檢區(qū)域被排除。但該算法具有誤檢率高的缺點(diǎn),且檢測結(jié)果直 接依賴于所使用的分類器,當(dāng)使用正面人臉分類器時(shí),對側(cè)面人臉檢測效果不佳。其一, 為了降低誤檢率,分別進(jìn)行膚色驗(yàn)證和眼睛器官驗(yàn)證,能有效去掉一些誤檢區(qū)域, 從而最大限度的降低系統(tǒng)的錯(cuò)誤報(bào)警率,而又盡量不影響正確率?;?Boosted Cascade 算法的人臉檢測及其改進(jìn) 方案的總體結(jié)構(gòu)用圖 41 表示如下:圖 41 基于 Boosted Cascade 算法的人臉檢測的總體結(jié)構(gòu) Boosted Cascade 算法原理Boosted Cascade 算法最初由 Paul Viola 提出,并由 Rainer Lienhart 對這一算 法進(jìn)行了改善[11]。分類器中的“級聯(lián)”是指最終的分類器是由多級分類器 級聯(lián)組成,其中每一級分類器都是一個(gè)“強(qiáng)分類器”,是若干個(gè)被稱之為“弱分 類器”的集成,而每一個(gè)弱分類器對應(yīng)一個(gè)“弱特征”(Haar 特征),該特征可 以在一定程度上區(qū)分人臉和非人臉。檢測到人臉區(qū)域分類器輸出為 1,否則輸出為 0。這些特征必須足夠簡單 且容易計(jì)算,才能達(dá)到運(yùn)算速度的要求。這涉及 到如何從諸多的 Haar 特征中挑選出最有效的特征組合來訓(xùn)練分類器,使得它足 以區(qū)分人臉和非人臉。 Haar 特征的選取及特征值的計(jì)算目前的算法主要利用下面的 Haar 特征[11],如圖 42 所示。Haar 特征值是指圖像上兩個(gè)或者多個(gè)形狀大小相同的矩形內(nèi) 部所有像素灰度值之和的差值。每個(gè)矩形框內(nèi)的像素和都可以通過積分圖像很快 計(jì)算出來。有了積分圖,上述 矩形特征就可以通過很少的計(jì)算量得到。兩個(gè)矩形內(nèi)像素和的差可以由積分圖上的八 點(diǎn)得到。圖 43 點(diǎn)(x,y)處的積分圖像值圖 44 圖中矩形 D 內(nèi)的像素和可由積分圖上的四點(diǎn)得到。記∑ y ≤ y i ( x , y 1 ) 是原圖像(x,y)點(diǎn)所在列縱坐標(biāo)不超過該點(diǎn)的所有像素灰度的和,則有下面的遞推公式[12]:s( x, y) = s( x, y ? 1) + i( x, y),ii( x, y) = ii( x ? 1, y) + s( x, y).(42)進(jìn)行多尺度檢測時(shí),采用縮放特征模板的方法,即使在任意尺度搜索,也可以使 用這一個(gè)積分圖像。 可見,Haar 特征確實(shí)是簡單且容易計(jì)算。圖 45 顯示了由 Boosted Cascade 算法選擇的兩個(gè) Haar 特征的例子[12]。從實(shí)驗(yàn)結(jié)果來看,檢測器顯然分別利用 了眼部區(qū)域亮度低于臉頰和雙眼亮度低于眉心的特點(diǎn)確定了人臉的候選區(qū)域。而在一個(gè) 2020 像素大小 的小窗口內(nèi),就有數(shù)十萬個(gè)不同大小及其在小窗口所在位置不同的 Haar 矩形特征,這些特征并不是都對人臉檢測有效,因此從特征選擇的觀點(diǎn)來看,需要從這么多的特征中挑選出最有效的特征組合,并用挑選出的這些特征構(gòu)成一個(gè)分類 器。每一層強(qiáng)分類器都是若干 Haar 弱特征的帶權(quán)值的線性組合,為了達(dá)到預(yù)定 的性能,即預(yù)定的檢測正確率和錯(cuò)誤報(bào)警率,找到有效的弱特征是十分重要的。一個(gè)子窗口 x 的弱分類器 h j ( x)11包括如下部分[13]:該子窗口的矩形特征值 f符號因子 p j ,如下式所示:j ( x) ,閾值232。 j, 其他(43)分類器學(xué)習(xí)的算法基本框架如下[13]:1. 給定一組包含人臉和非人臉的訓(xùn)練圖像。1 。t ;2) 對每一個(gè)特征 j,訓(xùn)練一個(gè)分類器 h j ,且該分類器只對應(yīng)一個(gè)特征;3) 選取使錯(cuò)誤率達(dá)到最小的分類器 ht ;4) 更新權(quán)值249。4. 得到最終的強(qiáng)分類器 h(x)。圖 46 多層分類器級聯(lián)結(jié)構(gòu)它是一種由粗到細(xì)的結(jié)構(gòu),其中每一層都可以選取一個(gè) boosting 算法(權(quán)重 投票),并利用基礎(chǔ)分類器的自我訓(xùn)練得到,這里的基礎(chǔ)分類器(弱分類器)是 至少有兩個(gè)葉結(jié)點(diǎn)的決策樹分類器。用于訓(xùn)練后一層分類器的反例樣本集是從當(dāng)前分類器對非人臉圖像集進(jìn)行檢測后判斷為正例的但事實(shí)上沒有人臉的那些圖像中獲得的,顯然,分類器的層數(shù)越高,對于該分 類器的反例就越接近人臉,這時(shí)就對該層分類器加入更多的弱特征來排
點(diǎn)擊復(fù)制文檔內(nèi)容
黨政相關(guān)相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1