freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于opencv的人臉檢測(cè)_畢設(shè)論文-資料下載頁(yè)

2025-11-03 15:13本頁(yè)面

【導(dǎo)讀】定所有人臉的位置與大小的過(guò)程。人臉檢測(cè)技術(shù)不僅是人臉識(shí)別、表情識(shí)別、人臉跟。也引起了廣泛的重視。本論文簡(jiǎn)單介紹了國(guó)內(nèi)外人臉識(shí)別技術(shù)研究及應(yīng)用的發(fā)展現(xiàn)狀及其難點(diǎn)分析。絡(luò)、隱馬爾可夫模型方法、支持向量機(jī)。是“絕對(duì)多數(shù)”的方法。在第五章詳細(xì)分析了AdaBoost算法檢測(cè)速度快、可以檢測(cè)。任意尺度的圖像的特點(diǎn)。源代碼中設(shè)計(jì)了一些基礎(chǔ)的數(shù)據(jù)類型和一些幫助數(shù)據(jù)類型。一個(gè)基于OpenCV的人臉檢測(cè)系統(tǒng),進(jìn)行了人臉檢測(cè)仿真,并對(duì)其結(jié)果進(jìn)行分析。

  

【正文】 功的學(xué)習(xí)被定義為形式化的概率理淪,其模型如圖所示。 圖 41 PAC學(xué)習(xí)模型 從圖中知 PAC模型是與分布無(wú)關(guān)的,因?qū)W(xué)習(xí)器來(lái)說(shuō),實(shí)例上的分布是未知的。該定義不要求學(xué)習(xí)器輸出零錯(cuò)誤率的假設(shè),而只要求其錯(cuò)誤率被限定在某常數(shù)ε的范圍內(nèi)(ε可以任意小 );同時(shí)也 不要求學(xué)習(xí)器對(duì)所有的隨機(jī)抽取樣本序列都能成功,只要其失敗的概率被限定在某個(gè)常數(shù)δ的范圍內(nèi) (δ也可取任意小 )即可。這樣將學(xué)習(xí)到一個(gè)可能近似正確的假設(shè)。 PAC 模型的不足 在實(shí)際的機(jī)器學(xué)習(xí)中, PAC模型的不足有:模型中強(qiáng)調(diào)最壞情況,它用最壞情況模型來(lái)測(cè)量學(xué)習(xí)算法的計(jì)算復(fù)雜度及對(duì)概念空間中的每個(gè)目標(biāo)概念和實(shí)例空間上的每個(gè)分布,用最壞情況下所需要的隨機(jī)樣本數(shù)作為其樣本復(fù)雜度的定義,使得它在實(shí)際中不可用;定義中的目標(biāo)概念和無(wú)噪聲的訓(xùn)練數(shù)據(jù)在實(shí)際中是不現(xiàn)實(shí)的。 樣本復(fù)雜度的最壞情況定義意味著即使能準(zhǔn)確地計(jì) 算出某一算法的樣本復(fù)雜度,仍 對(duì) 手 學(xué) 習(xí) 器 樣本 產(chǎn)生 器 EX 分布 D c C?及 目 標(biāo) 概 念 概念類 C 準(zhǔn)確度 ? 置信度 ? 樣本請(qǐng)求 帶標(biāo)記隨機(jī)實(shí)例 21 然得過(guò)高估計(jì)假設(shè)的出錯(cuò)率,這是因?yàn)樗皇怯?jì)算某一算法的樣本復(fù)雜度 (即使存在一個(gè)簡(jiǎn)單的一致算法 ),而是對(duì)任意一致算法都成立的一個(gè)樣本復(fù)雜度的上界。這就使得基本的 PAC模型不能預(yù)測(cè)學(xué)習(xí)曲線 (1earning curve)。 Boosting 方法 Boosting 原意為提升、加強(qiáng)?,F(xiàn)在一般指的是將弱學(xué)習(xí)算法提升為強(qiáng)學(xué)習(xí)算法的一類算法。 Boosting 算法是在 Kearns 和 Valiant 證明后才真正成熟起來(lái)的。 1990 年, Schapire 最先構(gòu)造出一種多項(xiàng)式級(jí)的 算法,即最初的 Boosting算法。這種算法可以將弱分類規(guī)則轉(zhuǎn)化成強(qiáng)分類規(guī)則。一年后, Freund 提出了一種效率更高的Boosting 算法。 1993 年, Drucker 和 Schapire 第一次以神經(jīng)網(wǎng)絡(luò)作為弱學(xué)習(xí)器,應(yīng)用Boosting 算法來(lái)解決實(shí)際的 OCR 問(wèn)題。 Boosting 算法在分類、建模、圖像分割、數(shù)據(jù)挖掘等領(lǐng)域均已得到簡(jiǎn)單而有效的應(yīng)用。 1995 年, Freund 和 Schapire 提出的 Adaboost,是對(duì) Boosting 算法的一大提高。 Adaboost 算法性能分 析 強(qiáng)分類器 H(x)對(duì)訓(xùn)練樣本集的誤判率稱為訓(xùn)練誤判率,記為 ? , 則有: 11[ ( ) ] RiE D H x y NN? ?? ? ? ? 其中, ()1{ 0 ()H x yif iiR if H x yii?? ? 對(duì)于 AdaBoost算法, Freund和 Schapire 給出了關(guān)于訓(xùn)練誤判率的重要理論結(jié)果。定理:假設(shè)運(yùn)行 Adaboost算法經(jīng)過(guò) T輪訓(xùn)練后生成的弱分類器分別 1,h ,?? Th , 其對(duì)樣本集誤判率分別 t? ,則訓(xùn)練誤判率有上界: ?? 。詳細(xì)的證明過(guò)程可參見文獻(xiàn)。在定理中,如果每個(gè) ?? ,令 t????則最終強(qiáng)分類器 ()Hx的訓(xùn)練誤判率上界可改寫為: 2122114TttTtt e???????? ? ?? 由此可見,訓(xùn)練誤判率:隨訓(xùn)練輪數(shù) T的增大呈指 數(shù)級(jí)的減小。特別的,如果所有的弱分類器誤判率都相等,即 1t??? , 1t??? 上式可簡(jiǎn)化為: 21exp( 2 )T?? ?? 可見,強(qiáng)分類器誤判率隨著弱分類器數(shù)量增多和弱分類器誤判率的降低而迅速下降。只要有足夠多的弱分類器,就可以使強(qiáng)分類器達(dá)到任意低的誤判率。對(duì)于兩分類問(wèn) 22 題,只需要弱學(xué)習(xí)算法的準(zhǔn)確性略好于隨機(jī)猜測(cè),便可以保證 Adaboost算法收斂。 第 5 章 矩形特征與積分圖 引言 本章節(jié)將描述對(duì) AdaBoost 人臉檢測(cè)訓(xùn)練算法速度很重要的兩方面,特征的選取和特征值的計(jì)算。 把矩形作為人臉檢測(cè)的特征向量,稱為矩形特征。本算法選取了最簡(jiǎn)單的 5 個(gè)矩形特征模板進(jìn)行訓(xùn)練,以得到一套用于人臉檢測(cè)的最適合的矩形特征,事實(shí)證明,這種特征選取方法的訓(xùn)練速度雖然不快,但是檢測(cè)效率很高。 Viola 提出將積分圖 (integral image)應(yīng) 用到特征值的計(jì)算之中。積分圖的引用,可以只對(duì)圖像進(jìn)行一次遍歷計(jì)算,就能夠在用常量時(shí)間完成每個(gè)特征值的計(jì)算,這使得訓(xùn)練和檢測(cè)的速度大大提升。 矩形特征 概述 將矩形特征作為對(duì)輸入圖像的人臉檢測(cè)的特征向量,稱為矩形特征。在給定有限的數(shù)據(jù)情況下,基于特征的檢測(cè)能夠編碼特定區(qū)域的狀態(tài),而且基于特征的系統(tǒng)比基于象素的系統(tǒng)要快得多。 矩形特征對(duì)一些簡(jiǎn)單的圖形結(jié)構(gòu),比如邊緣、線段,比較敏感,但是其只能描述特定走向(水平、垂直、對(duì)角)的結(jié)構(gòu),因此比較粗略。如下圖 51,臉部一些特征能夠由矩形特征簡(jiǎn)單地描繪,例如,通常,眼睛要比臉頰顏色更深;鼻梁兩側(cè)要比鼻梁顏色要深;嘴巴要比周圍顏色更深。 對(duì)于一個(gè) 2424 檢測(cè)器,其內(nèi)的矩形特征數(shù)量超過(guò) 160,000 個(gè),必須通過(guò)特定算法甄選合適的矩形特征,并將其組合成強(qiáng)分類器才能檢測(cè)人臉。 23 圖 51 矩形特征在人臉上的特征匹配 (上行是 24 24 子窗口內(nèi)選出的矩形特征, 下行是子窗口檢測(cè)到的與矩形特征的匹配 ) 特征模板 我們將使用簡(jiǎn)單矩形組合作為我們的特征模板。這類特征模板都是由兩個(gè)或多個(gè)全等的矩形相鄰組合而成,特征模板內(nèi)有白色和黑色兩種矩形(定義左上角的為白色,然后依次交錯(cuò)),并將此特征模板的特征值定義為白色矩形像素和減去黑色矩形像素和。本算法選取了最簡(jiǎn)單的 5 個(gè)矩形特征模板進(jìn)行訓(xùn)練,以 得到一套用于人臉檢測(cè)的最合適的矩形特征,事實(shí)證明,這種特征選取方法的訓(xùn)練速度雖然不快,但是檢測(cè)效率很高。 通過(guò)改變特征模板的大小和位置,可在圖像子窗口中窮舉出大量的特征。為了描述的方便,本文將圖 51 的特征模板稱為 “ 特征原型 ” ;特征原型在圖像子窗口中擴(kuò)展(平移伸縮)得到的矩形特征數(shù)值( feature value)稱為 “ 特征值 ” 。 最簡(jiǎn)單的 5 個(gè) 矩形 特征模板: 24 (a) (b) (c) (d) (e) 圖 52 人臉檢測(cè)使用的矩形特征值 矩形特征值是指圖像中兩個(gè)或多個(gè)形狀大小相同的矩形內(nèi)所有像素的灰度值之和的差值。對(duì)于圖 52中的 a、 b 和 e 這類特征,特征數(shù)值計(jì)算公式為: v Sum Sum??白黑 ( ) 而對(duì)于 c、 d 來(lái)說(shuō),計(jì)算公式如下: 2v Sum Sum? ? ? 黑白 ( ) 公式( )將黑色區(qū)域像素和乘以 2,是為了使兩種矩形區(qū)域中的像素?cái)?shù)目一致。 假設(shè)訓(xùn)練或者檢測(cè)窗口的大小為 WH? 個(gè)像素, w,h 分別為特征原型的長(zhǎng)、寬,圖 52 所示五 種特征原型對(duì)應(yīng)的 wh分別為: 21, 12, 31, 13, 22。 令 []WX w? , []HY h? ,“ []”表示取整。一個(gè) wh? 的特征原型在 WH? 子窗口產(chǎn)生的矩形特征數(shù)量可用下面的公式計(jì)算: 11( 1 ) ( 1 )22XYX Y W w H h??? ? ? ? ? ? ? ( ) 積分圖 積分圖的概念 積分圖像就是將原圖像中任一點(diǎn)的左上方的全部像素相加作為當(dāng)前點(diǎn)像素值所得到的圖像。通過(guò)積分圖像可以方便的計(jì)算出原圖像中任意矩形區(qū)域內(nèi)的像素點(diǎn)的和的值,而不用每次都重新計(jì)算,從而達(dá)到加快計(jì)算的目的。 一個(gè)簡(jiǎn)單的微積分類比:如果我 們要經(jīng)常計(jì)算 ()baf xdx? ,那我們會(huì)先計(jì)算( ) ( )F x f x dx?? ,那么 ( ) ( ) ( )baf x dx F b F a??? 。見下圖 53。積分圖的含義與此類似。 25 圖 53 “積分圖”與積分的類比 只需要對(duì)每個(gè)像素進(jìn)行少量的計(jì)算工作,就能得到一幅圖像的“積分圖”?!胺e分圖”能夠在多種尺度下,使用相同的時(shí)間來(lái)計(jì)算不同的特征,因此大大提高了檢測(cè)速度。 使用積分圖計(jì)算 由于訓(xùn)練樣本通常有近萬(wàn)個(gè),并且矩形特征的數(shù)量特別龐大,如 果每次計(jì)算特征值都需要統(tǒng)計(jì)矩形內(nèi)所有像素之和,將會(huì)大大降低訓(xùn)練和檢測(cè)的速度。 Paul Viola等引入了一種新的圖像的表示方法一積分圖像,利用它可以快速計(jì)算矩形特征。對(duì)于輸入圖像I,像素點(diǎn) (, )xy 處的積分圖 ( , )iixy 定義如下: ( , ) ( , )x x y yii x y I x y??????? ?? 其中 ( , )Ixy?? 為圖像在點(diǎn) (, )xy?? 處的像素值, 如圖 54積分圖 ( , )iixy 的像素值等于圖中灰色部分的所有像素值的和。 54積分圖 為了得到輸入圖像 I的積分圖像,需要逐點(diǎn)掃描圖像一次。設(shè) ( , )Ixy 為輸入圖像各y y1 x1 x S(x,y) ii(x1,y) ii(x,y) 26 點(diǎn)的像素灰度值, ( , ) ( , )yyS x y I x y???? ? 為輸入圖像中像素點(diǎn) (x, y)所在列縱坐標(biāo)不超過(guò)該點(diǎn)的所有像素灰度值之和(圖 54中淺灰色區(qū)域 ),則圖像 I的積分圖可按如下遞推公式計(jì)算: ? ( , ) ( , 1 ) ( , )( , ) ( 1 , ) ( , )S x y S x y i x yii x y ii x y S x y? ? ?? ? ? ( ) 其中 x 和 y 從 0開始,定義 ( , 1) 0 , ( 1, ) 0s x ii y? ? ? ?。 在得到圖像 I的積分圖像后,就可以方便快捷的計(jì)算圖像 I中任意矩形內(nèi)所有像素灰度積分,如圖 54中,點(diǎn) 1的積分圖像 1ii 的值為: 1ii =區(qū)域 A的像素值( ) 圖 55 點(diǎn)( x,y)處的積分圖像值 下面是積分圖矩陣的實(shí)現(xiàn)代碼片斷 : for(int x=0。xrows。x++) for(int y=0。ycols。y++) { double y_yuv =(double)((uchar*)(mar+matstep*x))[y]。 //如設(shè)該點(diǎn)亮度值為 d,則該點(diǎn)左側(cè)點(diǎn)的亮度和為 c,該點(diǎn)上側(cè)點(diǎn)的亮度和為 b,左上側(cè)點(diǎn)的亮度和為 a,則該 點(diǎn)的亮度和為 d+b+ca if (x0amp。amp。y0) y_yuv = y_yuv mymDoubleGet(smat,x1,y1)。 if(x0) y_yuv = y_yuv + mymDoubleGet(smat,x1,y)。 if(y0) y_yuv = y_yuv + mymDoubleGet(smat,x,y1)。 //設(shè)置該點(diǎn)的亮度和 mymDoubleGet(smat,x,y, y_yuv); (x,y) 27 } for(int i=0。iclissifier_num。i++) { int h=0。 double feature= featureValue(amp。(Sclissifiersc[i],smat)。 if(feature* Sclissifiersc[i].p Sclissifiersc[i].p* Sclissifiersc[i].h) h=1。 double alpha=log10(bt[i])。 sumLeft+=alpha*(double)h。 sumRight+=alpha*thresh。 } myReleaseMat(smat0。 if(sumLeft= sumRight) return 1。 else return 0。 Haar 特征值計(jì)算 Haar 型特征是 Viola 等提出的一種簡(jiǎn)單矩形特征,因類似于 Haar 小波而得名。如圖 2 所示, Haar 型特征的定義是黑色矩形和白色矩形在圖像子窗口中對(duì)應(yīng)的區(qū)域的灰度級(jí)總和之差,可見,它反映了圖像局部的灰度變化。 Viola 等用到的 Haar 型特征共有 4 種(圖 ~d),我們又增加了 8 種(圖 ~l)。 圖像子窗口 28 圖 57. Haar 特征。( a, b, g, h)兩矩形特征;( c, f) 三矩形特征;( d)四矩形特征;( e)“回”字形特征;( i, j, k, l)“ L”形特征。 Haar特征是用積分圖像的特點(diǎn)來(lái)計(jì)算某一矩形區(qū)域內(nèi)的特征值。如計(jì)算下圖中 D區(qū)域內(nèi)的像素之和: 圖 5
點(diǎn)擊復(fù)制文檔內(nèi)容
試題試卷相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1