freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于andriod移動(dòng)設(shè)備嵌入式機(jī)器視覺的人臉識(shí)別畢業(yè)設(shè)計(jì)-資料下載頁

2025-08-19 19:56本頁面

【導(dǎo)讀】安全更友好的人機(jī)交互等。如今在許多公司或研究所已經(jīng)作為一門獨(dú)立的課題來研究。近年來,隨著移動(dòng)互聯(lián)網(wǎng)的發(fā)展,智能手機(jī)平臺(tái)獲得了長(zhǎng)足的發(fā)展。錢包、手機(jī)遠(yuǎn)程支付等新應(yīng)用的出現(xiàn)使得手機(jī)平臺(tái)的安全性亟待加強(qiáng)。本論文在分析國內(nèi)外人臉識(shí)別研究成果的基礎(chǔ)上,由攝像頭采集得到人臉圖像,人臉檢測(cè)、特征定位、人臉歸一化、特征提取和特征識(shí)別。平臺(tái)上通過移植OpenCV并進(jìn)行編程從而實(shí)現(xiàn)了移動(dòng)設(shè)備的人臉識(shí)別功能。

  

【正文】 從而,通過以上幾個(gè)等式恒定變換可以得到區(qū)域 D 的積分圖即: () 由公式 ()可知矩形區(qū)域 D 內(nèi)的所有像素點(diǎn)灰度值之和(即矩形特征值)可以通過矩形區(qū)域的各個(gè)頂點(diǎn)的積分表示出來。 ( 2)特征值計(jì)算 根據(jù)定義,矩形特征的特征值是兩個(gè)不同的矩形區(qū)域像素和之差,由公式 ()可以計(jì)算任意矩形特征的特征值,下面以特征模型 B 為例說明特征值的計(jì)算。如圖 所示,根據(jù)特征值的計(jì)算公式可得,特征模型 B 的特征值為: 根據(jù)公式 ()有以下等式: () () 然后把這兩個(gè)等式帶入到公式 ,可以得到特征原型 B 的特征值為: 。 可以得出結(jié)論為:該原型特征值的計(jì)算只和原型特征值的各個(gè)端點(diǎn)的積分圖有關(guān)。實(shí)際上,通過計(jì)算所有原型的特征值,也能得到這個(gè)結(jié)論。綜上使用圖像積分圖能夠快速的計(jì)算出所給定的矩形區(qū)域內(nèi)的所有像素點(diǎn)灰度值之和,也能夠快速的計(jì)算出給定的特征矩形的特征值。在計(jì)算矩形特征矩形圖時(shí),可以遍歷整個(gè)圖像區(qū)域,計(jì)算出每個(gè)像素點(diǎn)的積分圖,并保存,然后使用保存的像素點(diǎn)積分圖可以在常數(shù)的時(shí)間內(nèi)計(jì)算出特征矩陣的特征值,這樣能夠非常節(jié)省計(jì)算開銷。 圖 矩形特征值計(jì)算 畢業(yè)設(shè)計(jì)報(bào)告紙 共 61 頁 第 17 頁 AdaBoost 分類器 目前在實(shí)際中應(yīng)用的人臉檢測(cè)方法多為基于 AdaBoost 學(xué)習(xí)算法的方法。該方法在檢測(cè)人臉時(shí)實(shí)時(shí)性比較強(qiáng),檢測(cè)率也比較高。本文主要采用 AdaBoost算法在 Android 系統(tǒng)上實(shí)現(xiàn)人臉檢測(cè)。 AdaBoost 算法是計(jì)算學(xué)習(xí)領(lǐng)域算法。所以首先介紹下機(jī)器學(xué)習(xí)領(lǐng)域的主要模型。 PAC 學(xué)習(xí)模型 可學(xué)習(xí)理論主要分為計(jì)算學(xué)習(xí)理論以及統(tǒng)計(jì)學(xué)習(xí)理論 [18]。計(jì)算學(xué)習(xí)理論是概率理論中發(fā)展比較成熟的一個(gè)重要分支。 Valiant 于 1984 年首先提出來的PAC(ProbablyApproximatelyCorrect)模型是計(jì)算學(xué)習(xí)理論中比較常用的模型,該模型的出現(xiàn)發(fā)展了計(jì)算學(xué)習(xí)理論 [19]。在 PAC 學(xué)習(xí)模型中, Valiant 提出了經(jīng)典的弱學(xué)習(xí)和強(qiáng)學(xué)習(xí)這兩個(gè)概念,這兩個(gè)模型主要用于分類學(xué)習(xí)。 PAC 模型的數(shù)學(xué)描述如下: 定義 X 為樣本空間,該樣本空間是用于訓(xùn)練學(xué)習(xí)的樣本集合; 定義 C 為概念空間,該概念空間是可用于選定的目標(biāo)概念; 定義 V 為分類集合,該分類集合的值為目標(biāo)概念的所有分類; 定義 H 為假設(shè)空間,該空間包含了所有輸出假設(shè) Hm(T,x); 定 義自動(dòng)學(xué)習(xí)器 L,該自動(dòng)學(xué)習(xí)器 L 的最終目的是找到一個(gè)假設(shè) H,使的該假設(shè)H 能夠?qū)颖究臻g X 中的每一個(gè)樣本進(jìn)行分類。其方法是,首先是按照選取的一個(gè)固定概率分布率 p(x)在樣本空間 X 獨(dú)立的進(jìn)行樣本抽取,分別抽取樣本 xl, … , xm,自動(dòng)學(xué)習(xí)器 L 返回 hT(xt)的值。其中 hT(xt) 定義為 T 在分類集合 V 上的指示函數(shù),其結(jié)果表示 L 對(duì) xt 作出的分類。可以獲得一些數(shù)據(jù): 在實(shí)際的應(yīng)用中,人們總希望找到一個(gè)適用于所有樣本的假設(shè),但是實(shí)際情況是不可能的。所以需要預(yù)設(shè)一個(gè)閾值用來指示是否可行。在實(shí)際使用時(shí),設(shè)置一個(gè)假設(shè)錯(cuò)誤率 ε,如果隨機(jī)樣本被錯(cuò)誤分類的概率小于該錯(cuò)誤率 ε,則可以認(rèn)為該假設(shè)是成功的。 弱學(xué)習(xí)與強(qiáng)學(xué)習(xí) 機(jī)器學(xué)習(xí)領(lǐng)域中的一個(gè)主要問題是如何能夠在眾多的觀測(cè)數(shù)據(jù)中得到一 個(gè)非常精確的假設(shè)。其目標(biāo)是對(duì)輸入樣本做出一個(gè)非常準(zhǔn)確的判斷 [20]。 根據(jù)概率論的相關(guān)知識(shí),對(duì)于一個(gè) 0 或 1 的問題做隨機(jī)判斷時(shí),將會(huì)有 50%的幾率做出 1 的判斷。相似的,對(duì)于一個(gè)是非問題做隨機(jī)性判斷,將會(huì)得到 50%的正確性 畢業(yè)設(shè)計(jì)報(bào)告紙 共 61 頁 第 18 頁 判斷。一個(gè)弱學(xué)習(xí)算法定義為一個(gè)有比隨機(jī)猜測(cè)高的正確率的假設(shè),而得到這個(gè)算法的過程稱為弱學(xué)習(xí)。相似的,如果某一個(gè)假設(shè)能夠顯著的提高猜對(duì)的正確率,那么該假設(shè)即為一個(gè)強(qiáng)算法,而得到這個(gè)算法的過程稱為強(qiáng)學(xué)習(xí)。 在實(shí)際應(yīng)用中,一個(gè)弱學(xué)習(xí)算法是很容易得到的,而要獲得一個(gè)強(qiáng)學(xué)習(xí)算法則比較困難。 Kearns 提出了弱學(xué)習(xí)算法與強(qiáng)學(xué)習(xí)算法之間的等價(jià)問題 —— 是否能把弱學(xué)習(xí)算法轉(zhuǎn)化為強(qiáng)學(xué)習(xí)算法。 Keams 和 Valiant證明 [21]:在有充分足夠的數(shù)據(jù)的情況下,通過集成弱學(xué)習(xí)算法,能夠得到任意精度的假設(shè),最終可以生成一個(gè)強(qiáng)學(xué)習(xí)算法。 AdaBoost 算法 AdaBoost 算法是由 Freund 和 Schapire在 1995年提出來的 [22]。 AdaBoost全稱為AdaptiveBoosting,該算法是 Boosting 法(增強(qiáng)法)的一種變形。它是一種迭代算法,其核心思想通過訓(xùn)練獲多個(gè)弱分類器,然后把弱分類器按照一定的權(quán)重加權(quán)構(gòu)成強(qiáng)分類器。 在訓(xùn)練初始階段,每個(gè)樣本被賦予一個(gè)權(quán)重,權(quán)重的大小表明了樣本被分量分類器選中的概率。在訓(xùn)練開始時(shí),賦予每個(gè)樣本的權(quán)重是相同的,即每個(gè)樣本被分量分類器選中的概率是相同,然后在此樣本分布下訓(xùn)練出一個(gè)基本分類器 h1(x)。然后對(duì)h1(x)分類錯(cuò)誤的樣本,按照一定的比率增加其權(quán)重,使得其在下一個(gè)訓(xùn)練樣本集時(shí),被選中的概率增加;而對(duì)于正確分類的樣本,則降低其權(quán)重,即降低了該樣本被下一個(gè)訓(xùn)練集選中的概率。通過這樣的方法,就能夠使得錯(cuò)分的樣本突出出來,從而形成一個(gè)新的樣本集分布。然后輸入新的樣本集合,再次進(jìn)行訓(xùn)練,將得到 另一個(gè)基本分類器 h2(x)及其權(quán)重。然后按照該過程類推,循環(huán) T 次。每次循環(huán)得到一個(gè)基本分類器和對(duì)應(yīng)的權(quán)重值,最終將得到 T 個(gè)基本分類器和 T 個(gè)相對(duì)應(yīng)的權(quán)重值。最終使用按照一定的權(quán)值把這 T 個(gè)基本分類累加而得到最后的強(qiáng)分類器。 AdaBoost 算法的流程的描述如下 [23]: 給定樣本圖像集合 (x1,y1), (x2,y2), … , (xn,yn),其中 x 表示所取樣本的空間,而y 表示每個(gè)樣本所對(duì)應(yīng)值, n 表示樣本的個(gè)數(shù)。在該系統(tǒng)中 y 的值代表正負(fù)樣本,其中 yi=1 表示正樣本, yi=0 表示負(fù)樣本。 ( 1)初始化 m個(gè)正樣本以及 l個(gè)負(fù)樣本的權(quán)重。每個(gè)正樣本的權(quán)值在初始都 一樣 = ,每個(gè)負(fù)樣本的權(quán)重為 = 。 ( 2)設(shè)置循環(huán)迭代次數(shù) T。 ( 3)對(duì)每一輪迭代 t=1,…,T 都做以下步驟: a) 首先歸一化權(quán)重,使得所有權(quán)重能夠符合相應(yīng)的概率分布, ∑ () 畢業(yè)設(shè)計(jì)報(bào)告紙 共 61 頁 第 19 頁 b) 然后針對(duì)特征值 j訓(xùn)練其分類器 hj。并把計(jì)算其評(píng)價(jià)誤差,即該分 類器對(duì)樣本進(jìn)行正確分類與錯(cuò)誤分類加權(quán)和,其公式如下: () c) 然后從其中選擇出具有最小加權(quán)分類誤差的分類器 ht,其對(duì)應(yīng)的加 權(quán)分類誤差為 εt。 d) 然后對(duì)每個(gè)樣本都進(jìn)行更新權(quán)重的操作,其公式如下: () 參數(shù)的含義為:當(dāng)樣本 xi被分類器 ht正確分類時(shí),參數(shù) ei=0,而若 其被錯(cuò)誤分類時(shí), = 。 ( 4)最終將輸出強(qiáng)分類器,其公式為 (): { , ∑ ∑ ,其他 () ( 5) AdaBoost算法的流程圖如圖 。 AdaBoost 算法是經(jīng)過調(diào)整的 Boosting 算法,該算法能夠根據(jù)弱學(xué)習(xí)的結(jié)果反饋?zhàn)詣?dòng)的調(diào)整假設(shè)的錯(cuò)誤率 [24]。 AdaBoost 在訓(xùn)練的過程中根據(jù)具體的情況自動(dòng)的為當(dāng)前弱學(xué)習(xí)分類形成一個(gè)權(quán)值。在本文的人臉檢測(cè)其中主要采用 AdaBoost 方法進(jìn)行分類。 畢業(yè)設(shè)計(jì)報(bào)告紙 共 61 頁 第 20 頁 圖 AdaBoost 算法流程圖 弱分類器 弱分類器對(duì)于區(qū)分候選正樣本和負(fù)樣本至關(guān)重要,為了保證最終的強(qiáng)分類器能夠收斂,弱分類器對(duì)正負(fù)樣本分類的準(zhǔn)確率必須大于 1/2,這樣訓(xùn)練算法最終才會(huì)收斂。一個(gè)弱分類器 f p θ ,簡(jiǎn)單定義如下: 畢業(yè)設(shè)計(jì)報(bào)告紙 共 61 頁 第 21 頁 f p θ ={ pf ,其他 () 由公式可以看出 f p θ 的取值為 1 或 0,其中 1 表示人臉, 0 表示非人臉。公式中 f(x)表示的是矩形特征的值,在進(jìn)行訓(xùn)練樣本時(shí)所選的樣本集的尺寸與檢測(cè)窗口尺寸一樣大,所以對(duì)于訓(xùn)練樣本中每個(gè)樣本都具有相同的特征值與相同的數(shù)量的特征值。閾值 θ主要用來表示特征值的正負(fù)樣本臨界值。而方向指示符 p 用以改變不等號(hào),其取值為 1 或 1。 ① 特征值 對(duì)于算法中弱分類器的特征值 f ( x )就是矩形特征值。在訓(xùn)練的時(shí)候選擇的訓(xùn)練樣本集的尺寸等于檢測(cè)子窗口的尺寸,檢測(cè)子窗口的尺寸決定了矩形特征的數(shù)量,所以對(duì)于訓(xùn)練樣本集的每一個(gè)樣本的矩形特征相同且數(shù)量相同,且一個(gè)固定的特征值對(duì)應(yīng)一個(gè)樣本。對(duì)于理想的隨機(jī)分布像素值的圖像來說,對(duì)應(yīng)同一個(gè)矩形特征相對(duì)不同圖像的矩形特征值的均值應(yīng)該趨近于 k。在非人臉樣本上也有這個(gè)情況發(fā)生,但是由于非人臉樣本像素點(diǎn)可能不一定是上述所講素隨機(jī)分布的理想情況,因此對(duì)于特征值的判斷上會(huì)存在較大的差異。計(jì)算每一個(gè)樣本特征,包括人臉或者非人臉的特征值的平均值,得到所 有樣本的所有 特征平均值分布。 顯示了 20 20 子窗口里面的全部 78460 個(gè)矩形特征,包含有 4381個(gè)非人臉樣本和 2706 個(gè)人臉樣本的特征值平均數(shù)的分布圖。人臉樣本特征和非人臉特征的值平均值都是分布在 0 前后領(lǐng)域內(nèi)。不管是對(duì)于人臉樣本與非人臉樣本的平均分布曲線差別很小,當(dāng)特征值大于或者小于某個(gè)值后,兩者的分布曲線出現(xiàn)了一定的差別,這就表明了對(duì)于檢測(cè)器的絕大部分特征對(duì)于用來識(shí)別人臉和非人臉意義不是很大的,這些特征很難對(duì)人臉和非人臉進(jìn)行分類。但是調(diào)整相應(yīng)的閾值和選取適當(dāng)特征,可以有效地區(qū)分人臉樣本與非人臉樣本。 本文從 78460 個(gè)矩形特征中隨機(jī)抽取了兩個(gè)特征 A 和 B,并且將這兩個(gè)特征遍歷了 4381 個(gè)非人臉樣本和 2706 個(gè)人臉樣本,計(jì)算了每張圖像對(duì)應(yīng)的特征值,并將特征值進(jìn)行了從小到大的排序。 表 A、 B對(duì)所有圖像特征值的統(tǒng)計(jì)表 特征 特征 A 特征 B 樣本 人臉 非人臉 差值 人臉 非人臉 差值 樣本數(shù)量 2706 4381 2760 4381 總和 330953 137143 486096 4480530 1601750 2878780 平均值 1628 中值 116 17 133 1484 144 1628 范圍差 14133 23503 9370 8763 14760 5997 零點(diǎn)左特征比 % % 5% % % 34% 畢業(yè)設(shè)計(jì)報(bào)告紙 共 61 頁 第 22 頁 特征 A和特征 B對(duì)于人臉樣本和非人臉樣本的分類能力的表現(xiàn)差異很大,特征 A對(duì) 人臉和非人臉樣本的特征值為 0的點(diǎn)幾乎處于相同位置,人臉樣本與非人臉樣本的特征差僅有 5%。 這說明對(duì)于選 A矩形特征用于人臉和非人臉的檢測(cè)幾乎沒有分辨能力。對(duì)于特征 B對(duì)人臉樣本和非人臉樣表現(xiàn)出來良好效果。 ② 閾值 q、 方向指示符 p 由上述對(duì)選取適當(dāng)?shù)木匦翁卣鞯姆治?,?duì)于選取閾值 q的含義就明晰了。方向指示符 p用來改變不等號(hào)的方向。對(duì)于一個(gè)弱學(xué)習(xí)器或是選取的一個(gè)特征用來區(qū)分人臉和非人臉圖像,它的要求的是僅僅能夠以稍低于 50%的錯(cuò)誤率就可以了,因此上面討論對(duì)特征 A, B的選取,只能在某個(gè)概率范圍內(nèi)準(zhǔn)確地進(jìn)行區(qū)分就足夠了。根據(jù)這個(gè)要求,我們可以把所有錯(cuò)誤率低于 50%的矩形特征都找到,并且適當(dāng)?shù)剡x擇閾值 q。對(duì)于固定的訓(xùn)練樣 本集而言,幾乎所有的矩形特征都能滿足要求。在算法中每迭代 T次就是選擇 T個(gè)最佳弱分類器,所以每輪訓(xùn)練,將選取當(dāng)輪中的最佳弱分類器,然后將每輪訓(xùn)練得到的最佳弱分類器按照加權(quán)方式提升為強(qiáng)分類器,從而獲得強(qiáng)分類器。
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1