freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)論文---基于adaboost的人臉檢測(cè)研究(編輯修改稿)

2025-06-12 20:25 本頁(yè)面
 

【文章內(nèi)容簡(jiǎn)介】 The genral stf(1mpoyidvc,uh)0jb。5wT6 檢測(cè)時(shí)只需要用掃描儀對(duì)圖片進(jìn)行掃描,然后分類器判斷是否存在人臉。 人工神經(jīng)網(wǎng)絡(luò)法 CMU 的 Row ley 對(duì)于這種方法具有很大的貢獻(xiàn),這種方法是把統(tǒng)計(jì)得到的人臉特征通過(guò)一定形式隱藏在函數(shù)和網(wǎng)絡(luò)框架之中,最終得到一個(gè)網(wǎng)絡(luò)結(jié)構(gòu)。這種方法的優(yōu)勢(shì)在于 可以描述復(fù)雜的、難以顯示 的 特征。 特征空間法 以 Turk 為代表的研究人員提出使用 DFFS 距離度量概念,然后將人臉空間的距離與待測(cè)圖像進(jìn)行比較,通過(guò)把人臉區(qū)域變換到某一個(gè)特征的空間,采用主分量分析的方法。根據(jù)特定空間的特定規(guī)律來(lái)劃分人臉和非人臉。 支持向量機(jī)法 SVM( Support Vector Machine)是一種新的檢測(cè)人臉的方法,這種方法首先是由 Osuna 提出的 [6]。它是依據(jù)與統(tǒng)計(jì)學(xué)發(fā)展而來(lái)的,提到這種方法前,必須先介紹下人工神經(jīng)網(wǎng)絡(luò)法,人工神經(jīng)網(wǎng)絡(luò)法是一種基于經(jīng)驗(yàn)風(fēng)險(xiǎn) 最小化的方法,不過(guò)它很難解決一些技術(shù)性的問(wèn)題,比如極小局部點(diǎn)問(wèn)題、過(guò)度學(xué)習(xí)和模型選擇問(wèn)題、維數(shù)災(zāi)難和非線性問(wèn)題,而 SVM 方法可以很好地解決這些問(wèn)題首先是搜索大量的人臉樣本,然后用和“自舉”的方法得到一些的“非人臉”特征,訓(xùn)練出樣本。 概率模型法 Sc hneiderman 等人首先提出了一種基于后驗(yàn)概率估計(jì)的檢測(cè)方法。這種方法的思想是計(jì)算機(jī)計(jì)算待測(cè)圖片區(qū)域( region),然后得到屬于人臉特征 object 的后驗(yàn)概率 P( object/region),根據(jù)概率對(duì)所有可能是人臉的的圖像窗口進(jìn)行判斷。另外 一種概率模型是應(yīng)用隱馬爾可夫模型(Hidden Markov Models, HMM)。這種方法方法主要用來(lái)檢測(cè)臉部和肩部的圖像。 基于積分圖像特征法 基于積分圖像特征法是 由 Viola 等人所提出的這種方法結(jié)合了 Adaboost 學(xué)習(xí)算法、積分圖和分類器還有訓(xùn)練方法等。這種方法一般用于照片的預(yù)處理。 結(jié)束語(yǔ) 由于人臉自身的多變性與環(huán)境的復(fù)雜度,至今仍然沒(méi)有一種統(tǒng)一權(quán)威的的人臉檢測(cè)方法,研究者只能通過(guò)結(jié)合多種混合的檢測(cè)方法來(lái)提高檢測(cè)的正確率,而提高檢測(cè)率的同時(shí)帶來(lái)的反作用則是檢測(cè)速度的放慢 ,所以要研究出一項(xiàng)正確率高,檢測(cè)速度快的實(shí)時(shí)人臉檢測(cè)方案成為現(xiàn)在亟待解決的問(wèn)題。 浙江農(nóng)林大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) The genral stf(1mpoyidvc,uh)0jb。5wT7 3 Adaboost 算法在人臉檢測(cè)中的應(yīng)用 Adaboost 算法簡(jiǎn)介 Adaboost 是一種迭代算法,其核心思想是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器 (弱分類器 ),第二步是結(jié)合這些弱分類器來(lái),利用這些弱分類器建立一個(gè)強(qiáng)分類器。通過(guò)變換數(shù)據(jù),對(duì)每一次訓(xùn)練出的訓(xùn)練集中的樣本進(jìn)行分類,根據(jù)正確率,得到權(quán)重。然后將得到的權(quán)重發(fā)送給下一級(jí)分類器,集合每一次正確檢測(cè)樣本的分類器建立一個(gè)最終的強(qiáng)分類器。使用 Adaboost 算法的優(yōu) 點(diǎn)是可以把重點(diǎn)放在有用的數(shù)據(jù)上,而不用著眼于那些影響檢測(cè)結(jié)果的數(shù)據(jù)上。使用 Adaboost 分類器可以排除一些不必要的訓(xùn)練數(shù)據(jù)特征,并將關(guān)鍵放在關(guān)鍵的訓(xùn)練數(shù)據(jù)上面。 Mic hael Jones 和 Paul Viola 在 2021 年提出了 Adaboost 人臉檢測(cè)算法 [7],此算法的核心思路是分類器的訓(xùn)練和選擇。剛開(kāi)始每一個(gè)樣本的權(quán)值是相等的,用 h1 進(jìn)行第一次分類,錯(cuò)誤的,增加樣本的權(quán)值,正確的樣本,減小其權(quán)值。然后得到新的樣本 U2。然后進(jìn)行第二次分類,訓(xùn)練得到 h2 弱分類器 。 按照這種方法,循環(huán) T 次,得到了 T 個(gè)弱分類器 ,把這些分類器的權(quán)值疊加起來(lái),建立一個(gè)強(qiáng)的分類器。 AdaBoost 算法訓(xùn)練過(guò)程就是要找到最佳的 Harr 特征,然后訓(xùn)練出分類器,對(duì)人臉進(jìn)行檢測(cè)。 本論文將訓(xùn)練過(guò)程分成以下幾個(gè)步驟 :第一步:首先輸入樣本集,利用給定的矩形特征,計(jì)算出樣本特征,并得到矩形特征集 。第二步 :輸入上一步得到的特征集,采用弱學(xué)習(xí)算法,得到一個(gè)閥值,把弱分類器與特征逐一對(duì)應(yīng)起來(lái),得到一些弱分類器集 ; 第三步 : 輸入第二步的弱分類器集,利用正確率和錯(cuò)誤率 , 根據(jù) AdaBoost 算法選擇最佳的弱分類器建立最終的強(qiáng)分類器 ; 第四步:輸入上一步的強(qiáng)分類器 ,把這些強(qiáng)分類器組合成級(jí)聯(lián)分類器 ; 第五步:輸入不是人臉的照片,把強(qiáng)分類器作為臨時(shí)的級(jí)聯(lián)分類器,篩選并補(bǔ)充非人臉樣本,得到新的樣本。 下圖為系統(tǒng)訓(xùn)練框架圖: The genral stf(1mpoyidvc,uh)0jb。5wT8 圖 31 訓(xùn)練系統(tǒng)框架 圖 訓(xùn)練的樣本必須是人臉特寫(xiě),但 是人臉姿態(tài)千變?nèi)f化,這就要求我們?cè)跇颖镜倪x擇過(guò)程中盡可能地做到廣泛。非人臉樣本的選擇有很多種。 樣本訓(xùn)練步驟分為三步:第一步 Haar 特征的提??;第二步把 Haar 特征與弱分類器相互對(duì)應(yīng)起來(lái);第三步挑選出最優(yōu)的弱分類器。 (1) Haar 特征的提取 圖 32 常用的四種 Haar特征 [8] 浙江農(nóng)林大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) The genral stf(1mpoyidvc,uh)0jb。5wT9 常用的 Haar 特征有 4 種,如圖 32 所示。除了這四種常見(jiàn)的特征,我們也可以設(shè)計(jì)出更多的特征。訓(xùn)練樣本的像素( 24 24),以上四種特征所達(dá)到的個(gè)數(shù)為 160000 個(gè)以上。這么多的數(shù)據(jù),就要求我們更加龐大的計(jì)算任務(wù) , 所以 AdaBoost 算法訓(xùn)練過(guò)程非常的費(fèi)時(shí)間,這也正是我們以后研究需要改進(jìn)的問(wèn)題 。 (2)弱分類器的生成 在 AdaBoost 算法中,我們訓(xùn)練出的弱分類器可以是任何類型的,可以是基于決策樹(shù),基于隱馬爾科夫模型,也可以是基于神經(jīng)網(wǎng)絡(luò),比如說(shuō)弱分類器是基于線性神的網(wǎng)絡(luò)結(jié)構(gòu)模型,那么就要求 AdaBoost 算法每次都要建立多層感知器節(jié)點(diǎn)。每一個(gè)弱分類器都對(duì)應(yīng) Harr 特征,并且都是根據(jù)它所對(duì)應(yīng)的 Haar 特征的參數(shù)來(lái)定義的。根據(jù)前面所說(shuō)的 Haar 特征的區(qū)域信息,然后統(tǒng)計(jì)訓(xùn)練樣本就能夠得到相應(yīng)特征的參數(shù)。 (3)利用 AdaBoost 算法選取優(yōu)化的弱分類器 我們所說(shuō)的 AdaBoost 算法,就是在訓(xùn)練過(guò)程中篩選出最佳的弱分類器,并且要給出計(jì)算權(quán)值的過(guò)程,如下圖所示: 圖 33 AdaBoost 算法訓(xùn)練示意圖 主要解決的問(wèn)題:目前, 人們對(duì) AdaBoost 算法的研究和應(yīng)用領(lǐng)域,主要在分類器的研究問(wèn)題上,人們對(duì) Adaboost 算法的研究帶來(lái)了很多實(shí)際效果,解決了很多問(wèn)題:比如分類問(wèn)題、多類型單一標(biāo)簽和多標(biāo)簽多類問(wèn)題等等。 分析過(guò)程 :Adaboost 算法就是采用循環(huán)多次的訓(xùn)練,不斷強(qiáng)化分類器對(duì)數(shù)據(jù)分析的能力,簡(jiǎn)單地說(shuō)就是不斷強(qiáng)化簡(jiǎn)單分類器,最終建立一個(gè)強(qiáng)大的分類器的過(guò)程,其步驟在下面給出: 第一步:對(duì)多個(gè)樣本進(jìn)行訓(xùn)練。建立第一個(gè)簡(jiǎn)單分類器,第二步是對(duì)第一步檢錯(cuò)的樣本進(jìn)行訓(xùn)練建立第二個(gè)簡(jiǎn)單分類器 ,第三步是將前兩步檢測(cè)錯(cuò)誤的樣本訓(xùn)練得到下一個(gè) 分類器,最后是訓(xùn)練出強(qiáng)分類器。 Adaboosting 算法有兩大問(wèn)題需要解決: 一是怎樣挑選訓(xùn)練集以及訓(xùn)練集的大小;二是怎樣 The genral stf(1mpoyidvc,uh)0jb。5wT10 組合弱分類器,使它們建立成一個(gè)強(qiáng)的分類器。 通過(guò)對(duì)上面兩個(gè)問(wèn)題的研究,我們改善了 Adaboost算法: 第一步對(duì)訓(xùn)練樣本進(jìn)行加權(quán),篩選出較復(fù)雜的訓(xùn)練樣本,這樣問(wèn)題就比較有針對(duì)性;第二步根據(jù)權(quán)值對(duì)分類器進(jìn)行分類,權(quán)重大的分類器效果比較好,反之亦然。 根據(jù)在線分配算法 Schapire 和 Freund 提出了 Adaboost 算法,對(duì) Adaboost 算法做了深入的研究,比如檢錯(cuò)率和最優(yōu)迭代次數(shù)問(wèn) 題 [9]。這種方法與 Boosting 算法是不一樣的 , Boosting 算法必須要知道弱分類器的誤差即正確率和錯(cuò)誤率,而 Adaboost 算法不需要 , Adaboost 算法是根據(jù)計(jì)算每個(gè)樣本的權(quán)重最終建立強(qiáng)分類器的。剛開(kāi)始每一個(gè)樣本的權(quán)值是相等的,用 h1 進(jìn)行第一次分類,錯(cuò)誤的,增加樣本的權(quán)值,正確的樣本,減小其權(quán)值。然后得到新的樣本 U2。 然后進(jìn)行第二次分類,訓(xùn)練 得到 h2 弱分類器 。 按照這種方法,循環(huán) T 次,得到了 T 個(gè)弱分類器,把這些分類器的權(quán)值疊加起來(lái),建立一個(gè)強(qiáng)的分類器。 Adaboost 算法訓(xùn)練過(guò)程就是要找到最佳的 harr 特征,然后訓(xùn)練出分類器,對(duì)人臉進(jìn)行檢測(cè)。 Adaboost 算法的詳細(xì)過(guò)程如下: 1. 給定訓(xùn)練樣本集 S,其中 X 和 Y 分別對(duì)應(yīng)于人臉樣本和非人臉樣本 ; T 為訓(xùn)練的最大循環(huán)次數(shù); 2. 初始化樣本權(quán)重為 1/n ,即為訓(xùn)練樣本的初始概率分布; 3. 第一次迭代: 1) 訓(xùn)練樣本的概率分布相當(dāng)下,訓(xùn)練弱分類器; 2) 計(jì)算弱分類器的錯(cuò)誤率; 3) 選取合適閾值,使得誤差最?。? 4) 更新樣本權(quán)重 值 ; T 次循環(huán)后,得到 T 個(gè)弱分類器,按更新的權(quán)重疊加,最后 建立強(qiáng)分類器。 根據(jù) Boosting 算法 Adaboost 算法做了很大的調(diào)整 , Adaboost 算法可以對(duì)弱學(xué)習(xí)獲得的簡(jiǎn)單分類器的錯(cuò)誤進(jìn)行一定的調(diào)整 。 一共循環(huán)了 T 次,每一次都要重新計(jì)算權(quán)值,根據(jù)權(quán)值重新劃分樣本,接著根據(jù)這個(gè)樣本分布對(duì)這個(gè)分布下的樣本使用弱學(xué)習(xí)算法得到建立一個(gè)一個(gè)弱分類器,每次迭代,對(duì)權(quán)重更新一次,采用的方法是:效果好的弱分類器減小其權(quán)值,效果差的弱分類器提高其權(quán)值 。 最后根據(jù)這些弱分類器的權(quán)值,求平均得到最終強(qiáng)分類器 。 Adaboost 算法的原理 Adaboost 算法基 本原理 Adaboost 是一種迭代算法,上一章已經(jīng)有所描述。這種方法的關(guān)鍵思路是是針對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的分類器 (弱分類器 ),再把這些分類器組合起來(lái),建立一個(gè)強(qiáng)分類器。 通過(guò)對(duì)每一個(gè)樣本集權(quán)值的改變得到新的訓(xùn)練集。起先每一個(gè)樣 本具有相同的權(quán)值,訓(xùn)練得到第一個(gè)弱分類器。加大檢測(cè)錯(cuò)誤樣本的權(quán)重,減小分類正確樣本的權(quán)值,這樣就得到了一個(gè)在新的樣本,然后多次循環(huán),在循環(huán) T 次后,得到 T 個(gè)弱分類器,最后根據(jù)一定規(guī)則把這 T 個(gè)弱分浙江農(nóng)林大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) The genral stf(1mpoyidvc,uh)0jb。5wT11 類器的權(quán)重疊加起來(lái),得到最終的強(qiáng)分類器。 Adaboost 算法的具體步驟 設(shè)輸 入的 n 個(gè)訓(xùn)練樣本為 : {( x1, y1),( x2, y2), L,( xn, yn) }, 其中 xi 是輸入的訓(xùn)練樣本 , yi 屬于 {0, 1}, 分別表示正樣本和負(fù)樣本 , 其中正樣本數(shù)為 L, 負(fù)樣本數(shù) m, n=l+m, 具體步驟如下 [10]: ⑴對(duì)每個(gè)樣本的權(quán)重 wi 初始化, i 屬于 D( i) ; ⑵對(duì)每個(gè) t=1, L, T ( T 為弱分類器的個(gè)數(shù) ); ①把權(quán)重歸一化為一個(gè)概率分布 ,1titintjjwww??? ( 1) ②對(duì)每個(gè)特征,訓(xùn)練一個(gè)弱分類器 hj 計(jì)算對(duì) 應(yīng)所有特征弱分類器的加權(quán)錯(cuò)誤率 1 ( ) ( )nj t i j i ii w x h x y? ???? ( 2) ③選取最佳的弱分類器 ht (最小錯(cuò)誤率 ): t? ④按照這個(gè)最佳弱分類器,調(diào)整權(quán)重 11, , it i t i tww?? ?? ? ( 3) ,其中 0i?? , 表示被正確地分類 ; 1i?? , 表示被錯(cuò)誤地分類 ⑶ 最后的強(qiáng)分類器為:1111 ( )() 20TTt t ttthxhxo the rwi se????? ??? ?????( 4), 1logt t? ?? ( 5) 隨著算法的發(fā)展,目前 Adaboost 算法被廣泛的應(yīng)用在人臉檢測(cè)、目標(biāo)識(shí)別等領(lǐng)域,尤其在對(duì)人臉識(shí)別、汽車(chē)識(shí)別和駕駛員眨眼識(shí)別等方面的研究產(chǎn)生重大的意義。 The genral stf(1mpoyidvc,uh)0jb。5wT12 4 Opencv 圖像處理軟件的介紹 OpenCV 簡(jiǎn)介 OpenCV 的基本概念及應(yīng)用領(lǐng)域 ( 1) 基本概念 OpenCV 的全稱是: Open Source Computer Vision Library。 1999 年 , Intel 建立 了 OpenCV現(xiàn)在由 Willow Garage 提供支持 [11]。 OpenCV 是一個(gè)基于 BSD 許可證授權(quán)(開(kāi)源)發(fā)行的跨平臺(tái)計(jì)算機(jī)視覺(jué)庫(kù),適用于很多操作系統(tǒng),比如 Linux、 Windows 和 Mac OS。它很高效,包含了很多 C 函數(shù)和 少量 C++ 類,而且提供了很多接口,如 Python、 Ruby、 MATLAB 等語(yǔ)言,包含了圖像處理和智能計(jì)算機(jī)視覺(jué)方面的很多通用算法。 ( 2) 應(yīng)用領(lǐng)域 : OpenCV 的應(yīng)用領(lǐng)域很廣泛。如: 人機(jī) 互動(dòng)、物體識(shí)別、圖象分割、人臉識(shí)別、動(dòng)作識(shí)別、運(yùn)動(dòng)跟蹤和機(jī)器人等領(lǐng)域。 OpenCV 的優(yōu)勢(shì)及項(xiàng)目歷史
點(diǎn)擊復(fù)制文檔內(nèi)容
醫(yī)療健康相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖片鄂ICP備17016276號(hào)-1