freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)論文---基于adaboost的人臉檢測研究(編輯修改稿)

2025-06-12 20:25 本頁面
 

【文章內(nèi)容簡介】 The genral stf(1mpoyidvc,uh)0jb。5wT6 檢測時(shí)只需要用掃描儀對圖片進(jìn)行掃描,然后分類器判斷是否存在人臉。 人工神經(jīng)網(wǎng)絡(luò)法 CMU 的 Row ley 對于這種方法具有很大的貢獻(xiàn),這種方法是把統(tǒng)計(jì)得到的人臉特征通過一定形式隱藏在函數(shù)和網(wǎng)絡(luò)框架之中,最終得到一個網(wǎng)絡(luò)結(jié)構(gòu)。這種方法的優(yōu)勢在于 可以描述復(fù)雜的、難以顯示 的 特征。 特征空間法 以 Turk 為代表的研究人員提出使用 DFFS 距離度量概念,然后將人臉空間的距離與待測圖像進(jìn)行比較,通過把人臉區(qū)域變換到某一個特征的空間,采用主分量分析的方法。根據(jù)特定空間的特定規(guī)律來劃分人臉和非人臉。 支持向量機(jī)法 SVM( Support Vector Machine)是一種新的檢測人臉的方法,這種方法首先是由 Osuna 提出的 [6]。它是依據(jù)與統(tǒng)計(jì)學(xué)發(fā)展而來的,提到這種方法前,必須先介紹下人工神經(jīng)網(wǎng)絡(luò)法,人工神經(jīng)網(wǎng)絡(luò)法是一種基于經(jīng)驗(yàn)風(fēng)險(xiǎn) 最小化的方法,不過它很難解決一些技術(shù)性的問題,比如極小局部點(diǎn)問題、過度學(xué)習(xí)和模型選擇問題、維數(shù)災(zāi)難和非線性問題,而 SVM 方法可以很好地解決這些問題首先是搜索大量的人臉樣本,然后用和“自舉”的方法得到一些的“非人臉”特征,訓(xùn)練出樣本。 概率模型法 Sc hneiderman 等人首先提出了一種基于后驗(yàn)概率估計(jì)的檢測方法。這種方法的思想是計(jì)算機(jī)計(jì)算待測圖片區(qū)域( region),然后得到屬于人臉特征 object 的后驗(yàn)概率 P( object/region),根據(jù)概率對所有可能是人臉的的圖像窗口進(jìn)行判斷。另外 一種概率模型是應(yīng)用隱馬爾可夫模型(Hidden Markov Models, HMM)。這種方法方法主要用來檢測臉部和肩部的圖像。 基于積分圖像特征法 基于積分圖像特征法是 由 Viola 等人所提出的這種方法結(jié)合了 Adaboost 學(xué)習(xí)算法、積分圖和分類器還有訓(xùn)練方法等。這種方法一般用于照片的預(yù)處理。 結(jié)束語 由于人臉自身的多變性與環(huán)境的復(fù)雜度,至今仍然沒有一種統(tǒng)一權(quán)威的的人臉檢測方法,研究者只能通過結(jié)合多種混合的檢測方法來提高檢測的正確率,而提高檢測率的同時(shí)帶來的反作用則是檢測速度的放慢 ,所以要研究出一項(xiàng)正確率高,檢測速度快的實(shí)時(shí)人臉檢測方案成為現(xiàn)在亟待解決的問題。 浙江農(nóng)林大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) The genral stf(1mpoyidvc,uh)0jb。5wT7 3 Adaboost 算法在人臉檢測中的應(yīng)用 Adaboost 算法簡介 Adaboost 是一種迭代算法,其核心思想是針對同一個訓(xùn)練集訓(xùn)練不同的分類器 (弱分類器 ),第二步是結(jié)合這些弱分類器來,利用這些弱分類器建立一個強(qiáng)分類器。通過變換數(shù)據(jù),對每一次訓(xùn)練出的訓(xùn)練集中的樣本進(jìn)行分類,根據(jù)正確率,得到權(quán)重。然后將得到的權(quán)重發(fā)送給下一級分類器,集合每一次正確檢測樣本的分類器建立一個最終的強(qiáng)分類器。使用 Adaboost 算法的優(yōu) 點(diǎn)是可以把重點(diǎn)放在有用的數(shù)據(jù)上,而不用著眼于那些影響檢測結(jié)果的數(shù)據(jù)上。使用 Adaboost 分類器可以排除一些不必要的訓(xùn)練數(shù)據(jù)特征,并將關(guān)鍵放在關(guān)鍵的訓(xùn)練數(shù)據(jù)上面。 Mic hael Jones 和 Paul Viola 在 2021 年提出了 Adaboost 人臉檢測算法 [7],此算法的核心思路是分類器的訓(xùn)練和選擇。剛開始每一個樣本的權(quán)值是相等的,用 h1 進(jìn)行第一次分類,錯誤的,增加樣本的權(quán)值,正確的樣本,減小其權(quán)值。然后得到新的樣本 U2。然后進(jìn)行第二次分類,訓(xùn)練得到 h2 弱分類器 。 按照這種方法,循環(huán) T 次,得到了 T 個弱分類器 ,把這些分類器的權(quán)值疊加起來,建立一個強(qiáng)的分類器。 AdaBoost 算法訓(xùn)練過程就是要找到最佳的 Harr 特征,然后訓(xùn)練出分類器,對人臉進(jìn)行檢測。 本論文將訓(xùn)練過程分成以下幾個步驟 :第一步:首先輸入樣本集,利用給定的矩形特征,計(jì)算出樣本特征,并得到矩形特征集 。第二步 :輸入上一步得到的特征集,采用弱學(xué)習(xí)算法,得到一個閥值,把弱分類器與特征逐一對應(yīng)起來,得到一些弱分類器集 ; 第三步 : 輸入第二步的弱分類器集,利用正確率和錯誤率 , 根據(jù) AdaBoost 算法選擇最佳的弱分類器建立最終的強(qiáng)分類器 ; 第四步:輸入上一步的強(qiáng)分類器 ,把這些強(qiáng)分類器組合成級聯(lián)分類器 ; 第五步:輸入不是人臉的照片,把強(qiáng)分類器作為臨時(shí)的級聯(lián)分類器,篩選并補(bǔ)充非人臉樣本,得到新的樣本。 下圖為系統(tǒng)訓(xùn)練框架圖: The genral stf(1mpoyidvc,uh)0jb。5wT8 圖 31 訓(xùn)練系統(tǒng)框架 圖 訓(xùn)練的樣本必須是人臉特寫,但 是人臉姿態(tài)千變?nèi)f化,這就要求我們在樣本的選擇過程中盡可能地做到廣泛。非人臉樣本的選擇有很多種。 樣本訓(xùn)練步驟分為三步:第一步 Haar 特征的提?。坏诙桨?Haar 特征與弱分類器相互對應(yīng)起來;第三步挑選出最優(yōu)的弱分類器。 (1) Haar 特征的提取 圖 32 常用的四種 Haar特征 [8] 浙江農(nóng)林大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) The genral stf(1mpoyidvc,uh)0jb。5wT9 常用的 Haar 特征有 4 種,如圖 32 所示。除了這四種常見的特征,我們也可以設(shè)計(jì)出更多的特征。訓(xùn)練樣本的像素( 24 24),以上四種特征所達(dá)到的個數(shù)為 160000 個以上。這么多的數(shù)據(jù),就要求我們更加龐大的計(jì)算任務(wù) , 所以 AdaBoost 算法訓(xùn)練過程非常的費(fèi)時(shí)間,這也正是我們以后研究需要改進(jìn)的問題 。 (2)弱分類器的生成 在 AdaBoost 算法中,我們訓(xùn)練出的弱分類器可以是任何類型的,可以是基于決策樹,基于隱馬爾科夫模型,也可以是基于神經(jīng)網(wǎng)絡(luò),比如說弱分類器是基于線性神的網(wǎng)絡(luò)結(jié)構(gòu)模型,那么就要求 AdaBoost 算法每次都要建立多層感知器節(jié)點(diǎn)。每一個弱分類器都對應(yīng) Harr 特征,并且都是根據(jù)它所對應(yīng)的 Haar 特征的參數(shù)來定義的。根據(jù)前面所說的 Haar 特征的區(qū)域信息,然后統(tǒng)計(jì)訓(xùn)練樣本就能夠得到相應(yīng)特征的參數(shù)。 (3)利用 AdaBoost 算法選取優(yōu)化的弱分類器 我們所說的 AdaBoost 算法,就是在訓(xùn)練過程中篩選出最佳的弱分類器,并且要給出計(jì)算權(quán)值的過程,如下圖所示: 圖 33 AdaBoost 算法訓(xùn)練示意圖 主要解決的問題:目前, 人們對 AdaBoost 算法的研究和應(yīng)用領(lǐng)域,主要在分類器的研究問題上,人們對 Adaboost 算法的研究帶來了很多實(shí)際效果,解決了很多問題:比如分類問題、多類型單一標(biāo)簽和多標(biāo)簽多類問題等等。 分析過程 :Adaboost 算法就是采用循環(huán)多次的訓(xùn)練,不斷強(qiáng)化分類器對數(shù)據(jù)分析的能力,簡單地說就是不斷強(qiáng)化簡單分類器,最終建立一個強(qiáng)大的分類器的過程,其步驟在下面給出: 第一步:對多個樣本進(jìn)行訓(xùn)練。建立第一個簡單分類器,第二步是對第一步檢錯的樣本進(jìn)行訓(xùn)練建立第二個簡單分類器 ,第三步是將前兩步檢測錯誤的樣本訓(xùn)練得到下一個 分類器,最后是訓(xùn)練出強(qiáng)分類器。 Adaboosting 算法有兩大問題需要解決: 一是怎樣挑選訓(xùn)練集以及訓(xùn)練集的大?。欢窃鯓? The genral stf(1mpoyidvc,uh)0jb。5wT10 組合弱分類器,使它們建立成一個強(qiáng)的分類器。 通過對上面兩個問題的研究,我們改善了 Adaboost算法: 第一步對訓(xùn)練樣本進(jìn)行加權(quán),篩選出較復(fù)雜的訓(xùn)練樣本,這樣問題就比較有針對性;第二步根據(jù)權(quán)值對分類器進(jìn)行分類,權(quán)重大的分類器效果比較好,反之亦然。 根據(jù)在線分配算法 Schapire 和 Freund 提出了 Adaboost 算法,對 Adaboost 算法做了深入的研究,比如檢錯率和最優(yōu)迭代次數(shù)問 題 [9]。這種方法與 Boosting 算法是不一樣的 , Boosting 算法必須要知道弱分類器的誤差即正確率和錯誤率,而 Adaboost 算法不需要 , Adaboost 算法是根據(jù)計(jì)算每個樣本的權(quán)重最終建立強(qiáng)分類器的。剛開始每一個樣本的權(quán)值是相等的,用 h1 進(jìn)行第一次分類,錯誤的,增加樣本的權(quán)值,正確的樣本,減小其權(quán)值。然后得到新的樣本 U2。 然后進(jìn)行第二次分類,訓(xùn)練 得到 h2 弱分類器 。 按照這種方法,循環(huán) T 次,得到了 T 個弱分類器,把這些分類器的權(quán)值疊加起來,建立一個強(qiáng)的分類器。 Adaboost 算法訓(xùn)練過程就是要找到最佳的 harr 特征,然后訓(xùn)練出分類器,對人臉進(jìn)行檢測。 Adaboost 算法的詳細(xì)過程如下: 1. 給定訓(xùn)練樣本集 S,其中 X 和 Y 分別對應(yīng)于人臉樣本和非人臉樣本 ; T 為訓(xùn)練的最大循環(huán)次數(shù); 2. 初始化樣本權(quán)重為 1/n ,即為訓(xùn)練樣本的初始概率分布; 3. 第一次迭代: 1) 訓(xùn)練樣本的概率分布相當(dāng)下,訓(xùn)練弱分類器; 2) 計(jì)算弱分類器的錯誤率; 3) 選取合適閾值,使得誤差最小; 4) 更新樣本權(quán)重 值 ; T 次循環(huán)后,得到 T 個弱分類器,按更新的權(quán)重疊加,最后 建立強(qiáng)分類器。 根據(jù) Boosting 算法 Adaboost 算法做了很大的調(diào)整 , Adaboost 算法可以對弱學(xué)習(xí)獲得的簡單分類器的錯誤進(jìn)行一定的調(diào)整 。 一共循環(huán)了 T 次,每一次都要重新計(jì)算權(quán)值,根據(jù)權(quán)值重新劃分樣本,接著根據(jù)這個樣本分布對這個分布下的樣本使用弱學(xué)習(xí)算法得到建立一個一個弱分類器,每次迭代,對權(quán)重更新一次,采用的方法是:效果好的弱分類器減小其權(quán)值,效果差的弱分類器提高其權(quán)值 。 最后根據(jù)這些弱分類器的權(quán)值,求平均得到最終強(qiáng)分類器 。 Adaboost 算法的原理 Adaboost 算法基 本原理 Adaboost 是一種迭代算法,上一章已經(jīng)有所描述。這種方法的關(guān)鍵思路是是針對同一個訓(xùn)練集訓(xùn)練不同的分類器 (弱分類器 ),再把這些分類器組合起來,建立一個強(qiáng)分類器。 通過對每一個樣本集權(quán)值的改變得到新的訓(xùn)練集。起先每一個樣 本具有相同的權(quán)值,訓(xùn)練得到第一個弱分類器。加大檢測錯誤樣本的權(quán)重,減小分類正確樣本的權(quán)值,這樣就得到了一個在新的樣本,然后多次循環(huán),在循環(huán) T 次后,得到 T 個弱分類器,最后根據(jù)一定規(guī)則把這 T 個弱分浙江農(nóng)林大學(xué)本科生畢業(yè)設(shè)計(jì)(論文) The genral stf(1mpoyidvc,uh)0jb。5wT11 類器的權(quán)重疊加起來,得到最終的強(qiáng)分類器。 Adaboost 算法的具體步驟 設(shè)輸 入的 n 個訓(xùn)練樣本為 : {( x1, y1),( x2, y2), L,( xn, yn) }, 其中 xi 是輸入的訓(xùn)練樣本 , yi 屬于 {0, 1}, 分別表示正樣本和負(fù)樣本 , 其中正樣本數(shù)為 L, 負(fù)樣本數(shù) m, n=l+m, 具體步驟如下 [10]: ⑴對每個樣本的權(quán)重 wi 初始化, i 屬于 D( i) ; ⑵對每個 t=1, L, T ( T 為弱分類器的個數(shù) ); ①把權(quán)重歸一化為一個概率分布 ,1titintjjwww??? ( 1) ②對每個特征,訓(xùn)練一個弱分類器 hj 計(jì)算對 應(yīng)所有特征弱分類器的加權(quán)錯誤率 1 ( ) ( )nj t i j i ii w x h x y? ???? ( 2) ③選取最佳的弱分類器 ht (最小錯誤率 ): t? ④按照這個最佳弱分類器,調(diào)整權(quán)重 11, , it i t i tww?? ?? ? ( 3) ,其中 0i?? , 表示被正確地分類 ; 1i?? , 表示被錯誤地分類 ⑶ 最后的強(qiáng)分類器為:1111 ( )() 20TTt t ttthxhxo the rwi se????? ??? ?????( 4), 1logt t? ?? ( 5) 隨著算法的發(fā)展,目前 Adaboost 算法被廣泛的應(yīng)用在人臉檢測、目標(biāo)識別等領(lǐng)域,尤其在對人臉識別、汽車識別和駕駛員眨眼識別等方面的研究產(chǎn)生重大的意義。 The genral stf(1mpoyidvc,uh)0jb。5wT12 4 Opencv 圖像處理軟件的介紹 OpenCV 簡介 OpenCV 的基本概念及應(yīng)用領(lǐng)域 ( 1) 基本概念 OpenCV 的全稱是: Open Source Computer Vision Library。 1999 年 , Intel 建立 了 OpenCV現(xiàn)在由 Willow Garage 提供支持 [11]。 OpenCV 是一個基于 BSD 許可證授權(quán)(開源)發(fā)行的跨平臺計(jì)算機(jī)視覺庫,適用于很多操作系統(tǒng),比如 Linux、 Windows 和 Mac OS。它很高效,包含了很多 C 函數(shù)和 少量 C++ 類,而且提供了很多接口,如 Python、 Ruby、 MATLAB 等語言,包含了圖像處理和智能計(jì)算機(jī)視覺方面的很多通用算法。 ( 2) 應(yīng)用領(lǐng)域 : OpenCV 的應(yīng)用領(lǐng)域很廣泛。如: 人機(jī) 互動、物體識別、圖象分割、人臉識別、動作識別、運(yùn)動跟蹤和機(jī)器人等領(lǐng)域。 OpenCV 的優(yōu)勢及項(xiàng)目歷史
點(diǎn)擊復(fù)制文檔內(nèi)容
醫(yī)療健康相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1