freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

目標分割和分類研究-資料下載頁

2025-06-22 18:07本頁面
  

【正文】 一定值為止。算法可以描述如下:步驟1:設(shè)定各網(wǎng)絡(luò)權(quán)值為隨機值。設(shè)定學(xué)習(xí)因子(包括誤差調(diào)整速率等參數(shù))和各個樣本的期望輸出。步驟2:從樣本集中隨機取樣本,逐層計算輸出信號,得到網(wǎng)絡(luò)的輸出值。步驟3:計算實際輸出與期望輸出的誤差值,如果足夠小,則跳至步驟6。步驟4:如果訓(xùn)練的迭代次數(shù)超出設(shè)定值,跳至步驟6;如果沒有超出,則計算各層的誤差梯度。步驟5:根據(jù)各層誤差梯度,沿其負方向調(diào)整網(wǎng)絡(luò)權(quán)值,跳至步驟3。步驟6:如果所有樣本均經(jīng)過訓(xùn)練,則訓(xùn)練結(jié)束;如果尚有未訓(xùn)練的樣本,跳至步驟2。 各層節(jié)點個數(shù)與識別神經(jīng)網(wǎng)絡(luò)節(jié)點分為輸入層節(jié)點、隱層節(jié)點和輸出層節(jié)點。輸入層節(jié)點數(shù)與提取圖像特征值個數(shù)一致;隱層節(jié)點數(shù)由實驗決定。輸入層節(jié)點值范圍在[1,1]間。因此,特征值在輸入前,需要歸一化。 (),代表當(dāng)前輸入節(jié)點最大值,;代表當(dāng)前輸入節(jié)點最小值,;為當(dāng)前輸入節(jié)點值。輸出層節(jié)點數(shù)與密度等級個數(shù)一致。因為本文將圖像等級分為5類,所以輸出節(jié)點個數(shù)為5。 神經(jīng)網(wǎng)絡(luò)理想輸出 節(jié)點1節(jié)點2節(jié)點3節(jié)點4節(jié)點5低密度中低密度中等密度中高密度高密度在識別過程中,特征值經(jīng)過歸一化后輸入神經(jīng)網(wǎng)絡(luò),經(jīng)過神經(jīng)網(wǎng)絡(luò)處理,輸出層節(jié)點輸出結(jié)果。擁有最大輸出值的節(jié)點便對應(yīng)著相應(yīng)的密度等級。 訓(xùn)練樣本集選取樣本集分為訓(xùn)練樣本集、測試樣本集和評估樣本集。訓(xùn)練樣本集個數(shù)為輸入節(jié)點個數(shù)與隱層節(jié)點個數(shù)乘積的2到10倍[12]。測試樣本集和評估樣本集個數(shù)無特殊要求。訓(xùn)練樣本集用來對BP神經(jīng)網(wǎng)絡(luò)權(quán)值進行修正,要能盡可能準確地反應(yīng)識別函數(shù)。神經(jīng)網(wǎng)絡(luò)通過對訓(xùn)練樣本的學(xué)習(xí)和模仿,便能使自身的網(wǎng)絡(luò)函數(shù)近似于識別函數(shù)。實際情況下,一種密度等級類別中圖像多種多樣。例如只要每平方米人數(shù)取值范圍在(,]就屬于中等等級密度。因此訓(xùn)練樣本集必須具有代表性,必須盡可能反映實際應(yīng)用中可能出現(xiàn)的各種情況,這樣訓(xùn)練出來的神經(jīng)網(wǎng)絡(luò)才具有魯棒性,才能在復(fù)雜情況下做出正確判決。此外,訓(xùn)練樣本集必須考慮各模式之間的平衡,保證各種等級都得到充分訓(xùn)練。隨著神經(jīng)網(wǎng)絡(luò)訓(xùn)練的進行,測試樣本誤差和訓(xùn)練樣本誤差均達到很小的值;再對神經(jīng)網(wǎng)絡(luò)進行訓(xùn)練,訓(xùn)練樣本誤差降低,幅度不明顯,但測試樣本誤差有較大幅度上升。說明網(wǎng)絡(luò)已經(jīng)達到訓(xùn)練極限,繼續(xù)訓(xùn)練會發(fā)生“過度擬合”,因此,測試樣本誤差上升可以作為結(jié)束訓(xùn)練的標志。測試樣本集與訓(xùn)練樣本集沒有交集,也需要考慮模式間平衡。除了訓(xùn)練樣本集和測試樣本集外,還需要評估樣本集。一個神經(jīng)網(wǎng)絡(luò)在使用之前,必須保證它是對識別函數(shù)的最優(yōu)近似。由于非線型函數(shù)的復(fù)雜性,存在多組截然不同的網(wǎng)絡(luò)權(quán)值,可以很好地近似它。而在訓(xùn)練中,雖然訓(xùn)練樣本集誤差可以達到很小的值,測試樣本集誤差也降低到合適的程度,卻無法判定該網(wǎng)絡(luò)是最優(yōu)的。網(wǎng)絡(luò)的優(yōu)良與否,受多方面因素的影響,包括隨機樣本訓(xùn)練的順序,網(wǎng)絡(luò)的初始權(quán)值等等。這些都是隨機的,導(dǎo)致最終的訓(xùn)練結(jié)果在一定范圍內(nèi),也是隨機的。要從多組網(wǎng)絡(luò)權(quán)值中選擇最優(yōu)的,唯有經(jīng)過實踐檢驗,評估樣本集正是為了這個目的引入的。評估樣本集與訓(xùn)練樣本集和測試樣本集均無交集,同時也要考慮模式之間的平衡。在訓(xùn)練得到多組網(wǎng)絡(luò)權(quán)值后,選擇對應(yīng)于最小評估樣本誤差的網(wǎng)絡(luò)權(quán)值,作為最優(yōu)網(wǎng)絡(luò)。本文中,訓(xùn)練樣本集樣本個數(shù)為5000,每種等級的樣本個數(shù)均等,均為1000左右。測試樣本集樣本和評估樣本集樣本個數(shù)均為500。各個樣本集間均無交集。 ICA聚類分析經(jīng)過兩種算法處理后,得到的特征值在高維空間較為分散,于是加入ICA聚類分析[13]。在將特征向量輸入神經(jīng)網(wǎng)絡(luò)前進行ICA聚類分析的原因是它可以使得不同類別特征值分離,同一類別特征值更加緊湊。因此,使用ICA聚類分析來提高密度等級分類準確率。ICA聚類算法主要分為中心化、去相關(guān)性和快速ICA分析三個部分。中心化是指使特征向量的均值為0。在本文的系統(tǒng)中,經(jīng)過歸一化后的特征向量取值范圍在[1,1]之間,均值為0。經(jīng)過去相關(guān)性處理后,向量元素間相關(guān)性為0。 ()為去相關(guān)性處理后的向量。本文采用特征值分解方法來去相關(guān)性。 () () () ()其中,代表的正交矩陣;為其特征值的對角矩陣。,可以得到去相關(guān)性后的輸入向量。將特征向量去相關(guān)性后經(jīng)過快速ICA分析,: ()其中,為經(jīng)過快速ICA聚類后的特征向量。: ()其中,,并且每次迭代后均需要正交化。經(jīng)過ICA聚類分析后,得到的特征向量需要重新歸一化。經(jīng)過ICA聚類分析后,使得同類特征向量更加緊湊,不同類特征向量更加分離,神經(jīng)網(wǎng)絡(luò)識別率提高。 實驗結(jié)果根據(jù)單位面積內(nèi)人群數(shù)量將密度分為五個等級,其中D表示單位面積內(nèi)人數(shù)。改進后的密度等級分類算法大大提高了準確率。針對166個特征值,選取約5000幅密度等級均勻分布的圖像作為BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練樣本。 密度等級分類密度等級水平面樓梯低D≤D≤中低<D≤<D≤中等<D≤<D≤中高<D≤<D≤高 各種算法準確率比較分形算法GLDMGLDM+GaborGLDM+Gabor+ICA準確率%%%%由于人群密度變化是漸變的,所以無需對每幅圖像進行密度等級分類,本文每十幀處理一次。其中第四種算法,即本文改進算法,分類錯誤的情況都是分類時將密度等級錯誤分類到鄰居密度等級。,其中每種類別的圖像數(shù)量相當(dāng),均為1800幅左右。 分形算法分類結(jié)果低密度中低密度中密度中高密度高密度低密度16908439230中低密度671569603911中密度331781273201124中高密度17972961148235高密度0861844781069 GLDM算法分類結(jié)果低密度中低密度中密度中高密度高密度低密度1659948300中低密度741494134430中密度5165141217948中高密度1621641410156高密度091402921394 GLDM+Gabor算法分類結(jié)果低密度中低密度中密度中高密度高密度低密度16311495600中低密度77155883270中密度093157411428中高密度031102156793高密度00371951585 本文算法分類結(jié)果低密度中低密度中密度中高密度高密度低密度176076000中低密度5116623200中密度0591688620中高密度0054167663高密度0001061711因為密度變化是漸變的,所以引入噪聲去除。在密度估計中,若當(dāng)前密度等級與前一次處理得到的密度等級不同,則設(shè)置當(dāng)前密度等級為前一次處理得到的密度等級。若滿足此種情況,并且下一次處理得到的密度等級與前一次不同,則當(dāng)前密度等級為計算得到的密度等級。,視頻時間長為280秒。,橫坐標代表時間,單位為秒;縱坐標代表密度等級,A為低密度,E為高密度。正方形曲線代表視頻圖像的正確密度等級;菱形曲線為本文算法得到的錯誤密度等級。,在210s到230s之間本文得到錯誤分類結(jié)果,主要原因是在210s到230s之間視頻中檢測區(qū)域內(nèi)人群攜帶大件行李,并且行李具有較多的紋理特征所致。 密度等級分類結(jié)果圖 密度等級分類錯誤示意圖第5章 總結(jié)和展望 總結(jié)基于視頻的復(fù)雜場景信息提取系統(tǒng)架設(shè)方便,能夠獲得客流量的多種信息參數(shù),從多種信息檢測手段中脫穎而出。復(fù)雜場景客流量信息提取包括三個方面,密度等級分類、人臉檢測和人臉跟蹤。關(guān)于密度等級分類的研究由來已久,然而到目前為止尚未有一種算法可以很好地解決較高密度等級間的密度等級分類問題和鄰居類間的密度等級誤分類問題。人臉檢測和人臉跟蹤也是目前檢測和跟蹤方面研究的熱點和重點,但是由于運動目標的狀態(tài)受自身動作變化、光照變化、運動目標間相互遮擋等因素影響,導(dǎo)致目標的狀態(tài)在檢測和跟蹤的過程中不是一成不變的,這種變化給人臉檢測和跟蹤帶來很大的影響。在深入總結(jié)前人工作的基礎(chǔ)上,本文提出了解決方案。首先,深入研究了前人經(jīng)典的密度等級分類算法并在前人經(jīng)典的密度等級分類算法基礎(chǔ)上提出了基于BP神經(jīng)網(wǎng)絡(luò)的密度等級分類算法。根據(jù)地鐵客流量的特點,將圖像分為若干個小窗口后再進行特征提取,并使用了Gabor濾波器對圖像進行特征向量提取。在分類器的選擇上,使用了BP神經(jīng)網(wǎng)絡(luò)。改進的密度等級分類算法較以往經(jīng)典的密度等級分類算法準確率有了較大的提高,并且本文算法錯誤分類的情況均為鄰居類間的誤判。其次,深入研究并實現(xiàn)了AdaBoost人臉檢測算法。人臉檢測用來判斷客流量。AdaBoost算法是一種經(jīng)典并且目前最流行的人臉檢測算法。它使用類Haar特征作為提取的特征向量。AdaBoost人臉檢測算法較其它經(jīng)典算法檢測準確率高,漏檢率和誤判率低。通過對地鐵等場景視頻進行實驗,驗證了此人臉檢測算法的準確率能夠滿足實際應(yīng)用,但是當(dāng)客流量較為密集時,此檢測算法耗時較長,難以滿足實時性的要求。然后,由于以往攝像機標定算法依賴于攝像機架設(shè)高度、攝像機焦距等,當(dāng)標定平面與攝像機距離較近時,以往攝像機標定算法失敗,并且以往攝像機標定算法所需圖像和世界坐標信息量較大。因此,本文提出了一種基于透視變換的新的標定算法。此算法所需信息少,只需知道圖像中六個點世界坐標即可,并且當(dāng)標定平面與攝像機距離較近時,本文標定算法依舊有效并且準確率未降低。通過實驗證明,本文的標定算法克服了傳統(tǒng)算法標定復(fù)雜、計算量大、占用內(nèi)存較多的缺點,具有較高的準確率,完全符合實際應(yīng)用。最后,本文深入研究了以往的人臉跟蹤算法并提出了本文的基于匹配算法的人臉跟蹤算法。在人臉檢測的基礎(chǔ)上,對人臉進行跟蹤并進行速度計算。本文的跟蹤算法采用顏色特征和HOG特征,并針對以往顏色直方圖的缺點采用了累計直方圖,針對以往HOG計算量大耗時長的缺點進行了改進。本文的人臉跟蹤算法能夠滿足實時性的要求,并且準確率高,針對短時間內(nèi)的目標遮擋,也有很好的處理效果。本文提出的算法在性能上具有較大的提升,通過大量的實驗證明了算法的優(yōu)越性,具有一定的價值,能夠?qū)嶋H應(yīng)用。 進一步研究方向本文針對復(fù)雜場景下客流量信息提取進行了研究,取得了初步的成功。但是在視頻監(jiān)控領(lǐng)域,研究內(nèi)容非常廣泛,還包括客流的行為分析等,尚有許多方面有待進一步深入研究。若是根據(jù)跟蹤人臉計算客流的速度,則二維標定具有一定的誤差,因為,二維只能標定一個平面,人臉位于三維空間中,而不是某一平面上。因此,三維標定是本文以后一個研究方向。本文的人臉檢測在客流低頭或側(cè)身時,會導(dǎo)致漏檢,并且當(dāng)某一區(qū)域的形狀和顏色類似人臉時,會發(fā)生誤檢。因此如何降低人臉檢測的漏檢和誤檢也是本文以后研究的一個方向。最后,如何提高算法的實時性,盡量減少算法的時間消耗,提高算法的實用性也是本文的一個研究方向。隨著研究的不斷深入,客流量信息提取必定會朝著魯棒的實際應(yīng)用發(fā)展,能夠在實際應(yīng)用中滿足系統(tǒng)的準確率、魯棒性和實時性是本文要研究的最終目標。
點擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1