freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

bp神經(jīng)網(wǎng)絡(luò)詳解和實(shí)例-wenkub

2023-06-09 22:34:59 本頁面
 

【正文】 和觸角決定了坐標(biāo)平面的一個點(diǎn) .其中 6個蚊子屬于 APf類;用黑點(diǎn) “ 神經(jīng)網(wǎng)絡(luò)的數(shù)學(xué)模型 ? 眾多神經(jīng)元之間組合形成神經(jīng)網(wǎng)絡(luò),例如下圖的含有中間層(隱層)的 BP網(wǎng)絡(luò) 基本 BP網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu) b1 bi a1 c1 cq cj ah bp an … … … … … … Wp1 Wiq Wpj W1q W1j Wij V11 W11 Wpq Wi1 Vh1 Vhi V1i Vn1 Vni V1p Vhp Vnp kjc kqckha kna1ka輸出層 LC 隱含層 LB 輸入層 LA W V klc ANN類型與功能 一般而言 , ANN與經(jīng)典計算方法相比并非優(yōu)越 , 只有當(dāng)常規(guī)方法解決不了或效果不佳時 ANN方法才能顯示出其優(yōu)越性。 (2)信息處理和存儲單元結(jié)合在一起。 ( 3) ANN研究帶有濃厚的策略和經(jīng)驗(yàn)色彩。 (2)低潮 (7080年代初 ): (3)第二次熱潮 1982年,美國物理學(xué)家 Hopfield模型,它是一個互聯(lián)的非線性動力學(xué)網(wǎng)絡(luò) .他解決問題的方法是一種反復(fù)運(yùn)算的動態(tài)過程 ,這是符號邏輯處理方法所不具備的性質(zhì) . 1987年首屆國際 ANN大會在圣地亞哥召開,國際 ANN聯(lián)合會成立,創(chuàng)辦了多種 ANN國際刊物。 (2)爭取構(gòu)造出盡可能與人腦具有相似功能的計算機(jī),即 ANN計算機(jī)。 ( 3) 應(yīng)用的研究 :探討如何應(yīng)用 ANN解決實(shí)際問題,如模式識別、故障檢測、智能機(jī)器人等。 ? 研究 ANN目的: ? ( 1)探索和模擬人的感覺、思維和行為的規(guī) 律,設(shè)計 具有人類智能的計算機(jī)系統(tǒng)。 ? ( 2)探討人腦的智能活動,用物化了的智能來 考察和研 究人腦智能的物質(zhì)過程及其規(guī)律。 研究 ANN方法 ( 1) 生理結(jié)構(gòu)的模擬: 用仿生學(xué)觀點(diǎn),探索人腦的生理結(jié)構(gòu),把對人腦的微觀結(jié)構(gòu)及其智能行為的研究結(jié)合起來即人工神經(jīng)網(wǎng)絡(luò)( Artificial Neural Netwroks,簡稱 ANN)方法。 (3)研究仿照腦神經(jīng)系統(tǒng)的人工神經(jīng)網(wǎng)絡(luò),將在模式識別、組合優(yōu)化和決策判斷等方面取得傳統(tǒng)計算機(jī)所難以達(dá)到的效果。 1990年 12月,北京召開首屆學(xué)術(shù)會議。 ( 4) ANN與傳統(tǒng)技術(shù)的接口不成熟。 (3)自組織自學(xué)習(xí)功能。尤其對問題的機(jī)理不甚了解或不能用數(shù)學(xué)模型表示的系統(tǒng) ,如故障診斷、特征提取和預(yù)測等問題 ,ANN往往是最有利的工具?!北硎?; 9個蚊子屬 Af類;用小圓圈 “ 。)()()( iufiaiti pLpLppL ??? ( 11) ( 12) ? ??????11)1(1)(1)(39。 ? 建模 : ( 輸入層 , 中間層 , 輸出層 , 每層的元素應(yīng)取多少個 ? ) ? 建立神經(jīng)網(wǎng)絡(luò) ? 規(guī)定目標(biāo)為: 當(dāng) t(1)= 時表示屬于 Apf類 , t(2)=示屬于 Af類 。 (2) 根據(jù)輸入數(shù)據(jù)利用公式算出網(wǎng)絡(luò)的輸出 ????????????3101010101131010101011)(),2()3()3,2()2()2,2()1()1,2()2()(),1()3()3,1()2()2,1()1()1,1()1(jjjajwawawawujajwawawawu))(()( 11 iufia ? ))(ex p (1 11 iu??= 2,1?i,1)3(1 ??a))1(e x p (11)1()(),1()1(2231122uajajwuj???? ??取 ( 3)計算 xexf ??? 11)(因?yàn)? 所以 239。在建模過程中的許多問題正是具有高度的非線性。 ?數(shù)據(jù)融合的能力 :神經(jīng)網(wǎng)絡(luò)可以同時處理定量信息和定性信息,因此它可以利用傳統(tǒng)的工程技術(shù)(數(shù)值運(yùn)算)和人工智能技術(shù)(符號處理)。 基本 BP網(wǎng)絡(luò)的拓?fù)浣Y(jié)構(gòu) klcb1 bi a1 c1 cq cj ah bp an … … … … … … Wp1 Wiq Wpj W1q W1j Wij V11 W11 Wpq Wi1 Vh1 Vhi V1i Vn1 Vni V1p Vhp Vnp kjc kqckha kna1ka輸出層 LC 隱含層 LB 輸入層 LA W V klcklc 收集和整理分組 采用 BP神經(jīng)網(wǎng)絡(luò)方法建模的 首要和前提條件 是有足夠多典型性好和精度高的樣本。若輸入變量較多,一般可通過主成份分析方法壓減輸入變量,也可根據(jù)剔除某一變量引起的系統(tǒng)誤差與原系統(tǒng)誤差的比值的大小來壓減輸入變量。因此,要對輸入數(shù)據(jù)進(jìn)行預(yù)處理。但必須注意的是,預(yù)處理的數(shù)據(jù)訓(xùn)練完成后,網(wǎng)絡(luò)輸出的結(jié)果要進(jìn)行反變換才能得到實(shí)際值。顯然,這是一個存在性結(jié)論。因此,一般認(rèn)為,應(yīng)將不含隱層的網(wǎng)絡(luò)模型歸入回歸分析中,技術(shù)已很成熟,沒有必要在神經(jīng)網(wǎng)絡(luò)理論中再討論之。為盡可能避免訓(xùn)練時出現(xiàn)“過擬合”現(xiàn)象,保證足夠高的網(wǎng)絡(luò)性能和泛化能力, 確定隱層節(jié)點(diǎn)數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結(jié)構(gòu),即取盡可能少的隱層節(jié)點(diǎn)數(shù)。 (2) 訓(xùn)練樣本數(shù)必須多于網(wǎng)絡(luò)模型的連接權(quán)數(shù),一般為2~10倍,否則,樣本必須分成幾部分并采用“輪流訓(xùn)練”的方法才可能得到可靠的神經(jīng)網(wǎng)絡(luò)模型。雖然理論上早已經(jīng)證明:具有 1個隱層(采用 Sigmoid轉(zhuǎn)換函數(shù))的 BP網(wǎng)絡(luò)可實(shí)現(xiàn)對任意函數(shù)的任意逼近。目前雖已有改進(jìn) BP法、遺傳算法( GA)和模擬退火算法等多種優(yōu)化方法用于 BP網(wǎng)絡(luò)的訓(xùn)練 (這些方法從原理上講可通過調(diào)整某些參數(shù)求得全局極小點(diǎn) ),但在應(yīng)用中,這些參數(shù)的調(diào)整往往因問題不同而異,較難求得全局極小點(diǎn)。所以,一般傾向選取較小的學(xué)習(xí)率以保證學(xué)習(xí)過程的收斂性(穩(wěn)定性),通常在 ~。 4 網(wǎng)絡(luò)的初始連接權(quán)值 BP算法決定了誤差函數(shù)一般存在(很)多個局部極小點(diǎn),不同的網(wǎng)絡(luò)初始權(quán)值直接決定了 BP算法收斂于哪個局部極小點(diǎn)或是全局極小點(diǎn)。從存在性結(jié)論可知,即使每個訓(xùn)練樣本的誤差都很?。梢詾榱悖?,并不意味著建立的模型已逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律。非訓(xùn)練樣本誤差很接近訓(xùn)練樣本誤差或比其小,一般可認(rèn)為建立的網(wǎng)絡(luò)模型已有效逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律,否則,若相差很多(如幾倍、幾十倍甚至上千倍)就說明建立的網(wǎng)絡(luò)模型并沒有有效逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律,而只是在這些訓(xùn)練樣本點(diǎn)上逼近而已,而建立的網(wǎng)絡(luò)模型是對訓(xùn)練樣本所蘊(yùn)含規(guī)律的錯誤反映。必須注意的是,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程本質(zhì)上是求非線性函數(shù)的極小點(diǎn)問題,因此,在全局極小點(diǎn)鄰域內(nèi)(即使網(wǎng)絡(luò)誤差相同),各個網(wǎng)絡(luò)連接權(quán)值也可能有較大的差異,這有時也會使各個輸入變量的重要性發(fā)生變化,但這與具有多個零極小點(diǎn)(一般稱為多模式現(xiàn)象)(如訓(xùn)練樣本數(shù)少于連接權(quán)數(shù)時)的情況是截然不同的。一般地,隨著網(wǎng)絡(luò)結(jié)構(gòu)的變大,誤差變小。這個過程并不是有些作者想象的(實(shí)際也是這么做的)那樣,隨便套用一個公式確定隱層節(jié)點(diǎn)數(shù),經(jīng)過一次訓(xùn)練就能得到合理的網(wǎng)絡(luò)模型(這樣建立的模型極有可能是訓(xùn)練樣本的錯誤反映,沒有任何實(shí)用價值)。由于網(wǎng)絡(luò)中神經(jīng)元作用函數(shù)的非線性,網(wǎng)絡(luò)實(shí)現(xiàn)是復(fù)雜的非線性映射。BP算法中有幾個常用的參數(shù),包括學(xué)習(xí)率 η,動量因子 α,形狀因子 λ及收斂誤差界值 E等。 MATLAB本身帶有神經(jīng)網(wǎng)絡(luò)工具箱,可以大大方便權(quán)值訓(xùn)練,減少訓(xùn)練程序工作量,有效的提高工作效率 . 隱層的數(shù)目 : 理論上雖然證明了這類網(wǎng)絡(luò)的逼近能力,對于網(wǎng)絡(luò)結(jié)構(gòu)的要求,并沒有給出明確的說明??紤]到本研究的特點(diǎn),結(jié)合不同隱層網(wǎng)絡(luò)結(jié)構(gòu)的訓(xùn)練結(jié)果,本文選擇了隱層數(shù) L=2的網(wǎng)絡(luò)結(jié)構(gòu)模型。事實(shí)上隱層神經(jīng)元太少不可能將網(wǎng)絡(luò)訓(xùn)練出來,但太多又使學(xué)習(xí)時間過長,使網(wǎng)絡(luò)不“不強(qiáng)壯”,泛化能力下降,即不能識別以前沒有直接接收到的樣本,容錯性差。為了保證算法的收斂性,學(xué)習(xí)率 η必須小于某一上限,一般取 0η1而且越接近極小值,由于梯度變化值逐漸趨于零,算法的收斂就越來越慢。針對具體的網(wǎng)絡(luò)結(jié)構(gòu)模型和學(xué)習(xí)樣本,都存在一個最佳的學(xué)習(xí)率門和動量因子 α,它們的取值范圍一般 0~ 1之間,視實(shí)際情況而定。初始權(quán)、閾值的選擇因具體的網(wǎng)絡(luò)結(jié)構(gòu)模式和訓(xùn)練樣本不同而有所差別,一般應(yīng)視實(shí)際情況而定。當(dāng) Emin 值選擇較小時,學(xué)習(xí)效果好,但收斂速度慢,訓(xùn)練次數(shù)增加。前饋型靜態(tài)網(wǎng)絡(luò)的神經(jīng)元作用函數(shù)的總輸入是與其相連的其它神經(jīng)元輸出的加權(quán),在使用 BP算法時,要防止神經(jīng)元進(jìn)入飽和狀態(tài),必須限制與其相連的其它神經(jīng)元的輸出幅值。本文使用的標(biāo)準(zhǔn)化方法如下:
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1