【正文】
?缺點(diǎn): ( 1)該學(xué)習(xí)算法的收斂速度慢;( 2)網(wǎng)絡(luò)中隱節(jié)點(diǎn)個(gè)數(shù)的選取尚無理論上的指導(dǎo);( 3)從數(shù)學(xué)角度看, BP算法是一種梯度最速下降法,這就可能出現(xiàn)局部極小的問題。 ?=train(,P,T)。,39。 。它是可導(dǎo)函數(shù),適用于 BP訓(xùn)練的神經(jīng)元。tansig39。 1( ) ( ) ( )( ) ( )h o o hhoNNh o h o o hew k k h o kww w k h o k? ? ?????? ? ? ????()o k?()howk2 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?第七步,利用隱含層各神經(jīng)元的 和輸入層各神經(jīng)元的輸入修正連接權(quán)。 ?隱含層輸入向量; ?隱含層輸出向量 。 ( 2)神經(jīng)網(wǎng)絡(luò)是一個(gè)由大量簡(jiǎn)單的處理單元組成的高度復(fù)雜的大規(guī)模非線性自適應(yīng)系統(tǒng) (3)ANN力求從四個(gè)方面去模擬人腦的智能行為 ?物理結(jié)構(gòu) ?計(jì)算模擬 ?存儲(chǔ)與操作 ?訓(xùn)練 ?3主要組成 ( 1) 一組處理單元 ( PE或 AN) ; ( 2) 處理單元的 激活狀態(tài) ( ai) ; ( 3) 每個(gè)處理單元的 輸出函數(shù) ( fi) ; ( 4) 處理單元之間的 聯(lián)接模式 ; ( 5) 傳遞規(guī)則 ( ∑ wijoi) ; ( 6) 把處理單元的輸入及當(dāng)前狀態(tài)結(jié)合起來產(chǎn)生激活值的 激活規(guī)則 ( Fi) ; ( 7) 通過經(jīng)驗(yàn)修改聯(lián)接強(qiáng)度的 學(xué)習(xí)規(guī)則 ; ( 8) 系統(tǒng)運(yùn)行的環(huán)境 ( 樣本 集合 ) 。 ( 3)應(yīng)用 它已在模式識(shí)別、機(jī)器學(xué)習(xí)、專家系統(tǒng)等多個(gè)方面得到應(yīng)用,成為人工智能研究中的活躍領(lǐng)域。( ) ( 1 )1 e ( 1 e ) ne t ne tne t y y?? ? ? ????根據(jù) S型激活函數(shù)的圖形可知 ,對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,應(yīng)該將 的值盡量控制在收斂比較快的范圍內(nèi) 2 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?( 1)學(xué)習(xí)的過程: ?神經(jīng)網(wǎng)絡(luò)在外界輸入樣本的刺激下不斷改變網(wǎng)絡(luò)的連接權(quán)值 ,以使網(wǎng)絡(luò)的輸出不斷地接近期望的輸出。 ?第二步 ,隨機(jī)選取第 個(gè)輸入樣本及對(duì)應(yīng)期望輸出 ?k? ?12( ) ( ) , ( ) , , ( )nk x k x k x k?x? ?12( ) ( ) , ( ) , , ( )qk d k d k d k?od2 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?第三步,計(jì)算各層各神經(jīng)元的輸入和輸出 1( ) ( ) 1 , 2 , ,nh i h i hih i k w x k b h p?? ? ??( ) f( ( )) 1 , 2 , ,hhh o k h i k h p??1( ) ( ) 1 , 2 ,po h o h ohy i k w h o k b o q?? ? ??( ) f( ( )) 1 , 2 ,ooy o k y i k o q??2 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?第四步,利用網(wǎng)絡(luò)期望輸出和實(shí)際輸出,計(jì)算誤差函數(shù)對(duì)輸出層的各神經(jīng)元的偏導(dǎo)數(shù) 。 who hoew??e 0,此時(shí) Δwho0 2 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?BP算法直解釋 ?情況二直觀表達(dá) 當(dāng)誤差對(duì)權(quán)值的偏導(dǎo)數(shù) 小于零時(shí),權(quán)值調(diào)整量 為正,實(shí)際輸出少于期 望輸出,權(quán)值向增大方向 調(diào)整,使得實(shí)際輸出與期 望輸出的差減少。 (6)PFPerformance function, default = 39。 。0 1。 ?=15000。 ?( 3)容錯(cuò)能力 ?輸入樣本中帶有較大的誤差甚至個(gè)別錯(cuò)誤對(duì)網(wǎng)絡(luò)的輸入輸出規(guī)律影響很小。 小結(jié) ?BP算法背景 ?BP神經(jīng)網(wǎng)絡(luò)模型 ?BP算法 ?基本思想 ?推導(dǎo)過程 ?實(shí)現(xiàn) ?BP神經(jīng)網(wǎng)