【正文】
形可知 ,對神經(jīng)網(wǎng)絡進行訓練,應該將 的值盡量控制在收斂比較快的范圍內(nèi) 2 BP網(wǎng)絡的標準學習算法 ?( 1)學習的過程: ?神經(jīng)網(wǎng)絡在外界輸入樣本的刺激下不斷改變網(wǎng)絡的連接權值 ,以使網(wǎng)絡的輸出不斷地接近期望的輸出。 ?( 2)學習的本質(zhì): ?對各連接權值的動態(tài)調(diào)整 ?( 3)學習規(guī)則: ?權值調(diào)整規(guī)則,即在學習過程中網(wǎng)絡中各神經(jīng)元的連接權變化所依據(jù)的一定的調(diào)整規(guī)則。 2 BP網(wǎng)絡的標準學習算法 算法思想 ?( 4)學習的類型:有導師學習 ?( 5)核心思想: ? 將輸出誤差 以某種形式 通過隱層向輸入層逐層反傳 ?( 6)學習的過程: ?信號的正向傳播 誤差的反向傳播 將誤差分攤給各層的所有單元---各層單元的誤差信號 修正各單元權值 2 BP網(wǎng)絡的標準學習算法 學習過程 ?正向傳播: ? 輸入樣本---輸入層---各隱層---輸出層 ?判斷是否轉(zhuǎn)入反向傳播階段: ? 若輸出層的實際輸出與期望的輸出(教師信號)不符 ?誤差反傳 ? 誤差以某種形式在各層表示----修正各層單元的權值 ?網(wǎng)絡輸出的誤差減少到可接受的程度 進行到預先設定的學習次數(shù)為止 2 BP網(wǎng)絡的標準學習算法 ?(7)網(wǎng)絡結構 ?輸入層有 n個神經(jīng)元,隱含層有 p個神經(jīng)元 , 輸出層有 q個神經(jīng)元 ?(8)變量定義 ?輸入向量 。 ?隱含層輸入向量; ?隱含層輸出向量 。 ?輸出層輸入向量 。 ?輸出層輸出向量 。 ?期望輸出向量 。 ? ?12, , , nx x x?x? ?12, , , ph i h i h i?hi? ?12, , , ph o h o h o?ho? ?12, , , qy i y i y i?yi? ?12, , , qy o y o y o?yo? ?12, , , qd d d?od2 BP網(wǎng)絡的標準學習算法 ?輸入層與中間層的連接權值 : ?隱含層與輸出層的連接權值 : ?隱含層各神經(jīng)元的閾值 : ?輸出層各神經(jīng)元的閾值 : ?樣本數(shù)據(jù)個數(shù) : ?激活函數(shù) : ?誤差函數(shù): ihwf()?howhb1, 2 ,km?ob211 ( ( ) ( ) )2qoooe d k y o k????2 BP網(wǎng)絡的標準學習算法 ?(10)標準學習算法的主要步驟 ?第一步,網(wǎng)絡初始化 ?給各連接權值分別賦一個區(qū)間( 1, 1)內(nèi)的隨機數(shù),設定誤差函數(shù) e,給定計算精度值 和最大學習次數(shù) M。 ?第二步 ,隨機選取第 個輸入樣本及對應期望輸出 ?k? ?12( ) ( ) , ( ) , , ( )nk x k x k x k?x? ?12( ) ( ) , ( ) , , ( )qk d k d k d k?od2 BP網(wǎng)絡的標準學習算法 ?第三步,計算各層各神經(jīng)元的輸入和輸出 1( ) ( ) 1 , 2 , ,nh i h i hih i k w x k b h p?? ? ??( ) f ( ( ) ) 1 , 2 , ,hhho k hi k h p??1( ) ( ) 1 , 2 ,po h o h ohy i k w h o k b o q?? ? ??( ) f ( ( ) ) 1 , 2 ,ooyo k yi k o q??2 BP網(wǎng)絡的標準學習算法 ?第四步,利用網(wǎng)絡期望輸出和實際輸出,計算誤差函數(shù)對輸出層的各神經(jīng)元的偏導數(shù) 。 oh o o h oe e y iw y i w? ? ??? ? ?( ( ) )()()ph o h oo hhh o h ow h o k byi kh o kww????????2