【正文】
w k k ho kww w k ho k? ? ?????? ? ? ????()o k?()howk BP網(wǎng)絡的標準學習算法 第七步,利用隱含層各神經(jīng)元的 和輸入層各神經(jīng)元的輸入修正連接權。 第二步 ,隨機選取第 k個輸入樣本及對應期望輸出 ?? ?12( ) ( ), ( ), , ( )nk x k x k x k?x? ?12( ) ( ), ( ), , ( )qk d k d k d k?od BP網(wǎng)絡的標準學習算法 第三步,計算隱含層各神經(jīng)元的輸入和輸出 1( ) ( ) 1 , 2 , ,nh i h i hih i k w x k b h p?? ? ??( ) f ( ( ) ) 1 , 2 , ,hhho k hi k h p??1( ) ( ) 1 , 2 ,po h o h ohyi k w h o k b o q?? ? ??( ) f ( ( ) ) 1 , 2 ,ooy o k y i k o q?? BP網(wǎng)絡的標準學習算法 第四步,利用網(wǎng)絡期望輸出和實際輸出,計算誤差函數(shù)對輸出層的各神經(jīng)元的偏導數(shù) 。 期望輸出向量 。 輸出層輸入向量 。 BP網(wǎng)絡的標準學習算法 算法思想 學習的類型:有導師學習 核心思想: 將輸出誤差 以某種形式 通過隱層向輸入層逐層反傳 學習的過程: 信號的正向傳播 誤差的反向傳播 將誤差分攤給各層的所有單元---各層單元的誤差信號 修正各單元權值 BP網(wǎng)絡的標準學習算法 學習過程 正向傳播: 輸入樣本---輸入層---各隱層---輸出層 判斷是否轉入反向傳播階段: 若輸出層的實際輸出與期望的輸出(教師信號)不符 誤差反傳 誤差以某種形式在各層表示----修正各層單元的權值 網(wǎng)絡輸出的誤差減少到可接受的程度 進行到預先設定的學習次數(shù)為止 BP網(wǎng)絡的標準學習算法 網(wǎng)絡結構 輸入層有 n個神經(jīng)元,隱含層有 p個神經(jīng)元 , 輸出層有 q個神經(jīng)元 變量定義 輸入向量 。 前項多層網(wǎng)絡的 BP學習算法 2 圖 BP網(wǎng)絡結構 BP網(wǎng)絡的標準學習算法 學習的過程: 神經(jīng)網(wǎng)絡在外界輸入樣本的刺激下不斷改變網(wǎng)絡的連接權值 ,以使網(wǎng)絡的輸出不斷地接近期望的輸出。分兩個階段: 正向過程 :從輸入層經(jīng)隱層逐層正向計算各單元的輸出。 問題 :多層感知器的中間隱層不直接與外界連接,其誤差無法直接計算。 感知器學習算法 感知器學習算法:誤差修正學習 ()k j k k jw t a p?? ? ?? 對應于線性判別函數(shù) ? 對線性可分問題算法收斂, ? 對線性不可分的數(shù)據(jù)算法不收斂 T???W e p 多層感知器 多層感知器 : MultiLayer Perceptron, MLP Architecture: 多層感知器的一致逼近性 邏輯功能 :單個閾值神經(jīng)元可以實現(xiàn)任意多輸入的與、或及與非、或非邏輯門。 感知器是由閾值元件組成且具有單層計算單元的神經(jīng)網(wǎng)絡,具有學習功能。 前饋網(wǎng)絡通常分為不同的 層 (layer),第 i層的輸入只與第 i1層的輸出聯(lián)結。( Winner takes all, WTA) ()0k j j k jkjw p w kwk?? ? ???若 神 經(jīng) 元 獲 勝若 神 經(jīng) 元 失 敗wkj k pj 前饋神經(jīng)網(wǎng)絡 (feed forward NN):各神經(jīng)元接受前級輸入,并輸出到下一級,無反饋,可用一有向無環(huán)圖表示。 教師 神經(jīng)網(wǎng)絡 比較 環(huán)境 實際輸出 輸入 期望輸出 誤差信號 p(n) t(n) a(n) e(n) 非監(jiān)督學習與再勵學習 非監(jiān)督學習 :不存