【正文】
?????? ? ???????? ? ?????????11()( ( ) ( ) ) f ( ( ) )()( ( ) ) f ( ( ) ) ( )qho o o h oo hqo h o h hoh o kd k yo k yi k wh i kk w h i k k??????? ? ???? ? ??? BP網(wǎng)絡(luò)的標準學習算法 ?第六步,利用輸出層各神經(jīng)元的 和隱含層各神經(jīng)元的輸出來修正連接權(quán)值 。 ?期望輸出向量 。 BP網(wǎng)絡(luò)的標準學習算法 算法思想 ?學習的類型:有導師學習 ?核心思想: ? 將輸出誤差 以某種形式 通過隱層向輸入層逐層反傳 ?學習的過程: ?信號的正向傳播 誤差的反向傳播 將誤差分攤給各層的所有單元---各層單元的誤差信號 修正各單元權(quán)值 BP網(wǎng)絡(luò)的標準學習算法 學習過程 ?正向傳播: ? 輸入樣本---輸入層---各隱層---輸出層 ?判斷是否轉(zhuǎn)入反向傳播階段: ? 若輸出層的實際輸出與期望的輸出(教師信號)不符 ?誤差反傳 ? 誤差以某種形式在各層表示----修正各層單元的權(quán)值 ?網(wǎng)絡(luò)輸出的誤差減少到可接受的程度 進行到預先設(shè)定的學習次數(shù)為止 BP網(wǎng)絡(luò)的標準學習算法 ?網(wǎng)絡(luò)結(jié)構(gòu) ?輸入層有 n個神經(jīng)元,隱含層有 p個神經(jīng)元 , 輸出層有 q個神經(jīng)元 ?變量定義 ?輸入向量 。智能中國網(wǎng)提供學習支持 BP神經(jīng)網(wǎng)絡(luò)模型與學習算法 概述 ?Rumelhart, McClelland于 1985年提出了 BP網(wǎng)絡(luò)的誤差反向后傳 BP(Back Propagation)學習算法 ?BP算法基本原理 ?利用輸出后的誤差來估計輸出層的直接前導層的誤差,再用這個誤差估計更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計。 ?學習的本質(zhì): ?對各連接權(quán)值的動態(tài)調(diào)整 ?學習規(guī)則: ?權(quán)值調(diào)整規(guī)則,即在學習過程中網(wǎng)絡(luò)中各神經(jīng)元的連接權(quán)變化所依據(jù)的一定的調(diào)整規(guī)則。 ?輸出層輸出向量 。 oho o hoe e y iw y i w? ? ??? ? ?( ( ) )()()ph o h oo hhh o h ow h o k by i kh o kww????????211( ( ( ) ( )) )2( ( ) ( )) ( )( ( ) ( )) f ( ( )) ( )qoooo o oooo o o