【正文】
逐層反傳 ?學(xué)習(xí)的過程: ?信號的正向傳播 誤差的反向傳播 將誤差分?jǐn)偨o各層的所有單元---各層單元的誤差信號 修正各單元權(quán)值 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 學(xué)習(xí)過程 ?正向傳播: ? 輸入樣本---輸入層---各隱層---輸出層 ?判斷是否轉(zhuǎn)入反向傳播階段: ? 若輸出層的實際輸出與期望的輸出(教師信號)不符 ?誤差反傳 ? 誤差以某種形式在各層表示----修正各層單元的權(quán)值 ?網(wǎng)絡(luò)輸出的誤差減少到可接受的程度 進(jìn)行到預(yù)先設(shè)定的學(xué)習(xí)次數(shù)為止 BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?網(wǎng)絡(luò)結(jié)構(gòu) ?輸入層有 n個神經(jīng)元,隱含層有 p個神經(jīng)元 , 輸出層有 q個神經(jīng)元 ?變量定義 ?輸入向量 。( ) ( 1 )1 e ( 1 e ) ne t ne tne t y y?? ? ? ????根據(jù) S型激活函數(shù)的圖形可知 ,對神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,應(yīng)該將 的值盡量控制在收斂比較快的范圍內(nèi) BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ?學(xué)習(xí)的過程: ?神經(jīng)網(wǎng)絡(luò)在外界輸入樣本的刺激下不斷改變網(wǎng)絡(luò)的連接權(quán)值 ,以使網(wǎng)絡(luò)的輸出不斷地接近期望的輸出。智能中國網(wǎng)提供學(xué)習(xí)支持 BP神經(jīng)網(wǎng)絡(luò)模型與學(xué)習(xí)算法 概述 ?Rumelhart, McClelland于 1985年提出了 BP網(wǎng)絡(luò)的誤差反向后傳 BP(Back Propagation)學(xué)習(xí)算法 ?BP算法基本原理 ?利用輸出后的誤差來估計輸出層的直接前導(dǎo)層的誤差,再用這個誤差估計更前一層的誤差,如此一層一層的反傳下去,就獲得了所有其他各層的誤差估計。 J. McClelland David Rumelhart BP神經(jīng)網(wǎng)絡(luò)模型 ?三層 BP網(wǎng)絡(luò) BP神經(jīng)網(wǎng)絡(luò)模型 ?激活函數(shù) ?必須處處可導(dǎo) 一般都使用 S型函數(shù) ?使用 S型激活函數(shù)時 BP網(wǎng)絡(luò)輸入與輸出關(guān)系 ?輸入 ?輸出 1 1 2 2 ... nnn e t x w x w x w? ? ? ?1f ( )1e n e ty n e t ??? ? BP神經(jīng)網(wǎng)絡(luò)模型 ?輸出的導(dǎo)數(shù) 211f 39。 ?學(xué)習(xí)的本質(zhì): ?對各連接權(quán)值的動態(tài)調(diào)整 ?學(xué)習(xí)規(guī)則: ?權(quán)值調(diào)整規(guī)則,即在學(xué)習(xí)過程中網(wǎng)絡(luò)中各神經(jīng)元的連接權(quán)變化所依據(jù)的一定的調(diào)整規(guī)則。 ?隱含層輸入向量; ?隱含層輸出向量 。 ?輸出層輸出向量 。 ? ?12, , , nx x x?x? ?12, , , ph i h i h i?hi? ?12, , , pho ho ho?ho? ?12, , , qy i y i y i?yi? ?12, , , qyo yo yo?yo? ?1