【正文】
在具體設計時,比較實際的做法是通過對不同神經元數(shù)進行訓練對比,然后適當?shù)丶由弦稽c余量。 版權所有 復制必究 2022 37 學習速率決定每一次循環(huán)訓練中所產生的權值變化量。 小的學習速率導致較長的訓練時間,可能收斂很慢,不過能保證網絡的誤差值不跳出誤差表面的低谷而最終趨于最小誤差值。學習速率的選取范圍在 。 這個所謂的“合適”,是相對于所需要的隱含層的節(jié)點數(shù)來確定,因為較小的期望誤差值是要靠增加隱含層的節(jié)點,以及訓練時間來獲得的。 BP網絡期望誤差的選取 版權所有 復制必究 2022 39 例 P128 BP網絡訓練 多層感知器應用實例 版權所有 復制必究 2022 40 Matlab 命令窗口輸入 “ Help 函數(shù)名” 可得到相關函數(shù)的詳細介紹; 補充:感知器神經網絡工具箱函數(shù) 輸入 Demop1 利用具有 2個神經元 的感知器實現(xiàn)對 5個 輸入數(shù)據(jù)的兩分類 0 . 8 0 . 6 0 . 4 0 . 2 0 0 . 2 0 . 4 0 . 61 0 . 500 . 511 . 5V e c t o r s t o b e C l a s s i f i e dP ( 1 )P(2)版權所有 復制必究 2022 41 補充:感知器神經網絡工具箱函數(shù) 常用指令: P175 表 P180 例 % 感知器網絡實驗 X=[ 。 ] y=simup(testX,w,b) figure plotpv(testX,y) plotpc(w,b) 版權所有 復制必究 2022 42 1 . 5 1 0 . 5 0 0 . 5 1 1 . 51 0 . 500 . 5V e c t o r s t o b e C l a s s i f i e dP ( 1 )P(2)0 0 . 5 1 1 . 5 2102 0101 5101 0105100105E p o c hSumSquared ErrorS u m S q u a r e d N e t w o r k E r r o r f o r 2 E p o c h s誤差曲線 分類結果 版權所有 復制必究 2022 43 補充: BP網絡工具箱函數(shù) BP網絡演示函數(shù) nnd11nf Network function demonstration. nnd11bc Backpropagation calculation demonstration. nnd11fa Function approximation demonstration. nnd11gn Generalization demonstration. BP網絡相關指令 P181 表 723 Initff Simuff Trainbpx 例 方法一 newff train Sim 例 方法二 過程: 輸入訓練樣本 X, T; 利用相關指令初始化網絡; initff。train 查看訓練結果; simuff。sim 版權所有 復制必究 2022 44 狀態(tài)轉換器?)()(1kekx ?)()(2kekx ??)()(23kekx ??)(1kw)(2kw)(3kw)( ku?Plan t)1( ?ku++Super v ise d Hebb Le a rning Rule)( ku1?Z)( kr )( ke )( ky-K????????????????????????????????)()()()()1()()()()()1()()()()()1(|)(|)()()()1()(3332221113131kxkukzkwkwkxkukzkwkwkxkukzkwkwkwkwwkxkwKkukuDPIiiiiiii??? )()()(1 kzkekx ??)1()()()(2 ????? kekekekx)2()1(2)()()( 23 ??????? kekekekekx單神經元 PID控制