【正文】
(涉及隱層節(jié)點輸出的相互耦合和梯度下降法本身的缺點) 4)緊集的確定 小結 ? 神經(jīng)網(wǎng)絡模型及其分類 ? BP網(wǎng)絡及其學習算法 。 扁平激勵函數(shù)定義: f : R [0,1] 或 [1,1]是非減函數(shù) , 是。 BP網(wǎng)絡及其學習算法 ● 反傳( BP)網(wǎng)絡的結構圖 一個輸入層,一個輸出層,多個隱層。 是學習因子 這學習規(guī)則即是著名的 學習規(guī)則。()39。?線性系統(tǒng) 非線性函數(shù)?ai1 ai2 a in bi1 bi2 bim wi y1 y2 y n u1 uk um 1 vi x i y i ???????mkikikinjiji wtubtyatv11)()()(● 神經(jīng)元的一般模型框架 1)加法器 2)線性動態(tài)系統(tǒng)( SISO) 3)靜態(tài)非線性系統(tǒng) ︰ ︰ 式中 aij 和 bik 為權系數(shù), i,j =1,2,… ,n, k= 1,2,… m. n 個加法器可以寫成向量形式: wtButAytv ??? )()()(wuByAv—— N維列向量 —— N維列向量(單元輸出) —— N N維矩陣 —— N M維矩陣 —— M維列向量(外部輸入) —— M維常