freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

人工神經(jīng)網(wǎng)絡(luò)及其應(yīng)用第4講bp神經(jīng)網(wǎng)絡(luò)-資料下載頁

2024-10-17 20:05本頁面

【導(dǎo)讀】反向傳播網(wǎng)絡(luò)(Back-PropagationNetwork,簡。權(quán)值的調(diào)整采用反向傳播。它是一種多層前向反饋神經(jīng)網(wǎng)絡(luò),其神經(jīng)元的。輸出量為0到1之間的連續(xù)量,它可實(shí)現(xiàn)從輸入。BP網(wǎng)絡(luò)主要用于下述方面。模式識(shí)別和分類:用一個(gè)特定的輸出矢量將它與輸。泛化性能只對(duì)被訓(xùn)練的輸入/輸出對(duì)最大值范圍內(nèi)的。數(shù)據(jù)有效,即網(wǎng)絡(luò)具有內(nèi)插值特性,不具有外插值性。感知器和自適應(yīng)線性元件的主要差別在激活函數(shù)。BP網(wǎng)絡(luò)具有一層或多層隱含層,除了在多層網(wǎng)絡(luò)。BP網(wǎng)絡(luò)的激活函數(shù)必須是處處可微的,因此它不。能采用二值型的閥值函數(shù){0,1}或符號(hào)函數(shù){-1,BP網(wǎng)絡(luò)經(jīng)常使用的是S型的對(duì)數(shù)或正切激活函數(shù)。對(duì)較大的輸入信號(hào),放大系數(shù)較??;而對(duì)較小的輸入信。BP算法屬于δ算法,是一種監(jiān)督式的學(xué)習(xí)算法。,Aq,與目標(biāo)矢量T1,T2,…BP算法是由兩部分組成,信息的正向傳遞與誤差。利用梯度下降法求權(quán)值變化及誤差的反向傳播。為了能夠較好地掌握BP網(wǎng)絡(luò)的訓(xùn)練過程,我們用

  

【正文】 以選用別的誤差函數(shù) f(tk, ak)來代替 (tkak)2的形式,只要其函數(shù)在 ak=tk時(shí)能達(dá)到最小值 2020/11/23 43 誤差函數(shù)改進(jìn) ? 包穆 (Baum)等人于 1988年提出一種誤差函數(shù)為 ? 不會(huì)產(chǎn)生不能完全訓(xùn)練的麻痹現(xiàn)象 2020/11/23 44 誤差函數(shù)改進(jìn) ? 與常規(guī)的誤差函數(shù)的情況 δ ij=f’(n)(tkak)相比較,其中的 f’(n)項(xiàng)消失了 ? 當(dāng) n增大,進(jìn)入激活函數(shù)的平坦區(qū),使 f’(n)→0 時(shí),不會(huì)產(chǎn)生不能完全訓(xùn)練的麻痹現(xiàn)象 ? 但由于失去了 f’(n)對(duì) Δw 的控制作用,過大的 Δw 又有可能導(dǎo)致網(wǎng)絡(luò)過調(diào)或振蕩 ? 1989年,范爾曼 ()提出一種折中的方案,即取 δ k= [f’(n)+](tkak) ? 一方面恢復(fù)了 f’(n)的某些影響 ? 另一方面當(dāng) |n|變大時(shí),仍能保持 δ k有一定的大小,從而避免了麻痹現(xiàn)象的發(fā)生 2020/11/23 45 自適應(yīng)學(xué)習(xí)速率 ? 通常調(diào)節(jié)學(xué)習(xí)速率的準(zhǔn)則是,檢查權(quán)值的修正值是否真正降低了誤差函數(shù),如果確實(shí)如此,則說明所選取的學(xué)習(xí)速率值小了,可以對(duì)其增加一個(gè)量;否則可認(rèn)為產(chǎn)生過調(diào),應(yīng)該減小學(xué)習(xí)速率的值 ? 一種自適應(yīng)學(xué)習(xí)速率的調(diào)整公式 2020/11/23 46 自適應(yīng)學(xué)習(xí)速率 ? MATLAB工具箱中帶有自適應(yīng)學(xué)習(xí)速率進(jìn)行反向傳播訓(xùn)練的函數(shù)為 ? 可訓(xùn)練直至三層網(wǎng)絡(luò)。 ? 使用方法 [W, B, epochs, TE]= trainbpa(W, B,’ F’, P, T, TP) ? 可以將動(dòng)量法和自適應(yīng)學(xué)習(xí)速率結(jié)合起來以利用兩方面的優(yōu)點(diǎn)。這個(gè)技術(shù)已編入了函數(shù) ? 函數(shù)的調(diào)用和其他函數(shù)一樣,只是需要更多的初始參數(shù)而已 ? TP= [disp_freq max_epoch error_goal lr 1r_inc 1r_dec mom_const err_ratio]; ? [W, B, epochs, [error。 lr]]= trainbpx(W, B, F, P, T, TP) 2020/11/23 47 五 、內(nèi)容小結(jié) 內(nèi)容安排 一、 內(nèi)容回顧 二、 BP網(wǎng)絡(luò) 三、網(wǎng)絡(luò)設(shè)計(jì) 四、改進(jìn) BP網(wǎng)絡(luò) 2020/11/23 48 五 、內(nèi)容小結(jié) ? 反向傳播法可以用來訓(xùn)練具有可微激活函數(shù)的多層前向網(wǎng)絡(luò) ,以進(jìn)行函數(shù)逼近,模式分類等工作 ? 反向傳播網(wǎng)絡(luò)的結(jié)構(gòu)不完全受所要解決的問題所限制。 – 網(wǎng)絡(luò)的輸入神經(jīng)元數(shù)目及輸出層神經(jīng)元的數(shù)目是由問題的要求所決定 – 輸入和輸出層之間的隱含層數(shù)以及每層的神經(jīng)元數(shù)是由設(shè)計(jì)者來決定的 ? 已經(jīng)證明,兩層 S型線性網(wǎng)絡(luò),如果 S型層有足夠的神經(jīng)元,則能夠訓(xùn)練出任意輸入和輸出之間的有理函數(shù)關(guān)系 2020/11/23 49 五 、內(nèi)容小結(jié) ? 反向傳播法沿著誤差表面的梯度下降,使網(wǎng)絡(luò)誤差最小,網(wǎng)絡(luò)有可能陷入局部極小值 ? 附加動(dòng)量法使反向傳播減少了網(wǎng)絡(luò)在誤差表面陷入低谷的可能性并有助于減少訓(xùn)練時(shí)間 ? 太大的學(xué)習(xí)速率導(dǎo)致學(xué)習(xí)的不穩(wěn)定,太小值又導(dǎo)致極長的訓(xùn)練時(shí)間。自適應(yīng)學(xué)習(xí)速率通過在保證穩(wěn)定訓(xùn)練的前提下,達(dá)到了合理的高速率,可以減少訓(xùn)練時(shí)間 ? 80% 90%的實(shí)際應(yīng)用都是采用反向傳播網(wǎng)絡(luò)的。改進(jìn)技術(shù)可以用來使反向傳播法更加容易實(shí)現(xiàn)并需要更少的訓(xùn)練時(shí)間 2020/11/23 50 五 、內(nèi)容小結(jié) ?下次講課內(nèi)容 – 反饋網(wǎng)絡(luò) ?Hopfield網(wǎng)絡(luò) 2020/11/23 51 The End Questions amp。 Suggestions Thanks!
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1