freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

bp神經(jīng)網(wǎng)絡(luò)rbf神經(jīng)網(wǎng)絡(luò)自組織競爭型神經(jīng)網(wǎng)絡(luò)-文庫吧在線文庫

2025-03-02 21:14上一頁面

下一頁面
  

【正文】 T構(gòu)成 ANN的粗略輪廓,為了具體實(shí)現(xiàn)一個可實(shí)際運(yùn)行的神經(jīng)網(wǎng)絡(luò),尚有許多問題需要解決。下面主要介紹ART1網(wǎng)絡(luò)。下面對 ART1網(wǎng)絡(luò)的工作過程做詳細(xì)介紹。 {wij}的初值按下式設(shè)置: ( i=1,2,… ,n。至此,網(wǎng)絡(luò)的識別過程只是暫告一段落,并未最后結(jié)束。比較階段主要就是完成這一檢查任務(wù)。 ? 式中 表示矢量 與輸入模式 邏輯 “ 與 ”。在這一階段,網(wǎng)絡(luò)將在余下的輸出層神經(jīng)元中搜索輸入模式 Uk的恰當(dāng)分類。 ( 7)承認(rèn)識別結(jié)果,并按下式調(diào)整連接權(quán):? (i=1,2,…,n) (523) (i=1,2,… ,n) (524) ( 8)將步驟( 6)置 0的所有神經(jīng)元重新列入識別范圍之內(nèi),返回步驟( 2),對下一輸入模式進(jìn)行識別。規(guī)一化處理在許多迭代算法中都使用,其目的是平滑地計算出調(diào)整量,以避免在某些特殊情況下搜索不到正確的結(jié)果。這種方式的優(yōu)點(diǎn)是能有效地抑制噪聲干擾,提高分類的準(zhǔn)確性。根據(jù)某些特征在全體中所占的比例,有時把它們作為關(guān)鍵特征,有時又作為噪聲處理。 10:04:4410:04:4410:043/28/2023 10:04:44 AM1以我獨(dú)沈久,愧君相 見頻 。 三月 21三月 21Sunday, March 28, 2023很多事情努力了未必有 結(jié) 果,但是不努力卻什么改 變 也沒有。 10:04:44 上午 10:04 上午 10:04:44三月 21 楊 柳散和 風(fēng) ,青山澹吾 慮 。 三月 2110:04 上午 三月 2110:04March 28, 20231 業(yè) 余生活要有意 義 ,不要越 軌 。 10:04:4410:04:4410:04Sunday, March 28, 20231知人者智,自知者明。 三月 21三月 2110:04:4410:04:44March 28, 20231意志 堅 強(qiáng) 的人能把世界放在手中像泥 塊 一 樣 任意揉捏。 28 三月 202310:04:44 上午 10:04:44三月 211比不了得就不比,得不到的就不要。 所以,一旦輸出層某個神經(jīng)元失效(硬件損壞或軟件出錯),則導(dǎo)致該神經(jīng)元所代表的類別信息消失。? ART1網(wǎng)絡(luò)具有如下的優(yōu)點(diǎn): ( 1)可以完成實(shí)時學(xué)習(xí),并適應(yīng)非平穩(wěn)環(huán)境。前面介紹的是快速學(xué)習(xí)方式。當(dāng)輸入模式是一個網(wǎng)絡(luò)已記憶的學(xué)習(xí)模式時,不需要按步驟( 7)進(jìn)行連接權(quán)的調(diào)整。 ART2網(wǎng)絡(luò)的學(xué)習(xí)工作規(guī)則 可總結(jié)歸納如下: ( 1)初始化 (516) (i=1,2,… ,n。 ? 同時,當(dāng) cg≠ 1且 cg≥ρ 時,按下式對前饋連接權(quán)矢量 Wg=[wg1,wg2,… ,wgn]T 和反饋連接權(quán)矢量 向著與 Uk更接近的方向調(diào)整 (i=1,2,… ,n) (514) (i=1,2,… ,n) (515) ? 顯然,式( 514)的調(diào)整意圖是要使 趨于 Uk。如果相等,則說明這是一個已記憶過的學(xué)習(xí)模式,神經(jīng)元 g代表了這個模式的分類結(jié)果,即識別與比較產(chǎn)生了共振,網(wǎng)絡(luò)不需要再經(jīng)過尋找階段,直接進(jìn)入下一個模式的識別階段;如果不相等,則放棄神經(jīng)元 g的分類結(jié)果,進(jìn)入尋找階段, 圖 較檢查示意 圖 。如果 ART1網(wǎng)絡(luò)的學(xué)習(xí)工作只到識別階段為止,那么它與前面介紹的基本競爭型網(wǎng)絡(luò)完全一樣。 ART1網(wǎng)絡(luò)的學(xué)習(xí)識別過程就發(fā)生在輸入學(xué)習(xí)模式 由輸入層向輸出層的傳遞過程中。反饋連接權(quán) { }通過比較最終將記憶已學(xué)的輸入模式,故其值取 0和 1二值形式。j=1,2,… ,m)。如果輸入模式是一個網(wǎng)絡(luò)不曾記憶的新模式,則網(wǎng)絡(luò)將在不影響原有記憶的前提下,將這個模式記憶下來,并分配一個尚未使用過的輸出層神經(jīng)元作為這一記憶模式的分類標(biāo)志。任何情況下都不會造成新記憶破壞老記憶的災(zāi)難性后果。 ? 可以看到,按照上面給出的算法,只有當(dāng)新的輸入矢量與已存入記憶中的某個矢量足夠相似時,兩者才能互相融合,即對有關(guān)的權(quán)重系數(shù)進(jìn)行調(diào)整,從而使長期記憶得以改變。否則,就一個一個找下去。但是, 當(dāng)這兩個矢量的模都已規(guī)格化為 1時,用歐氏距離或規(guī)格化點(diǎn)積 η 來衡量相似度是等價的。首先,由輸出矢量 Y( k)產(chǎn)生一個由頂向下矢量 Z( k), Z( k) =[z0( k) z1(k)…zN1(k)],其中各分量 zi( k)按下列公式計算: j=0~(N1) (55) 其中 是由頂向下的權(quán)重系數(shù),由于諸yi(k)中只有 yI(k)為 1,其它均為 0,所以式( 55)可以表示為 j=0~(N1) (56)? 此式中的各個由頂向下的權(quán)重系數(shù) 是在時序 k以前的各次學(xué)習(xí)中 “ 記憶 ” 下來的。? 可以看到,如果輸入觀察矢量所表示的客體類別數(shù)小于輸出矢量 Y的維數(shù) M,而且每個類別的觀察矢量所占據(jù)的空間足夠 “緊湊 ”(這就是說,同一類別矢量所占空間內(nèi)的觀察矢量十分接近,而不同類別矢量所占空間的觀察矢量相距較遠(yuǎn)),那么學(xué)習(xí)可以趨于穩(wěn)定并收到很好的分類效果。 ? 下面討論此系統(tǒng)用于分類時
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1