【正文】
??niii xfy1?i?f神經(jīng)網(wǎng)絡(luò)概述 選擇不同的權(quán)重值,神經(jīng)元網(wǎng)絡(luò)就會(huì)有不同的輸入 輸出關(guān)系。模仿神經(jīng)細(xì)胞的結(jié)構(gòu),人們?cè)O(shè)計(jì)了種種人工神經(jīng)網(wǎng)絡(luò),如感知器、 BP網(wǎng)絡(luò)、自組織網(wǎng)絡(luò)等。特別要說(shuō)明的是,每個(gè)神經(jīng)元都有一個(gè)特殊的參數(shù) 1010nxxx ?, 21y u?神經(jīng)網(wǎng)絡(luò)概述 稱為閾值,它是輸出的一個(gè)臨界值,直接影響神經(jīng)元的內(nèi)部狀態(tài)。神經(jīng)細(xì)胞通過(guò)突觸互相交換信息,樹(shù)突用來(lái)接受神經(jīng)沖動(dòng),軸突分化出的神經(jīng)末梢則可傳出神經(jīng)沖動(dòng)。神經(jīng)網(wǎng)絡(luò)概述 人工神經(jīng)網(wǎng)絡(luò) ANN( artificial neural work)是 20世紀(jì) 80年代才日益受到人們重視的一種新的人工智能計(jì)算方法。由于輸出端只有兩個(gè)狀態(tài):興奮態(tài)與抑制態(tài)。 u狀態(tài): ?u狀態(tài):1x輸入:2xnxy輸出:神經(jīng)元的數(shù)學(xué)模型人們的記憶和智能并不是儲(chǔ)存在單個(gè)腦細(xì)胞中,而是儲(chǔ)存在腦細(xì)胞之間互相連接的網(wǎng)絡(luò)之中,這稱為分布式存儲(chǔ)方式。 神經(jīng)網(wǎng)絡(luò)概述 神經(jīng)網(wǎng)絡(luò)概述 人工神經(jīng)網(wǎng)絡(luò)的基本工作原理是:對(duì)于每個(gè)神經(jīng)元,假設(shè)它有 個(gè)輸入,輸入值為 那么,它的輸出值就是 ,這里, 是等待確定的權(quán)重系數(shù),簡(jiǎn)稱權(quán)值。 神經(jīng)元網(wǎng)絡(luò)的具體工作原理:我們將樣本數(shù)據(jù)的輸入值輸進(jìn)神經(jīng)元網(wǎng)絡(luò),就得到一組輸出值。這樣,神經(jīng)元網(wǎng)絡(luò)就可以用來(lái)代替我們所需要的模型了。 ?學(xué)習(xí)的本質(zhì): ?對(duì)各連接權(quán)值的動(dòng)態(tài)調(diào)整 ?學(xué)習(xí)規(guī)則: ?權(quán)值調(diào)整規(guī)則,即在學(xué)習(xí)過(guò)程中網(wǎng)絡(luò)中各神經(jīng)元的連接權(quán)變化所依據(jù)的一定的調(diào)整規(guī)則。 ?輸出層輸出向量 。 oho o hoe e y iw y i w? ? ??? ? ?( ( ) )()()ph o h oo hhh o h ow h o k by i kh o kww????????211( ( ( ) ( )) )2( ( ) ( )) ( )( ( ) ( )) f ( ( )) ( )qoooo o oooo o o od k yo ked k yo k yo kyi yid k yo k yi k k??????? ? ? ????? ? ? ??()o k? BP網(wǎng)絡(luò)的標(biāo)準(zhǔn)學(xué)習(xí)算法 ( ) ( )o ohho o hoe e y i k ho kw y i w?? ? ?? ? ?? ? ?1()()( ( ) )()()hi h h i hni h i hh iii h i he e h i kw h i k ww x k bh i kxkww?? ? ??? ? ??????????第五步,利用隱含層到輸出層的連接權(quán)值、輸出層的 和隱含層的輸出計(jì)算誤差函數(shù)對(duì)隱含層各神經(jīng)元的偏導(dǎo)數(shù) 。當(dāng)誤差達(dá)到預(yù)設(shè)精度或?qū)W習(xí)次數(shù)大于設(shè)定的最大次數(shù),則結(jié)束算法。 hoew??e 0, 此時(shí) Δwho0 who BP神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的 MATLAB實(shí)現(xiàn) ?MATLAB中 BP神經(jīng)網(wǎng)絡(luò)的重要