freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

bp神經(jīng)網(wǎng)絡(luò)的matlab實(shí)現(xiàn)word格式-資料下載頁

2024-12-07 10:35本頁面

【導(dǎo)讀】經(jīng)網(wǎng)絡(luò)算法的特點(diǎn),并給出神經(jīng)網(wǎng)絡(luò)算法的基本流程。采用Matlab軟件編程實(shí)現(xiàn)BP神經(jīng)網(wǎng)。將神經(jīng)網(wǎng)絡(luò)算法應(yīng)用于函數(shù)逼近和樣本含量估計(jì)問題中,并分析相關(guān)參數(shù)對(duì)算法運(yùn)。最后對(duì)BP神經(jīng)網(wǎng)絡(luò)算法進(jìn)行了展望。2.此任務(wù)書夾于論文扉頁與論文一并裝訂,作為論文評(píng)分依據(jù)之。目前存在的問題。

  

【正文】 BP 改進(jìn)算法的描述可知,彈性 BP 算法不需要進(jìn)行搜索,需要內(nèi)存比較小,因此在一些大型網(wǎng)絡(luò)中比較適用,但是需要很長的訓(xùn)練時(shí)間。對(duì)收斂速度要求不高時(shí) 也可使用動(dòng)量及自適應(yīng)學(xué)習(xí)速率法。在小型網(wǎng)絡(luò)中,共軛梯度法僅次于 LM 算法,但是 LM 算法需要更大的內(nèi)存做臨時(shí)存儲(chǔ),對(duì)于較大復(fù)雜的網(wǎng)絡(luò)和內(nèi)存受限的設(shè)備來說不是很好的選擇,但是對(duì)于小型網(wǎng)絡(luò)來說卻是首要選擇。對(duì)訓(xùn)練時(shí)間允許的條件下,共軛梯度法和彈性 BP 算法是對(duì)復(fù)雜大型網(wǎng)絡(luò)較好的選擇。 其中共軛梯度法在訓(xùn)練的時(shí)候,訓(xùn)練次數(shù)為 769 次,均方誤差為,均未達(dá)到所設(shè)定的要求,產(chǎn)生了“ Minimum step size reached, performance goal was not met”的結(jié)果???能意味著子區(qū)間的長度與計(jì)算機(jī)舍入誤差相當(dāng),無法繼續(xù)計(jì)算了,原因可能是有奇點(diǎn)(無限小且不實(shí)際存在),另外也存在是初值問題,理論上得知:共軛梯度法最大局限是依賴于初值,在有限的迭代次數(shù)內(nèi)可能既不能搜索到全局極值也不能搜索到局部極值。因此該算法適用于精度要求比較低的高維網(wǎng)絡(luò)之中。 調(diào)整初始權(quán)值和閾值的仿真 在 分析了初始權(quán)值設(shè)置影響因素對(duì) BP 神經(jīng)網(wǎng)絡(luò)的影響,下面首先通過 MATLAB 程序段一,通過隨機(jī)設(shè)置權(quán)值初始化網(wǎng)絡(luò)方式獲取訓(xùn)練好的閾值和權(quán)值,作為 MATLAB 程序段二的初始化值。由此進(jìn)行仿真 分析。 ① MATLAB 程序段一: x=4::4。 y1=sin((1/2)*pi*x)+sin(pi*x)。 =newff(minmax(x),[1,15,1],{39。tansig39。,39。tansig39。,39。purelin39。},39。trainlm39。)。 =2021。 黑龍江八一農(nóng)墾大學(xué)畢業(yè)設(shè)計(jì)(論文) 26 =。 %初始化網(wǎng)絡(luò),用 newff 創(chuàng)建網(wǎng)絡(luò),其權(quán)值和閾值初始化函數(shù)的默認(rèn)值是initnw。 %initnw 據(jù) NguyenWidrow 規(guī)則初始 化算法對(duì)網(wǎng)絡(luò)層的權(quán)值和閾值進(jìn)行初始化,該算法 %的初始化值,可以使網(wǎng)絡(luò)層中每個(gè)神經(jīng)元的作用范圍近似地在網(wǎng)絡(luò)層的輸入空間均 %勻分布。 與純隨機(jī)初始化權(quán)值和閾值的方法比較,初始化算法有以下優(yōu)點(diǎn): 神經(jīng) %元的浪費(fèi)少(因?yàn)樗猩窠?jīng)元都分布在輸入空間內(nèi));網(wǎng)絡(luò)的訓(xùn)練速度快(因?yàn)檩斎?%空間的每一個(gè)區(qū)域都有神經(jīng)元);這里是用 rands重新設(shè)置權(quán)值和閾值。 {1}.initF=39。initnw39。 {2}.initF=39。initnw39。 {1,1}.initF=39。rands39。 {2,1}.initF=39。rands39。 {1,1}.initF=39。rands39。 {2,1}.initF=39。rands39。 =init()。 %查看初始化后的權(quán)值和閾值 {1,1} {1} {2,1} {2} =train(,x,y1)。 %得出訓(xùn)練好的權(quán)值和閾值供 MATLAB 程序段二使用 {1,1} {1} {2,1} {2} y2=sim(,x)。 err=y2y1。 res=norm(err)。 pause plot(x,y1)。 hold on plot(x,y2,39。r+39。)。 ② MATLAB 程序段二: x=4::4。 黑龍江八一農(nóng)墾大學(xué)畢業(yè)設(shè)計(jì)(論文) 27 y1=sin((1/2)*pi*x)+sin(pi*x)。 =newff(minmax(x),[1,15,1],{39。tansig39。,39。tansig39。,39。purelin39。},39。trainlm39。)。 =2021。 =。 %從程序段一得出的數(shù)據(jù) {1,1}=。 {1}=。 {2,1}=[。6.1023。]。 {2}=[。1。]。 =train(,x,y1)。 y2=sim(,x)。 err=y2y1。 res=norm(err)。 pause plot(x,y1)。 hold on plot(x,y2,39。r+39。)。 圖 19 兩程序段運(yùn)行后誤差曲線圖 從上面的仿真結(jié)果看 ,第一個(gè)程序用隨機(jī)的初始權(quán)值和閾值達(dá)到目標(biāo)誤差完成訓(xùn)練需要 264 個(gè)回合,而選用已訓(xùn)練好的權(quán)值和閾值僅用 167 個(gè)回合就完成了訓(xùn)練,因此選擇合適的初始化權(quán)值和閾值將加速網(wǎng)絡(luò)的訓(xùn)練,大大提高了學(xué)習(xí)的收斂速度。因此關(guān)于設(shè)置網(wǎng)絡(luò)初始權(quán)值和閾值的優(yōu)化方法是一個(gè)值得研黑龍江八一農(nóng)墾大學(xué)畢業(yè)設(shè)計(jì)(論文) 28 究的問題。 其他影響因素仿真 在算法選擇上,在下面的仿真中將使用 LM 算法測試其他影響因素,比如通過選擇不同的激活函數(shù)、修改學(xué)習(xí)步長和目標(biāo)誤差等觀察對(duì)仿真曲線的影響程度。 如果將輸入 層激活 函數(shù)設(shè)置為 purelin, x=4::4 , epochs=1000 ,goal=,其余不變則會(huì)產(chǎn)生如下結(jié)果:經(jīng)過多次反復(fù)實(shí)驗(yàn),有時(shí)不能達(dá)到目標(biāo)誤差,有時(shí)又很快達(dá)到目標(biāo)誤差,且仿真效果會(huì)產(chǎn)生不同程度的失真或有時(shí)效果很好。如果將輸入層激活函數(shù)設(shè)為 tansig,則學(xué)習(xí)很快收斂且達(dá)到目標(biāo)誤差,仿真效果很好,且多次仿真結(jié)果比較穩(wěn)定,明顯要比輸入層激活函數(shù)設(shè)為 purelin 要好。如果將這三層神經(jīng)元的激活函數(shù)都設(shè)置為 tansig 的話,在多次試驗(yàn)中,訓(xùn)練回合數(shù)為 1000,均未達(dá)到目標(biāo)誤差 的要求。 討論 綜上兩種情況比較下,其中當(dāng)隱層神經(jīng)元為五個(gè)時(shí) ,前面兩個(gè)輸出期望值的跟蹤較好,相應(yīng)的 R 值幾乎達(dá)到了 ,而第三個(gè)輸出則吻合得不是很理想,作進(jìn)一步研究,在當(dāng)隱層數(shù)據(jù)為 15 時(shí),較第一種情況,它的輸出更加接近于期望值。比較可知,當(dāng)隱層數(shù)目越多,則測試得到的樣本水平越接近于期望值。結(jié)論 29 結(jié)論 本文首先總結(jié)了神經(jīng)網(wǎng)絡(luò)的研究目的和意義,介紹了神經(jīng)網(wǎng)絡(luò)的研究背景和現(xiàn)狀,分析了目前神經(jīng)網(wǎng)絡(luò)研究中存在的問題,然后描述了 BP 神經(jīng)網(wǎng)絡(luò)算法的實(shí)現(xiàn)以及 BP 神經(jīng)網(wǎng)絡(luò)的工作原理,給出了 BP 網(wǎng)絡(luò)的局限性。在以 BP神經(jīng)網(wǎng)絡(luò)為基礎(chǔ)的前提下,分 析研究了 BP 神經(jīng)網(wǎng)絡(luò)在函數(shù)逼近和樣本含量估計(jì)兩個(gè)實(shí)例中的應(yīng)用。以及分析了結(jié)論,即信號(hào)的頻率越高,則隱層節(jié)點(diǎn)越多,隱單元個(gè)數(shù)越多,逼近能力越強(qiáng)。和隱層數(shù)目越多,測試得到的樣本的水平越接近于期望值。 本文雖然總結(jié)分析了 BP 神經(jīng)網(wǎng)絡(luò)算法的實(shí)現(xiàn),給出了實(shí)例分析,但是還有很多的不足。所總結(jié)的 BP 神經(jīng)網(wǎng)絡(luò)和目前研究的現(xiàn)狀都還不夠全面,經(jīng)過程序調(diào)試的圖形有可能都還存在很多細(xì)節(jié)上的問題,而圖形曲線所實(shí)現(xiàn)效果都還不夠好,以及結(jié)果分析不夠全面,正確,缺乏科學(xué)性等,這些都還是需加強(qiáng)提高的,本文的完成不代表就對(duì)這門學(xué)科研究的結(jié)束, 還有很多知識(shí),理論,研究成果需要不斷學(xué)習(xí)。 近幾年的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)更是取得了非常廣泛的應(yīng)用,和令人矚目的發(fā)展,在很多方面都發(fā)揮了其獨(dú)特的作用,特別是在人工智能、自動(dòng)控制、計(jì)算機(jī)科學(xué)、信息處理、機(jī)器人、模式識(shí)別等眾多方面的應(yīng)用實(shí)例,給人們帶來了很多應(yīng)用上到思考,和解決方法的研究。但是神經(jīng)網(wǎng)絡(luò)的研究最近幾年還沒有達(dá)到非常熱門的階段,這還需有很多熱愛神經(jīng)網(wǎng)絡(luò)和研究神經(jīng)網(wǎng)絡(luò)人員的不斷研究和創(chuàng)新,在科技高度發(fā)達(dá)的現(xiàn)在,我們有理由期待,也有理由相信。我想在不久的將來神經(jīng)網(wǎng)絡(luò)會(huì)應(yīng)用到更多更廣的方面,人們的生活會(huì)更加便捷。參考文獻(xiàn) 30 參考文獻(xiàn) [1] 鄭君里 ,楊行峻 .《人工神經(jīng)網(wǎng)絡(luò)》 . 北京 : 高等教育出版社 ,:1530 [2] 郝中華 .《 B P神經(jīng)網(wǎng)絡(luò)的非線性思想》 . 洛陽師范學(xué)院學(xué)報(bào) (4) [3] 巨軍讓,卓戎 .《 B P 神經(jīng)網(wǎng)絡(luò)在 Matlab 中的方便實(shí)現(xiàn) 》 .新疆石油學(xué)院學(xué)報(bào) .(1) [4] 蔣宗禮 .《人工神經(jīng)網(wǎng)絡(luò)導(dǎo)論》 . 高等教育出版社, :1590 [5] 聞新、周露、王丹力、熊曉英 .《 MATLAB 神經(jīng)網(wǎng)絡(luò)應(yīng)用設(shè)計(jì) .科學(xué)出版社》, :1050 [6] 葛哲學(xué)、孫志強(qiáng)編著 .《神經(jīng)網(wǎng)絡(luò)與 matlab2021 實(shí)現(xiàn)》 . 北京:電子工業(yè)出版社, :15 [7] 董長虹 編著 .《 Matlab 神經(jīng)網(wǎng)絡(luò)與應(yīng)用》 . 北京:國防工業(yè)出版社,:113 [8] 胡守仁,等 .《神經(jīng)網(wǎng)絡(luò)導(dǎo)論》 .長沙:國防科技大學(xué)出版社, 1993:2345 [9] 張玲,張鈸 .《人工神經(jīng)網(wǎng)絡(luò)理及應(yīng)用》 . 浙江:浙江科技大學(xué)出版社,:2062 [10] Neural Network Tolbox User’s, The MathWorks. Inc,2021:1627 [11] Matlab user’s Guide. The ,2021:2327 [12] Neural Network Toolbox. Mathworks,2021:113 [13] Philip D. Wasserman, Neural Computing: Theory and Practice, Van Nostrand Reinhold, 1989. [14] HAGAN M T,DEMUTH H B. Neural work design[M] .PWS Publishing Company,A division of Thomson Learning,United States of America, 1996:1621629 [15] 樓順天,等 .《基于 Matlab 的系統(tǒng)分析與設(shè)計(jì) 神經(jīng)網(wǎng)絡(luò)》 . 西安:西安電子科技大學(xué)出版社, :2340 [16] 周開利,康耀紅 編著 .《 神經(jīng)網(wǎng)絡(luò)模型及其 MATLAB 仿真程序設(shè)計(jì) 》 .2021:1043 [17] 魏海坤 .《神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)的理論與方法》 .國防工業(yè)出版社,:2030 [18] 李學(xué)橋 .《神經(jīng)網(wǎng)絡(luò)工程應(yīng)用》 . 重慶:重慶大學(xué)出版社, :2073 [19] 馮蓉 , 楊建華 .《基于 BP 神經(jīng)網(wǎng)絡(luò)的函數(shù)逼近的 MATLAB 實(shí)現(xiàn)》 [J]. 榆林學(xué)院學(xué)報(bào) , 2021,(02) [20] 李曉慧 .《基于 MATLAB 的 BP 神經(jīng)網(wǎng)絡(luò)的應(yīng)用》 [J]. 科技信息 , 2021,(26) 參考文獻(xiàn) 31 [21] 徐遠(yuǎn)芳 ,周旸 ,鄭華 .《基于 MATLAB 的 BP 神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)研究》 [J]. 微型電腦應(yīng)用 , 2021,(08) [22] 石云 .《 Bp 神經(jīng)網(wǎng)絡(luò)的 Matlab 實(shí)現(xiàn)》 [J]. 湘南學(xué)院學(xué)報(bào) , 2021,(05) 致謝 32 致謝 經(jīng)過幾個(gè)月的努力,查找資料、深入分析,此次畢業(yè)論文終于圓滿完成。雖然自己查閱了大量資料、還進(jìn)行了深入分析,做了許多相關(guān)的工作,但沒有導(dǎo)師的悉心指導(dǎo)和其他老師同學(xué)的大力幫助,我也是無法完成此次畢業(yè)設(shè)計(jì)的,特在此向在我完成此次 畢業(yè)論文過程中給了我許多鼓勵(lì)和幫助的老師同學(xué)一并致謝。 首先,感謝我的導(dǎo)師從下達(dá)任務(wù)書,資料查閱、文章結(jié)構(gòu)的安排、文字表述等各個(gè)環(huán)節(jié)和各個(gè)方面都給了我悉心的指導(dǎo)。雖然她平時(shí)的工作也很繁忙,但她還是擠出許多時(shí)間,給了我許多指導(dǎo)和啟發(fā)。她淵博的知識(shí),前沿的理論研究,嚴(yán)謹(jǐn)?shù)闹螌W(xué)精神以及誨人不倦的高尚品德都讓我無比欽佩和無比感激,我也會(huì)以她為榜樣在今后的工作和學(xué)習(xí)中繼續(xù)努力。 在大學(xué)學(xué)習(xí)生活期間,得到了學(xué)院諸多老師、同學(xué)的教導(dǎo)和幫助,在此一并致謝! 最后,向評(píng)審我的論文的老師們表示深深的敬意!并向答辯委員會(huì)的全體老師表示衷心的感謝! 黑龍江八一農(nóng)墾大學(xué) 畢業(yè)論文(設(shè)計(jì))成績單 院系 信息技術(shù)學(xué)院 專 業(yè) 計(jì)算機(jī)科學(xué)與技術(shù) 入學(xué)時(shí)間 學(xué)號(hào) 學(xué)生姓名 班 級(jí) 周數(shù) 起止日期 指導(dǎo)教師 職稱 論文(設(shè)計(jì))題目 指 導(dǎo) 教 師 評(píng) 語 指導(dǎo)教師簽名 年 月 日 評(píng) 閱 人 評(píng) 語 評(píng)閱人簽名 年 月 日 答辯小組評(píng)語 答辯小組負(fù)責(zé)人簽名 年 月 日 評(píng)分 指導(dǎo)教師 評(píng)閱人 答辯小組 平均分 五級(jí)制等級(jí) 備注: 本成績單一式二份,一份裝訂在畢業(yè)論文(設(shè)計(jì))中,一份入學(xué)生學(xué)籍檔案。
點(diǎn)擊復(fù)制文檔內(nèi)容
研究報(bào)告相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1