【正文】
注意的是,神經(jīng)網(wǎng)絡(luò)的訓(xùn)練過程本質(zhì)上是求非線性函數(shù)的極小點(diǎn)問題,因此,在全局極小點(diǎn)鄰域內(nèi)(即使網(wǎng)絡(luò)誤差相同) ,各個(gè)網(wǎng)絡(luò)連接權(quán)值也可能有較大的差異,這有時(shí)也會(huì)使各個(gè)輸入變量的重要性發(fā)生變化,但這與具有多個(gè)零極小點(diǎn)(一般稱為多模式現(xiàn)象) (如訓(xùn)練樣本數(shù)少于連接權(quán)數(shù)時(shí))的情況是截然不同的。 值得注意的是,判斷網(wǎng)絡(luò)模型泛化能力的好壞,主要不是看測(cè)試樣本誤差大小的本身,而是要看測(cè)試樣本的誤差是否接近于訓(xùn)練樣本和檢驗(yàn)樣本的誤差。非訓(xùn)練樣本誤差很接近訓(xùn)練樣本誤差或比其小,一般可認(rèn)為建立的網(wǎng)絡(luò)模型已有效逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律,否則,若相差很多(如幾倍、幾十倍甚至上千倍)就說明建立的網(wǎng)絡(luò)模型并沒有有效逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律,而只是在這些訓(xùn)練樣本點(diǎn)上逼近而已,而建立的網(wǎng)絡(luò)模型是對(duì)訓(xùn)練樣本所蘊(yùn)含規(guī)律的錯(cuò)誤反映。 要分析建立的網(wǎng)絡(luò)模型對(duì)樣本所蘊(yùn)含的規(guī)律的逼近情況(能力) ,即泛化能力,應(yīng)該也必須用非訓(xùn)練樣本(檢驗(yàn)樣本和測(cè)試樣本)誤差的大小來表示和評(píng)價(jià),這也是之所以必須將總樣本分成訓(xùn)練樣本和非訓(xùn)練樣本而絕不能將全部樣本用于網(wǎng)絡(luò)訓(xùn)練的主要原因之一。從存在性結(jié)論可知,即使每個(gè)訓(xùn)練樣本的誤差都很?。梢詾榱悖?,并不意味著建立的模型已逼近訓(xùn)練樣本所蘊(yùn)含的規(guī)律。由于 Sigmoid 轉(zhuǎn)換函數(shù)的特性,一般要求初始權(quán)值分~ 之間比較有效。(三)網(wǎng)絡(luò)的初始連接權(quán)值 BP 算法決定了誤差函數(shù)一般存在(很)多個(gè)局部極小點(diǎn),不同的網(wǎng)絡(luò)初始權(quán)值直接決定了 BP 算法收斂于哪個(gè)局部極小點(diǎn)或是全局極小點(diǎn)。理論上其值大小應(yīng)與權(quán)值修正量的大小有關(guān),但實(shí)際應(yīng)用中一般取常量。所以,一般傾向選取較小的學(xué)習(xí)率以保證學(xué)習(xí)過程的收斂性(穩(wěn)定性) ,通常在 ~ 之間。(二)學(xué)習(xí)率和沖量系數(shù)學(xué)習(xí)率影響系統(tǒng)學(xué)習(xí)過程的穩(wěn)定性。目前雖已有改進(jìn) BP 法、遺傳算法(GA)和模擬退火算法等多種優(yōu)化方法用于 BP 網(wǎng)絡(luò)的訓(xùn)練(這些方法從原理上講可通過調(diào)整某些參數(shù)求得全局極小點(diǎn)),但在應(yīng)用中,這些參數(shù)的調(diào)整往往因問題不同而異,較難求得全局極小點(diǎn)。因此,通過訓(xùn)練樣本的學(xué)習(xí)(訓(xùn)練)建立合理的 BP 神經(jīng)網(wǎng)絡(luò)模型的過程,在國外被稱為 “藝術(shù)創(chuàng)造的過程” ,是一個(gè)復(fù)雜而又十分煩瑣和困難的過程。雖然理論上早已經(jīng)證明:具有 1 個(gè)隱層(采用 Sigmoid 轉(zhuǎn)換函數(shù))的 BP 網(wǎng)絡(luò)可實(shí)現(xiàn)對(duì)任意函數(shù)的任意逼近。因此,合理隱層節(jié)點(diǎn)數(shù)應(yīng)在綜合考慮網(wǎng)絡(luò)結(jié)構(gòu)復(fù)雜程度和誤差大小的情況下用節(jié)點(diǎn)刪除法和擴(kuò)張法確定。(2)訓(xùn)練樣本數(shù)必須多于網(wǎng)絡(luò)模型的連接權(quán)數(shù),否則,樣本必須分成幾部分并采用“輪流訓(xùn)練”的方法才可能得到可靠的神經(jīng)網(wǎng)絡(luò)模型。在確定隱層節(jié)點(diǎn)數(shù)時(shí)必須滿足下列條件:(1)隱層節(jié)點(diǎn)數(shù)必須小于 N1(其中 N 為訓(xùn)練樣本數(shù)) ,否則,網(wǎng)絡(luò)模型的系統(tǒng)誤差與訓(xùn)練樣本的特性無關(guān)而趨于零,即建立的網(wǎng)絡(luò)模型沒有泛化能力,也沒有任何實(shí)用價(jià)值。為盡可能避免訓(xùn)練時(shí)出現(xiàn)“過擬合”現(xiàn)象,保證足夠高的網(wǎng)絡(luò)性能和泛化能力,確定隱層節(jié)點(diǎn)數(shù)的最基本原則是:在滿足精度要求的前提下取盡可能緊湊的結(jié)構(gòu),即取盡可能少的隱層節(jié)點(diǎn)數(shù)。目前多數(shù)文獻(xiàn)中提出的確定隱層節(jié)點(diǎn)數(shù)的計(jì)算公式都是針對(duì)訓(xùn)練樣本任意多的情況,而且多數(shù)是針對(duì)最不利的情況,一般工程實(shí)踐中很難滿足,不宜采用。這主要還是因?yàn)橐粚泳W(wǎng)絡(luò)的神經(jīng)元數(shù)被所要解決的問題本身限制造成的。因?yàn)槟苡脝螌臃蔷€性網(wǎng)絡(luò)解決的問題,用自適應(yīng)線性網(wǎng)絡(luò)一定也能解決,而且自適應(yīng)線性網(wǎng)絡(luò)的運(yùn)算速度還更快。所以一般情況下,應(yīng)優(yōu)先考慮增加隱含層中的神經(jīng)元數(shù)。這實(shí)際上已經(jīng)給了我們一個(gè)基本的設(shè)計(jì) BP 網(wǎng)絡(luò)的原則,應(yīng)優(yōu)先考慮 3 層 BP網(wǎng)絡(luò)(即有 1 個(gè)隱層) 。Hornik 等早已證明:若輸入層和輸出層采用線性轉(zhuǎn)換函數(shù),隱層采用 Sigmoid 轉(zhuǎn)換函數(shù),則含一個(gè)隱層的 MLP 網(wǎng)絡(luò)能夠以任意精度逼近任何有理函數(shù)。再者,為保證建立的模型具有一定的外推能力,最好使數(shù)據(jù)預(yù)處理后的值在 ~ 之間。預(yù)處理的方法有多種多樣,各文獻(xiàn)采用的公式也不盡相同。一般要求對(duì)不同變量分別進(jìn)行預(yù)處理,也可以對(duì)類似性質(zhì)的變量進(jìn)行統(tǒng)一的預(yù)處理。由于 BP 神經(jīng)網(wǎng)絡(luò)的隱層一般采用 Sigmoid 轉(zhuǎn)換函數(shù),為提高訓(xùn)練速度和靈敏性以及有效避開 Sigmoid 函數(shù)的飽和區(qū),一般要求輸入數(shù)據(jù)的值在 0~1 之間。輸出變量即為系統(tǒng)待分析的外生變量(系統(tǒng)性能指標(biāo)或因變量) ,可以是一個(gè),也可以是多個(gè)。 輸入/輸出變量的確定及其數(shù)據(jù)的預(yù)處理一般地,BP 網(wǎng)絡(luò)的輸入變量即為待分析系統(tǒng)的內(nèi)生變量(影響因子或自變量)數(shù),一般根據(jù)專業(yè)知識(shí)確定。而且,為監(jiān)控訓(xùn)練(學(xué)習(xí))過程使之不發(fā)生“過擬合”和評(píng)價(jià)建立的網(wǎng)絡(luò)模型的性能和泛化能力,必須將收集到的數(shù)據(jù)隨機(jī)分成訓(xùn)練樣本、檢驗(yàn)樣本(10%以上)和測(cè)試樣本(10%以上)3 部分。ke注 2:權(quán)值調(diào)整的過程,也就是網(wǎng)絡(luò)的學(xué)習(xí)訓(xùn)練過程(這也就是學(xué)習(xí)的由來→權(quán)值調(diào)整) 。然后計(jì)算ki? kiw2?,并同樣通過將 與該層激活函數(shù)的一階導(dǎo)數(shù) 相乘,而求得 ,以此??21skkiiweie1?fij?求出前層權(quán)值的變化量 。誤差反向傳播過程實(shí)際上是通過計(jì)算輸出層的誤差 ,然后將其與輸出層激活函ke數(shù)的一階導(dǎo)數(shù) 相乘來求得 。設(shè)輸入為 P,輸入神經(jīng)元有 r 個(gè),隱含層內(nèi)有 s1 個(gè)神經(jīng)元,激活函數(shù)為 F1,輸出層內(nèi)有 s2 個(gè)神經(jīng)元,對(duì)應(yīng)的激活函數(shù)為 F2,輸出為 A,目標(biāo)矢量為 T。其網(wǎng)絡(luò)結(jié)構(gòu)由輸入層中間層(隱層)和輸出層構(gòu)成,輸入層接收到的信號(hào)經(jīng)過隱層激活放大后再由輸出層,信號(hào)傳遞時(shí)每一層神經(jīng)元通過權(quán)值只影響下一層神經(jīng)元的狀態(tài),結(jié)構(gòu)模型圖如圖 1 圖 1 BP 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型圖其基本原理是:先從基礎(chǔ)數(shù)據(jù)中給出有代表性的網(wǎng)絡(luò)輸入信號(hào)(即訓(xùn)練樣本),并根據(jù)所要關(guān)心的具體問題構(gòu)造出期望的目標(biāo)信號(hào)(教師樣本)輸入網(wǎng)絡(luò),然后在網(wǎng)絡(luò)學(xué)習(xí)和自適應(yīng)過程中,通過輸入信號(hào)在正向的激活放大傳播和誤差的反向傳播,不斷修改和調(diào)整各層神經(jīng)元的連接權(quán)值,使輸出信號(hào)與期望目標(biāo)輸出信號(hào)間的誤差減至最小,當(dāng)其值小于某一給定值時(shí),即認(rèn)為完成或訓(xùn)練好該神經(jīng)網(wǎng)絡(luò),在此基礎(chǔ)上將進(jìn)行下一步的預(yù)測(cè)或擬合。論文將 BP 神經(jīng)網(wǎng)絡(luò)應(yīng)用到環(huán)境空氣質(zhì)量當(dāng)中,利用 MATLAB 的神經(jīng)網(wǎng)絡(luò)工具箱訓(xùn)練網(wǎng)絡(luò),建立起了環(huán)境空氣質(zhì)量檢測(cè)模型。根據(jù)環(huán)境空氣質(zhì)量標(biāo)準(zhǔn)和各項(xiàng)污染物對(duì)人體健康和生態(tài)的影響來確定各級(jí)污染物濃度的限值,詳細(xì)請(qǐng)參照附錄表一:中華人民共和國國家標(biāo)準(zhǔn)空氣質(zhì)量標(biāo)準(zhǔn)(GB30951996)各項(xiàng)污染物的濃度限值(1999 年) 。空氣質(zhì)量預(yù)報(bào)主要是依靠環(huán)境空氣質(zhì)量自動(dòng)監(jiān)測(cè)系統(tǒng)連續(xù)不斷地實(shí)時(shí)監(jiān)測(cè)數(shù)據(jù),并自動(dòng)傳輸?shù)娇刂剖遥?jīng)數(shù)據(jù)處理后得出當(dāng)天的空氣污染指數(shù),再向社會(huì)公布。神經(jīng)網(wǎng)絡(luò)作為一種描述和刻畫非線性現(xiàn)象的強(qiáng)有力工具,具有較強(qiáng)的自學(xué)習(xí)、自組織、自適應(yīng)能力等特點(diǎn),特別適合于對(duì)具有多因素性、不確定性、隨機(jī)性、非線性和隨時(shí)間變化特性的對(duì)象進(jìn)行研究 [5]。 MATLAB neural work toolbox引言神經(jīng)網(wǎng)絡(luò)(又稱人工神經(jīng)網(wǎng)絡(luò),Neural Networks),是由眾多簡單的神經(jīng)元連接而成的一個(gè)網(wǎng)絡(luò),通過模擬人腦細(xì)胞的分布式工作特點(diǎn)和自組織功能實(shí)現(xiàn)并行處理、自學(xué)習(xí)和非線性映射等功能。關(guān)鍵詞:BP 神經(jīng)網(wǎng)絡(luò);空氣質(zhì)量; MATLAB 神經(jīng)網(wǎng)絡(luò)工具箱The detection of air quality based on neural work Student majoring in xx name Tutor nameAbstract:The quality of air quality reflects the extent of air pollution, which is based on the concentration of pollutants in the air to determine the level of the air. Concentration of pollutants due to wind direction, wind speed, air temperature, humidity, pollutant emissions and other factors, makes the issue of air quality is a great uncertainty and a certain degree of plexity. Neural work description and characterization as a powerful tool for nonlinear phenomenon, with strong selflearning, selfanization, the characteristics of adaptive capacity, espec