freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于神經(jīng)網(wǎng)絡(luò)的非線性自適應(yīng)控制研究畢業(yè)設(shè)計論文-資料下載頁

2025-06-27 20:41本頁面
  

【正文】 RBF的中心通過自組織學(xué)習(xí)確定其位置,一般常采用模式識別巾Jh泛應(yīng)用的k均值聚類算法,足無監(jiān)督的學(xué)習(xí)算法,在學(xué)習(xí)過程中需對數(shù)據(jù)中心的位置進(jìn)行動態(tài)調(diào)節(jié),學(xué)習(xí)的目的是使RBF的中心位于輸入空間重要的區(qū)域.從訓(xùn)練數(shù)據(jù)中挑選1個作為RBF的初始中心(j= 1,2,k),其他訓(xùn)練數(shù)據(jù)分配到與之距離最近的類中去,然后重新計算各類的訓(xùn)練數(shù)據(jù)的平均值作為RBF的中心(j =1,2,…k)K均值聚類算法,調(diào)整中心,算法步驟如下:Step1:給定各隱節(jié)點的初始中心Ⅳ,(0)(j=l,2,k)Step2:計算輸入空間各樣本點與聚類中心點的歐氏距離,并求出最小距離的節(jié)點 (44) (45)Step3:調(diào)整中心 (46) (47)式中,β是學(xué)習(xí)速率,0<β<1。Step4:計算節(jié)點r的距離 (48)c有監(jiān)督的學(xué)習(xí)選取RBF中心在這種方法中RBF的中心以及網(wǎng)絡(luò)的其他參敦都是通過有監(jiān)督的學(xué)習(xí)來確定的。一般可用簡單有效的梯度下降法.該算法雖簡單直接,但思想類似于BP同絡(luò)的BP算法,訓(xùn)練結(jié)果存在收斂性問題,跟初始化參數(shù)有關(guān).(2)寬度的確定a固定法當(dāng)中心由訓(xùn)練數(shù)據(jù)確定后,RBF寬度可由確定,其中d是所有類的最大距離,M為RBF中心的數(shù)目。b平均距離RBF寬度的一個合理估計是,它表示第j類與它的最近鄰的第i類的歐氏距離。(1)k means聚類徑向基函數(shù)網(wǎng)絡(luò)的隱層可由kmeans聚類完成,聚類算法所得的每一類都被作為一個隱藏層節(jié)點,輸出層的權(quán)系數(shù)可由最小均方誤差算法或其他線性映射求得kmeans聚類算法具有簡單、高效等特點,但聚類結(jié)果易受初始參數(shù)選取的影響并常收斂于局部極小值,這就使得聚類結(jié)果影響到RBF網(wǎng)絡(luò)的最終訓(xùn)練結(jié)果。在隱藏層節(jié)點敷、激活函數(shù)、激活函數(shù)的中心確定后,輸出層權(quán)值可由線性方程組確定。設(shè)訓(xùn)練樣本集,學(xué)習(xí)的目的是確定權(quán)值,使得,記,則得到下列線性方程組: (49)令則上式表示為GW=D (410)如果G為非奇異陣,則;但一般情況下無法保證G非奇異,很難保證W的唯一性,的求解也變得復(fù)雜。另外,不難發(fā)現(xiàn)。RBF函數(shù)的數(shù)目與樣本集的數(shù)目相等,當(dāng)訓(xùn)練數(shù)據(jù)的數(shù)目超過待學(xué)習(xí)過程的自由度時,這個約束造成過擬合,因此RBF網(wǎng)絡(luò)的推廣能力差。(2)正交最小二乘(OLS)學(xué)習(xí)算法上面的處理方法會出現(xiàn)病態(tài)問題,這可以采用正則化方法來解決.正交最小二乘法來源于線性回歸模型,通過“信息——貢獻(xiàn)”準(zhǔn)則進(jìn)行正交優(yōu)選中心,首先把網(wǎng)絡(luò)的求解問題轉(zhuǎn)化為一個線性同歸模型,對同歸進(jìn)行正交化,然后確定權(quán)值和中心,具有簡單易行、運速度快的特點。不失一般性,以單輸出RBF網(wǎng)絡(luò)為例。下式可以看作是線性回歸模型的一種特殊情況 (411)其中:為期望輸出值,為模型的參數(shù),為模型的回歸因子,它是輸入訓(xùn)練教據(jù)的固定函數(shù),為誤差,它服從分布設(shè)t=1~N,上式可表示為 (412)回歸因子的集合構(gòu)成了一個基向量空間,平方是期望輸出能量的一部分;但由于回歸因子之間通常是相關(guān)的,所以無法清楚地知道每個回歸因子對于輸出能量的貢獻(xiàn)大小。因此,利用OLS算法把的集合P變換成一個正交基向量的集合W,這樣便能夠根容易地計算出每個基向量對輸出能量貢獻(xiàn)的大小。對P作分解P= WA (413)其中:A為一個MM的三角矩陣,它的對角線元素為l,對角線下方的為0,它又是施密特法則對P進(jìn)行正變化所生成的系數(shù)矩陣:W為一個NM的正交矩陣,即它的任意兩個列向量和,都滿足。由正交向量構(gòu)成的空間與由只構(gòu)成的空間是同一個空間,即。式中,g為新的回歸參數(shù)向量,可通過OLS求出 (414)使用施密特法則對P進(jìn)行正交化,首先令,然后從k=2開始,直到k=M為止對作正交運算。這樣就可以獲得一個正交的矩陣W,它的任意兩個不同列之間都是正交的。一般說來,可供選擇的中心數(shù)日是非常龐大的,而選擇數(shù)量盡量少的且具有代表性的那些向量作為RBF網(wǎng)絡(luò)的中心是我們的目的,假設(shè)可供選擇的中心點數(shù)為M,而需要的僅僅是L個。由于和是正交的,期望輸出d的平方和就為 (415)其中為期望輸出的有用部分;為誤差部分。有用部分中每一個分量分別由獨立的正交向量確定.由此可計算正交向量對期望輸出的貢獻(xiàn)。定義誤差下降速率 (416)它給出了每個對同絡(luò)輸出的貢獻(xiàn)大小。是個簡單有效的指標(biāo),它表明那些對誤差下降貢獻(xiàn)大的正交向量就是所要選擇的中心,也就是依據(jù)這個指標(biāo)來選擇所需要的中心的,按照式(416)計算出所有正交向量的,并按從小到人的順序排成一列,設(shè)它為,然后從隊列的第一個開始選取,直到為止,為事先給定的網(wǎng)絡(luò)訓(xùn)練精度。(3) LMS算法 LMS算法即規(guī)則 (417) (418)用于權(quán)值調(diào)整的自適應(yīng)學(xué)習(xí)算法為: (419)將代入上式得 (420)式中是常值,可使算法收斂。 權(quán)值調(diào)整算法為: (421)式中是常值。當(dāng)時,算法結(jié)束。(4)最小二乘遞推法(RLS)為簡單起見,討論單輸出的情況。定義目標(biāo)函數(shù) (422)式中,是加權(quán)因子,若第p個樣本比第pk(k>1)個可靠,則p的加權(quán)因子要大,可?。? (423)L是樣本長度。使J最小的W即為所求,因此,由 (424)可得最小二乘遞推算法(RLS): (425)式中,h是隱節(jié)點數(shù)。 RBF神經(jīng)網(wǎng)絡(luò)的先進(jìn)學(xué)習(xí)算法關(guān)于RBF神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法的改進(jìn)的方法有許多,比較具有代表性的有:,需要一些遞歸辨識算法,一個簡單的辦法是首先固定RBF中心,然后通過遞推最小二乘實時校正RBF權(quán)值。但只有在所討論的系統(tǒng)變化非常小時該方法才有效。同時改變RBF中心和網(wǎng)絡(luò)權(quán)值會得到更好的效果。因為這樣會大大改善建模能力和跟蹤性能。kmeans聚類算法可以遞推使用,于是如果輸入數(shù)據(jù)的分布發(fā)生變化,中心的分布也會跟隨數(shù)據(jù)模式而變化。從而RBF中心實時分布在網(wǎng)絡(luò)輸入數(shù)據(jù)所在的區(qū)域,中心的位置能有效反席數(shù)據(jù)模式。,就對其應(yīng)用有了強制,針對這一點提出了一種頻率敏感競爭的學(xué)習(xí)算法(Frequency Sensitive Competitive Leaming: FSCL),基本思想是:對某一中心多次連續(xù)獲勝時,強制限制其獲勝(降低獲勝系教),例如當(dāng)w1連續(xù)獲勝時,對它停止修正幾次,而改為修正w2,該方法克服了單純的增長法和修剪法的一些不足。3.傳統(tǒng)的RBF中心選擇算法的一個主要缺點是都要求中心個數(shù)預(yù)先周定,于是就產(chǎn)生了構(gòu)建法和慘剪法來訓(xùn)練網(wǎng)絡(luò)。當(dāng)網(wǎng)絡(luò)的初始規(guī)模(一般指隱層神經(jīng)元數(shù)目)無法確定時,可先以較小的規(guī)模初始化網(wǎng)絡(luò),隨著訓(xùn)練的進(jìn)行來增加網(wǎng)絡(luò)隱層神經(jīng)元數(shù),應(yīng)該能有效解決睡絡(luò)規(guī)模問題,給出神根據(jù)網(wǎng)絡(luò)訓(xùn)練誤差的情況分裂中心來實現(xiàn)網(wǎng)絡(luò)增長和停止網(wǎng)絡(luò)增長,使得網(wǎng)絡(luò)的規(guī)模合理有效。有一種結(jié)構(gòu)變化的神經(jīng)網(wǎng)絡(luò)(Variable NN),并把它用于自適應(yīng)控制中對于傳統(tǒng)的網(wǎng)絡(luò)規(guī)模同定的RBF網(wǎng)絡(luò),其中心選在一緊集上的品格結(jié)點處于是晶格結(jié)點的距離影響了網(wǎng)絡(luò)的規(guī)模和逼近精度。其Variable NN思想是:根據(jù)某種策略,基函數(shù)由一個變化的品格結(jié)點決定,只分布在網(wǎng)絡(luò)輸入所經(jīng)過的空間,基函數(shù)的數(shù)目可隨時間而增加或減少來保持網(wǎng)絡(luò)合適的規(guī)模,從而有斂避免了網(wǎng)絡(luò)對數(shù)據(jù)的過度擬臺和擬合不足,節(jié)省了網(wǎng)絡(luò)資源。RBF網(wǎng)絡(luò)的特點是局部的,即一旦中心和寬度確定,每個隱層神經(jīng)元輸出只在其中心的一個鄰域起作用,當(dāng)某個中心遠(yuǎn)離現(xiàn)在的輸入集合且對逼近誤差影響非常小時,可不要該中心:如果某個中心的幫域距離現(xiàn)在輸入集臺很近,則其對輸出就有很大作用,于是就保持該中心,或當(dāng)沒有這樣的中心時增加一個。區(qū)別于以前的輸入聚類算法(input clustering.IC),有文獻(xiàn)研究了基于輸入—輸出數(shù)據(jù)的聚類算法(InputOutput Clustering.IOC).通過對輸入一輸出樣本進(jìn)行聚類,可以得到一個加權(quán)的輸入輸出盼均方量化誤差.該誤差可為網(wǎng)絡(luò)的輸出均方誤差得到一個上界。通過調(diào)節(jié)這個上界可以使網(wǎng)絡(luò)的逼近誤差任意小。RBF神經(jīng)網(wǎng)絡(luò)雖然具有許多優(yōu)點和特性,但其還存在以下幾個有關(guān)問題:l、求RBF網(wǎng)絡(luò)隱節(jié)點的中心和標(biāo)準(zhǔn)化參數(shù)是個困難的問題。徑向基函數(shù),即徑向?qū)ΨQ函數(shù)有多種,對于一組樣本,如何選擇合適的徑向基函數(shù),如何確定隱節(jié)點數(shù),以使網(wǎng)絡(luò)學(xué)習(xí)達(dá)到要求的精度,是還沒有解決的問題。當(dāng)前,用計算機選擇、設(shè)計,再檢驗足一種通用的手段。這是該網(wǎng)絡(luò)難以廣泛應(yīng)用的原因。RBF神經(jīng)網(wǎng)絡(luò)因其優(yōu)良的特性吸引著科學(xué)工作者的廣泛關(guān)注,各種新的算法的產(chǎn)生又推動了其應(yīng)用和發(fā)展. RBF網(wǎng)絡(luò)的推廣能力在實際慮用RBF網(wǎng)絡(luò)時,網(wǎng)絡(luò)訓(xùn)練不能只注意網(wǎng)絡(luò)的訓(xùn)練精度,同時應(yīng)該考慮網(wǎng)絡(luò)的推廣能力,如果一個網(wǎng)絡(luò)的推廣能力差,只能用于一種問題的求解,則在實際應(yīng)用中就沒有價值了。如果訓(xùn)練數(shù)據(jù)集并不是特別夫的話,網(wǎng)絡(luò)對訓(xùn)練數(shù)據(jù)的性能并不能用采解釋未知數(shù)據(jù)的性能,因此,實踐中需要對網(wǎng)絡(luò)的推廣性質(zhì)有一種較為可靠的預(yù)測方法。目前預(yù)測方法主要有:交叉確認(rèn)法預(yù)測推斷性能的標(biāo)準(zhǔn)方法稱為交叉確認(rèn)(cross validation)。它是將數(shù)據(jù)分成兩組,一組是訓(xùn)練,另一組是測試集。網(wǎng)絡(luò)在訓(xùn)練集上進(jìn)行學(xué)習(xí),在測試集上評價網(wǎng)絡(luò)的性能,為了獲得具有統(tǒng)計意義上的結(jié)果,需進(jìn)行幾種相互獨立的數(shù)據(jù)分解,然后獲取平均結(jié)果,以得到性能的一個整體估計,但在神經(jīng)網(wǎng)絡(luò)中卻可能非常耗時,因為對每一種數(shù)據(jù)分解都需要很長的學(xué)習(xí)時間。預(yù)測平方誤差法這方法所需的計算量少得多,稱為預(yù)測平方誤差(PredicatedSquared Error. PSE)。這種方法利用統(tǒng)計分析,用表達(dá)式表示網(wǎng)絡(luò)的推廣性能.該表達(dá)式是訓(xùn)練集的性能、系統(tǒng)中自由參數(shù)的個數(shù)、訓(xùn)練集大小等的函數(shù)。(Complexity Regularization)項來訓(xùn)練的系統(tǒng),提出后了廣義預(yù)測誤差(Generalized Predication Error. OPE)方法。由于所州的復(fù)雜性正則化項,有效參數(shù)比賽際參數(shù)數(shù)口少得多。Freeman等從理論上分析了RBF網(wǎng)絡(luò)的推廣能力的問厝。通過對推廣能力與訓(xùn)練數(shù)據(jù)對、最優(yōu)訓(xùn)練參數(shù)及基函數(shù)的相互作用的分析,得出了以下結(jié)論:當(dāng)權(quán)值矢量完全可以用學(xué)習(xí)教導(dǎo)出時.RBF的推廣能力與所訓(xùn)練的數(shù)據(jù)數(shù)成正比。為了達(dá)到RBF網(wǎng)絡(luò)較好的推廣能力,網(wǎng)絡(luò)的訓(xùn)練參數(shù)也需要最優(yōu)的設(shè)置,基函數(shù)交疊強的RBF網(wǎng)絡(luò)具有較好的推廣能力,并有利于提高網(wǎng)絡(luò)的學(xué)習(xí)速度。這些結(jié)論對實際應(yīng)用具有較好的指導(dǎo)作用。 RBF神經(jīng)網(wǎng)絡(luò)逼近特性從上面的描述我們可以知道,RBF神經(jīng)兩絡(luò)具有最佳逼近特性,任意給出一個未知的非線性函數(shù),總可以得到組權(quán)值使得RBF網(wǎng)絡(luò)對于廠的逼近優(yōu)于所有其它可能的選擇。下面,利用MATLAB軟件來仿真RBF神經(jīng)網(wǎng)絡(luò)的逼近特性。所做的工作是對于同一個RBF神經(jīng)網(wǎng)絡(luò),選擇不同的連續(xù)函數(shù),來模擬仿真其逼近特性.在網(wǎng)絡(luò)設(shè)計中,采用高斯函數(shù)作為基函數(shù)。 逼近函數(shù), 逼近函數(shù) 逼近函數(shù), 逼近函數(shù)從上面的仿真結(jié)果我們可以比較看出,同一個RBF神經(jīng)網(wǎng)絡(luò),對不同的連續(xù)函數(shù),其逼近效果非常好,逼近誤差也在一定的時間內(nèi)能達(dá)到了期望的要求,這也說明了該RBF神經(jīng)網(wǎng)絡(luò)具有比較好的推廣能力。 結(jié)束語隨著人類社會的發(fā)展和科技的進(jìn)步,無論在丁作還是日常生活中,人們對智能化的要求都會越來越高,正是這種要求推動和促進(jìn)了智能控制的發(fā)展和應(yīng)用,而神經(jīng)網(wǎng)絡(luò)控制作為智能控制一個重要的前沿分支,其關(guān)于學(xué)習(xí)、聯(lián)想和記憶等具有智能特點過程的機理及其模擬方面的特性為解決人類的需求提供了有力的工具,再加上與其他前沿學(xué)科的交叉融合,該領(lǐng)域的研究必將越來越熱烈深入,應(yīng)用也必將越來越廣泛,所以神經(jīng)網(wǎng)絡(luò)控制的研究具有廣闊的發(fā)展前景和發(fā)展空間。但從其發(fā)展歷史來看,這個領(lǐng)域的研究既充滿誘惑又不乏挑戰(zhàn),沒有人能肯定以后它的不會再經(jīng)受挫折,也沒有人知道它會給人類社會帶來多人的輝煌和巨變。但只要堅持不懈地努力,神經(jīng)網(wǎng)絡(luò)研究的新理論和新方法必定會使我們的社會越來越美好,使我們的生活越來越舒適。作為一名初學(xué)者,對神經(jīng)網(wǎng)絡(luò)控制的理論、方法和技術(shù)等都掌握得不夠深入和全面,許多方面只是進(jìn)行了初步探討,以后還需要在以下幾個方面進(jìn)行深入學(xué)習(xí)和改善:1,改進(jìn)學(xué)習(xí)算法,以改善神經(jīng)網(wǎng)絡(luò)性能:和其他學(xué)科的融合應(yīng)用研究。43
點擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1