freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)論文-艦用燃氣輪機某關(guān)鍵部件故障診斷方法研究-資料下載頁

2025-06-03 23:48本頁面
  

【正文】 ) 其中: 1jmjii?????? ( ) 假設(shè)各輸入分量的模糊分割數(shù)是預(yù)先確定的,那么需要學習的參數(shù)主要是后件網(wǎng)絡(luò)的連接權(quán) ljiP ? ?1 , 2 , , 。 0 , 1 , , 。 1 , 2 , ,j m i n l r? ? ?,前件網(wǎng)絡(luò)第二層各節(jié)點隸屬函數(shù)的中心值ijc和寬度ij? ? ?1 , 2 , , 。 1 , 2 , , ii m j m??,這里的隸屬函數(shù)選的是高斯分布函數(shù)。取誤差代價函數(shù)為 ? ?2112 riE i iyd?? ?? ( ) 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 21 式中, id 和 iy 分別表示期望輸出和實際輸出。其學習算法如下: ? ?i ljll l j ilji jil ljEE yy ydxyyPP ?? ? ?? ? ? ? ?? ? ? ? ( ) 式中, 1 , 2 , , 。 0 , 1 , , 。 1 , 2 , ,j m i n l r? ? ?。 在研究ijc和ij?的學習問題時,可將參數(shù) ljiP名固定。 ANFIS的簡化結(jié)構(gòu)圖如圖。 這 是 每條規(guī)則的后件在簡化結(jié)構(gòu)中變成了最后一層的連接權(quán),這時每層的局部梯度 ? 的算法如下: 圖 ANFIS結(jié)構(gòu)簡化圖 ? ?5 iiii yd? ?? 1,2, ,in? ( ) ? ? ? ?45jijiy??? ? 1,2, ,jm? ( ) ? ?? ?41321mjiiijj mii???????????????? 1,2, ,jm? ( ) ? ? ? ?22231 ijmij k ijkx i c jise ???????????? ? 1,2, ,in? 1,2, ,ij m? ( ) 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 22 當 and采用取小運算時,則當 jiu是第 k 個規(guī)則節(jié)點輸入時,1jnji jjjiisu???? ,否則 否則 0jis?。 最后求得 ? ? ? ?222 i ijijijijE xcc ? ??? ??? ( ) ? ? ? ?2232ijij iji ijE xc?? ?? ???? ( ) ? ? ? ?1ij ij ijEkkcc c? ?? ? ? ? ( ) ? ? ? ?1ij ij ijEkk ??? ??? ? ? ? ( ) 式中, 0?? 為學習率, 1,2, ,in? 1,2, ,ij m? 由 ANFIS的結(jié)構(gòu)可見, ANFIS與模糊推理系統(tǒng)等價。采用了神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的模糊推理具有了自學習的能力。 ANFIS的學習歸結(jié)為對前件網(wǎng)絡(luò)參數(shù)與后件網(wǎng)絡(luò)參數(shù)的調(diào)整。對于前件網(wǎng)絡(luò)參數(shù)和后件網(wǎng)絡(luò)參數(shù),根據(jù)輸入輸出之間的關(guān)系,采用 BP算法 (反向傳播算法 )和最小二乘估計算法來調(diào)整參數(shù),稱混合算法?;旌蠈W習算法的一次迭代由兩步組成:第一步,先固定前件網(wǎng)絡(luò)參數(shù),輸入信號沿網(wǎng)絡(luò)正向傳遞直到第 4層,采用最小二乘估計算法調(diào)節(jié)后件網(wǎng)絡(luò)參數(shù)。之后,信號繼續(xù)沿網(wǎng)絡(luò)正向傳遞直到輸出層 (即第 5層 )。第二步,將獲得的誤差信號沿網(wǎng)絡(luò)反向傳播,并利用 BP算法調(diào)節(jié)前件參數(shù)。采用混合學習算法,對于給定的前件參數(shù),可以得到后件參數(shù)的全局最優(yōu)點,這樣不僅可以 降低梯度下降法中搜索空間的維數(shù),通常還可以大大提高參數(shù)收斂速度。 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 23 4 滾動軸承 BP 神經(jīng)網(wǎng)絡(luò)故障診斷試驗研究 前幾節(jié)篇章對滾動軸承也有了初步的認識,對其機理以及神經(jīng)網(wǎng)絡(luò)的理論也進行了簡單的研究。并且通過實驗獲取了軸承的振動信號等參數(shù),進行合理的選取作為故障參數(shù)的網(wǎng)絡(luò)輸入。本章主要以前半段為基礎(chǔ)上具體建立神經(jīng)網(wǎng)絡(luò)模型并進行仿真,驗證結(jié)果。 故障診斷模型建立 建立一個 BP 神經(jīng)網(wǎng)絡(luò)模型即確定網(wǎng)絡(luò)結(jié)構(gòu)并對問題進行求解,主要包括以下幾個方面的內(nèi)容 : (1) 每層的神經(jīng)元數(shù)目 。 (2) 初始權(quán)值的選取 。 (3) 期望的誤差和學習率的選取。 所設(shè)計的網(wǎng)絡(luò)的結(jié)構(gòu)將直接影響網(wǎng)絡(luò)診斷結(jié) 果的可靠性。 各層節(jié)點數(shù)確定 神經(jīng)網(wǎng)絡(luò)的輸入層節(jié)點數(shù)和輸出層節(jié)點數(shù)取決于輸入?yún)?shù)的個數(shù)和輸出結(jié)果的個數(shù)。 ( 1)輸入層節(jié)點數(shù) 輸入層起緩沖存儲器的作用,把數(shù)據(jù)加到神經(jīng)網(wǎng)絡(luò)上。如果輸入節(jié)點數(shù)過多會導致網(wǎng)絡(luò)過于龐大,不可避免地引入更多噪聲,過少則不能保證網(wǎng)絡(luò)所需要的信息量,因此選擇網(wǎng)絡(luò)的輸入節(jié)點是建模的重要任務(wù)。 神經(jīng)網(wǎng)絡(luò)的輸入層節(jié)點數(shù)取決于輸入特征向量的個數(shù),即這些節(jié)點能夠代表每個數(shù)據(jù)源,如果數(shù)據(jù)源中含有大量的未經(jīng)處理的或者虛假的信息數(shù)據(jù),那必將會妨礙對網(wǎng)絡(luò)的正確的訓練,所以,要剔除 那些無效的數(shù)據(jù),確定出數(shù)據(jù)源的合適數(shù)目。前述工作中已確定了本文滾動軸承故障診斷神經(jīng)網(wǎng)絡(luò)的六個輸入?yún)?shù),即神經(jīng)網(wǎng)絡(luò)的輸入層節(jié)點數(shù)為 6。 ( 2)輸出層節(jié)點數(shù) 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 24 作為故障診斷的輸出節(jié)點,希望能夠直接從輸出結(jié)果得到故障模式的判斷本文采用二進制編碼方式,滾動軸承的故障編碼即 BP 神經(jīng)網(wǎng)絡(luò)的期望輸出。根據(jù)滾動軸承主要故障類型,確定其 2 種工作狀態(tài)編碼,分別為正常狀態(tài)( 1,0)和故障狀態(tài)( 0,1)。只需 2 個輸出節(jié)點,因此確定神經(jīng)網(wǎng)絡(luò)的輸出層節(jié)點數(shù) 2。 ( 3) 隱層數(shù)和隱層節(jié)點數(shù) 對于多層神經(jīng)網(wǎng)絡(luò)來說,首先確定選用幾層隱層 。 隱層起抽象的作用,它能從輸入提取特征。增加隱層可增加人工神經(jīng)網(wǎng)絡(luò)的處理能力,但是必將使訓練復(fù)雜化、訓練樣本數(shù)目增加和訓練時間增加。而誤差精度的提高實際上也可以通過增加隱層的神經(jīng)元數(shù)目來獲得,其訓練效果也比增加層數(shù)更容易觀察和調(diào)整。所以一般情況下,應(yīng)優(yōu)先考慮增加隱層中的神經(jīng)元數(shù)。在設(shè)計中應(yīng)當盡可能地減少網(wǎng)絡(luò)模型的規(guī)模,以減少網(wǎng)絡(luò)的訓練時間。 一個三層的基于 BP 算法的神經(jīng)網(wǎng)絡(luò)可以完成任意的 n 維到 m 維的映射。所以本文選取網(wǎng)絡(luò)隱層數(shù)為 1。 可見,隱層節(jié)點數(shù)的選擇對整個神經(jīng)網(wǎng)絡(luò)的性能有重要的影響。目前對隱 層節(jié)點數(shù)的選取尚無統(tǒng)一標準,一般是根據(jù)經(jīng)驗或通過訓練學習后,考慮網(wǎng)絡(luò)的學習次數(shù)和識別率綜合比較后選定隱層神經(jīng)元數(shù)的選取經(jīng)驗公式主要有 : 10a*1 *12???????amnhmh ( ) nhmhm2lo g??? ( ) 其中, h 為隱層神經(jīng)元 數(shù)目, m 為輸入神經(jīng)元數(shù)目, n 為輸出神經(jīng)元數(shù)目。通過實驗綜合比較后選取隱層節(jié)點數(shù)為 8, 則用于滾動軸承故障診斷的 BP 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)為 N(6,8,2) 。 利用訓練函數(shù) traingdx,傳遞函數(shù)( tansig,logsig)對網(wǎng)絡(luò)進行訓練。 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 25 初始權(quán)值的選擇 初始權(quán)值的選取同樣對網(wǎng)絡(luò)學習能否達到全局最小、能否收斂以及訓練時間的長短有著很大的關(guān)系。從激活函數(shù)的特性分析,初始權(quán)值應(yīng)該取介 (1,1)之間的隨機數(shù),從而保證神經(jīng)元的權(quán)值都能夠在它們的 S 型激活函數(shù)變化最大的地方進行調(diào)節(jié)。最佳初始 權(quán)值選擇的數(shù)量級是 Q ,式中 Q 是第一層神經(jīng)元數(shù), u 為輸入矢量的數(shù)目。這樣可以在較少的迭代次數(shù)后得到滿意的訓練結(jié)果。在本實驗中當輸入數(shù)據(jù)之后,權(quán)值是隨機產(chǎn)生的。 期望誤差和學習率選取 學習速率決定了每一次循環(huán) 訓練中所產(chǎn)生的權(quán)值變化量,其大小的選擇,直接影響訓練時間,如果學習速率選擇不當,嚴重時完全不能訓練。如果學習速率太大,可能出現(xiàn)麻痹現(xiàn)象,將導致系統(tǒng)不穩(wěn)定 :而如果學習速率太小,盡管有利于尋求到誤差最小值,但會造成訓練時間太長,使收斂速度變得緩慢。一般情況下,傾向于選擇較小的學習率以保證系統(tǒng)的穩(wěn)定。通常,在評價系統(tǒng)中一般選取學習速率 1~ ?r ,本文實驗研究選擇的 LevenbergMarquardt 法中,學習速率亦在此范圍內(nèi)。在設(shè)計網(wǎng)絡(luò) 的訓練過程中,應(yīng)通過對比訓練來尋求最優(yōu)的期望誤差。最優(yōu)是相對于隱含層的節(jié)點數(shù)來確定的,因為較小的期望誤差值要通過增加隱含層的節(jié)點數(shù)及訓練時間來獲得。鑒于神經(jīng)網(wǎng)絡(luò)在處理分類問題時的能力,本文設(shè)定訓練期望誤差為 。 經(jīng)過網(wǎng)絡(luò)訓可以對輸入向量進行正確分類,訓練步數(shù)的設(shè)定關(guān)乎到網(wǎng)絡(luò)性能,在次我們將步數(shù)確定為 500,。模型采用 3 層 BP 神經(jīng)網(wǎng)絡(luò),輸入層為 6 個節(jié)點,考慮網(wǎng)絡(luò)學習次數(shù)和識別率綜合比較選定,最終確定隱層節(jié)點數(shù)為 8,輸出層節(jié)點數(shù)為 2,對應(yīng)軸承正常和故障下的情況, BP 神經(jīng)網(wǎng)絡(luò)最終結(jié)構(gòu)為 N(6, 8, 2)。 軸承故障診斷的仿真試驗研究 樣本選取 神經(jīng)網(wǎng)絡(luò)之所以在模式識別中得到廣泛應(yīng)用,是因為它具有學習能力。在神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)確定后,學習樣本集的選擇對神經(jīng)網(wǎng)絡(luò)的性能有很大的影響。用于神經(jīng)網(wǎng)絡(luò)訓沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 26 練的樣本集必須滿足兩個要求 :樣本集要足夠大,樣本集的大小對神經(jīng)網(wǎng)絡(luò)的識別能力有很大的影響,樣本集越大,診斷的準確度就越高 。樣本集必須包含軸承各類故障的典型樣本,即要求訓練樣本集完整。 具體地說,學習樣本集的選擇一般要遵循以下步驟 : (1) 選擇邊界樣本 :滾動軸承在不同故障下的樣本數(shù)據(jù)之間有時存 在某種程度的重疊。定義那些存在部分重疊,而又在系統(tǒng)識別精度范圍內(nèi)的樣本為邊界樣本。神經(jīng)網(wǎng)絡(luò)在滾動軸承缺陷診斷中容易出錯,最好樣本集在上下邊界之間均勻分布。 (2) 刪除矛盾樣本 :如果滾動軸承不同故障下的樣本數(shù)據(jù)之間重疊性太高,以致超過了系統(tǒng)的識別精度,無法判斷它屬于哪一類故障,定義這種樣本為矛盾樣本。對于矛盾樣本,應(yīng)在學習樣本集中給予刪除。 (3) 樣本集應(yīng)充滿整個樣本空間 :學習樣本集應(yīng)包括滾動軸承在所有故障情況下的特征數(shù)據(jù),如果缺乏某種故障下的樣本數(shù)據(jù),或某種故障下的樣本集在上下邊界之間出 現(xiàn)大的空缺 (即樣本不具有完整性 ),那么神經(jīng)網(wǎng)絡(luò)對這種故障就不易診斷出來。 根據(jù)前面對滾動軸承故障的參數(shù)分析,我們對數(shù)據(jù)樣本的正常和故障數(shù)據(jù)各選了50 組進行訓練,然后各選取 10 組測量。 準確率 N= 測試總數(shù) 匹配總數(shù)診斷結(jié)果與實際結(jié)果的 100% ( ) 表 訓練數(shù)據(jù) 參數(shù) 組數(shù) 1 2 3 4 5 6 1 1 66 2 1 3 1 4 1 … … … … … 47 0 48 0 49 0 50 0 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 27 神經(jīng)網(wǎng)絡(luò)的訓練 對 BP 神經(jīng)網(wǎng)絡(luò)進行特 征性訓練之后,再用實際滾動軸承樣本數(shù)據(jù)對神經(jīng)網(wǎng)絡(luò)進行適應(yīng)性訓練,每一種運行狀態(tài)的神經(jīng)網(wǎng)絡(luò)訓練都應(yīng)該采用該種狀態(tài)下的特征參數(shù)數(shù)據(jù)進行,訓練完成后,該神經(jīng)網(wǎng)絡(luò)就可以用來診斷滾動軸承的故障類型了。在確定了神經(jīng)網(wǎng)絡(luò)模型的結(jié)構(gòu)后,下面代碼如圖 在 Matlab 環(huán)境下創(chuàng)建一個符合上述條件的軸承故障診斷 BP網(wǎng)絡(luò) (選擇 traingdx, 訓練函數(shù) ): 圖 BP診斷部分代碼 其中, P 為網(wǎng)絡(luò)的輸入向量 。T 為網(wǎng)絡(luò)的目標向量 。minmax(P)定義了輸入向量的最大值和最小值。網(wǎng)絡(luò)的訓練次數(shù)為 500 次,訓練目標誤差為 ,學習速率為 根據(jù)歸一化后的滾動軸承訓練樣本數(shù)據(jù)對網(wǎng)絡(luò)進行訓練,網(wǎng)絡(luò)的初始權(quán)值賦予一個比較小的隨機數(shù),用普通 BP 算法訓練誤差變化曲線如圖所示。由圖 可以看出, traingdx優(yōu)化算法訓練速度非???,并且能近似達到誤差要求。 沈陽航空航天大學北方科技學院畢業(yè)設(shè)計(論文) 28 圖 BP診斷誤差變化曲線 經(jīng)過 500 次訓練,訓練結(jié)果誤差為 ,目標誤差為 。可以看出網(wǎng)絡(luò)性能很好達到了要求,訓練后的 BP 神經(jīng)網(wǎng)絡(luò)就是滾動軸承的識別網(wǎng)絡(luò)。 神經(jīng)網(wǎng)絡(luò)的測試 神經(jīng)網(wǎng)絡(luò)訓練完成后,對樣本數(shù)據(jù)樣本進行整理,
點擊復(fù)制文檔內(nèi)容
畢業(yè)設(shè)計相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1