freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

基于bp神經網絡的滾動軸承故障診斷方法初探畢業(yè)設計論文(編輯修改稿)

2025-07-20 19:34 本頁面
 

【文章內容簡介】 根據滾動軸承的結構,其故障類型主要分為四種,分別為內圈故障、外圈故障、滾動體故障和保持架故障。在本文中,主要討論前三種故障類型。3 BP神經網絡 人工神經網絡概述人工神經網絡是在人類對大腦神經網絡認識理解的基礎上構造的能實現某種功能的神經網絡。它用大量的非線性并行處理器來模擬眾多的人腦神經元,用處理器間錯綜靈活的連接關系來模擬人腦神經元間的突觸行為。由于其很強的非線性映射能力,因而可以進行復雜的邏輯操作和非線性關系實現。人工神經網絡主要有高度的并行性、高度的非線性、良好的容錯性、很強的自學習能力和自適應能力等特點[3,4]。 神經網絡層次結構圖,從圖中可以看出,神經元是人工神經網絡的基本處理單元,它一般是一個多輸入、單輸出的非線性原件。在人工神經網絡中,神經元常被稱為“處理單元”,有時從網絡的觀點出發(fā)稱之為“節(jié)點”。神經元的各種不同數學模型的主要區(qū)別在于采用了不同的轉移函數,從而使神經元具有不同的信息處理特性,傳遞函數反映了神經元輸出與其激活狀態(tài)之間的關系。傳遞函數種類很多,常用的有線性函數(PURELIN)、對數S型函數(LOGSIG)和雙曲正切S型函數(TANSIG)等。 BP神經網絡BP網絡是一種按誤差逆?zhèn)鞑ニ惴ㄓ柧毜亩鄬忧梆伾窠浘W絡,其學習過程是誤差反向傳播算法的過程,由信息的正向傳播和誤差的反向傳播兩個過程組成。輸入層各神經元接受到來自外界的輸入信息之后,將其傳遞給隱含層各神經元;隱含層是神經網絡的主要結構層,負責進行內部信息處理;隱含層將信息傳遞到輸出層各神經元后,經過進一步的處理,可視為一次學習的正向傳播處理過程完成,由輸出層輸出信息處理結果。當實際輸出與期望輸出不符,即誤差較大時,神經網絡進入誤差反傳過程。誤差通過輸出層,按梯度下降的方式逐層修正權值,向隱含層、輸入層逐層反傳。周而復始的信息正向傳播和誤差反向傳播過程即為神經網絡學習訓練的過程,實際上也是各層權值不斷調整的過程,此過程一直進行到網絡輸出的誤差減小到預定目標后停止,或者通過預先設定學習次數使訓練過程結束。 BP算法的缺陷及其改進算法 BP算法的缺陷標準BP算法誕生之后,其在應用過程中逐漸暴露出許多問題,主要有:(1) 訓練次數多,使得學習效率低,收斂速度慢;(2) 易形成局部極小而得不到全局最優(yōu);(3) 訓練時學習新樣本有遺忘舊樣本的趨勢。以上幾個問題都是標準BP算法的固有缺陷,其根源在于基于誤差梯度下降的權值調整原則要求算法在每一步求解都取局部最優(yōu)解,該調整原則即所謂貪心(greedy)算法的原則[5]。 BP算法的改進算法針對標準BP算法的固有缺陷,國內外出現了很多改進算法,如增加動量方法(慣性項)、采用動態(tài)步長(自適應調節(jié)學習率)、與其他全局搜索算法相結合、模擬退火算法等[6]。本文主要采用共軛梯度算法和LM(LevenbergMarquardt,列文伯格麥考特)算法。(1) 共軛梯度法共軛梯度法的學習步驟可以歸納為: ① 選擇初始搜索方向為梯度的反向量,即其中② 選擇學習速度,沿搜索方向最小化函數③ 選擇下一個搜索方向,并計算系數其中或或④ 如果算法不收斂,繼續(xù)第二步。這樣的共軛梯度算法不能直接應用于神經網絡訓練,為了適應需要,對算法進行適當改進。首先是線性搜索,需要一個一般的過程去確定函數在某個特定方向的極值,這包括區(qū)間定位和區(qū)間縮小兩步。區(qū)間定位步的目的是找某個包含局部極小點的初始區(qū)間。區(qū)間縮小步接著將縮小初始區(qū)間直到滿足一定條件的極小點被定位。對共軛梯度算法的第二處改進在于改進其收斂速度。共軛梯度法的發(fā)展并不意味著在同一搜索方向下包含n次迭代過程的一個周期就可以結束。這可能有多個過程,但是最簡單的方法是在n次迭代之后將搜索方向重新設置為最速的下降方向。除此以外,共軛梯度法還采用批處理算法,即梯度是在整個訓練集都應用于網絡之后才計算的。通過這些方法可以有效加快算法的收斂速度[7]。經過改進的共軛梯度算法能夠顯著加快神經網絡的收斂速度,這是因為相比于動量法、梯度下降法等方法,共軛梯度法在迭代若干次后會重新設置梯度下降方向,同時通過區(qū)間定位和區(qū)間縮小等方法,有效避免了迭代進入平坦區(qū)域而造成訓練速度緩慢的情況,從而提高了收斂速度。在參數設置上,共軛梯度法需要設置的參數相比可變學習速度法等方法要減少很多,同時還能夠得到同樣精度甚至精度更高的逼近誤差。因此,共軛梯度算法成為了BP神經網絡訓練的常用算法之一。(2) LM算法LM算法是牛頓法的變形,主要用于最小化那些作為其他非線性函數平方和的函數。這非常適合于性能指數是均方誤差的神經網絡訓練。LM算法將權值調整率選為:其中,為誤差對權值微分的雅克比矩陣,為誤差向量,當很大時,上式就接近于梯度法;當很小時,上式就變成了高斯牛頓法,在這種方法中,也是自適應調整的。將LM算法應用于神經網絡訓練,從收斂性能和對初始點的依賴性上看,比梯度下降法、動量法等算法要好,在大多數情況下,LM算法能獲得比梯度下降法和動量法更小的逼近誤差。4 基于BP神經網絡的滾動軸承故障診斷 小波包分解與故障數據篩選為了提高BP神經網絡診斷軸承故障的準確率,要求采用能夠包含盡可能全面故障信息的輸入值用于神經網絡的訓練。本文選取了國外某大學網站提供的滾動軸承三種故障狀態(tài)下的振動數據,并采用小波包方法進行分解,以分解得到的8組能量特征值作為神經網絡的輸入。 小波包分解方法小波包方法是一種時頻分析方法,具有多分辨率的特點,且在時域和頻域都有表征信號局部特征的能力,特別適宜于非平穩(wěn)信號的處理,有“數學顯微鏡”之稱[8]。當設備出現故障時,會對各頻帶內信號的能量有較大影響,因此,以小波包分解重構的各頻段“能量”為元素構造軸承故障信號的特征向量,基本過程為:(1) 對信號進行三層小波包分解。分別提取第三層從低頻到高頻8個頻率成分的信號特征。 小波包三層分解示意圖,表示第i層的第j個節(jié)點(。),每個節(jié)點都代表一定的信號特征,其中,(0,0)節(jié)點代表原始信號s,(1,0)節(jié)點代表小波包分解的第一層低頻系數,(1,1)節(jié)點代表小波包分解第一層的高頻系數,(3,0)節(jié)點表示第三層第0個節(jié)點的系數,其他以此類推。(2) 對小波包分解系數進行消噪、重構,提取各頻帶范圍的信號。以表示的重構信號,表示的重構信號。在這里,只對第三層的所有節(jié)點進行分析,信號s可以表示為假設原始信號s中,最低頻率成分為0,最高為1。 各個頻率成分所代表頻率范圍函數范圍0~~~~~~~~1(3) 求各頻帶信號的總能量。由于輸入信號是
點擊復制文檔內容
環(huán)評公示相關推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1