freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于神經(jīng)網(wǎng)絡(luò)的電力電子裝置故障檢測(cè)與診斷研究畢業(yè)論文(編輯修改稿)

2025-07-20 08:37 本頁(yè)面
 

【文章內(nèi)容簡(jiǎn)介】 …………………………() ………………………()式中負(fù)號(hào)表示梯度下降,常數(shù)表示比例系數(shù),在訓(xùn)練中反映了學(xué)習(xí)速率??梢钥闯鯞P算法屬于學(xué)習(xí)規(guī)則類,這類算法通常被稱為誤差的梯度下降算法。 標(biāo)準(zhǔn)BP算法的改進(jìn)將BP算法用于具有非線形轉(zhuǎn)移函數(shù)的三層前饋網(wǎng),可以以任意精度逼近任何非線形函數(shù),這一非凡優(yōu)勢(shì)使多層前饋網(wǎng)絡(luò)得到越來(lái)越廣泛的應(yīng)用。然而標(biāo)準(zhǔn)的BP算法在應(yīng)用中暴露出不少內(nèi)在的缺陷:(1)易形成局部極小而得不到全局最優(yōu);(2)訓(xùn)練次數(shù)多使得學(xué)習(xí)效率低,收斂速度慢;(3)隱節(jié)點(diǎn)的選取缺乏理論指導(dǎo);(4)訓(xùn)練時(shí)學(xué)習(xí)新樣本有遺忘舊樣本的趨勢(shì);針對(duì)上述問(wèn)題,國(guó)內(nèi)外已提出不少有效的改進(jìn)算法,下面僅介紹其中3種較常用的方法。(1)增加動(dòng)量項(xiàng)一些學(xué)者于1986年提出,標(biāo)準(zhǔn)BP算法在調(diào)整權(quán)值時(shí),只按時(shí)刻誤差的梯度降方向調(diào)整,而沒(méi)有考慮時(shí)刻以前的梯度方向,從而使訓(xùn)練過(guò)程發(fā)生振蕩,收斂緩慢。為了提高網(wǎng)絡(luò)的訓(xùn)練速度,可以在權(quán)值調(diào)整公式中增加一動(dòng)量項(xiàng)若用代表某層權(quán)矩陣, 代表某層輸入向量,則含有動(dòng)量項(xiàng)的權(quán)值調(diào)整向量表達(dá)式為…………………………………()可以看出,增加動(dòng)量項(xiàng)即從前一次權(quán)值調(diào)整量中取出一部分疊加到本次權(quán)值調(diào)整量中,稱為動(dòng)量系數(shù),一般有。動(dòng)量項(xiàng)反映了以前積累的調(diào)整經(jīng)驗(yàn),對(duì)于時(shí)刻的調(diào)整阻尼作用。當(dāng)誤差曲面出現(xiàn)驟然起伏時(shí),可減小振蕩趨勢(shì),提高訓(xùn)練速度。目前,BP算法中都增加了動(dòng)量項(xiàng),以至于有動(dòng)量項(xiàng)BP算法成為一種新的標(biāo)準(zhǔn)算法[13]。(2)自適應(yīng)調(diào)節(jié)學(xué)習(xí)率學(xué)習(xí)率也稱為步長(zhǎng),在標(biāo)準(zhǔn)BP算法中定為常數(shù),然而在實(shí)際應(yīng)用中,很難確定一個(gè)從始至終都合適的最佳學(xué)習(xí)率。從誤差曲面可以看出,在平坦區(qū)域內(nèi)太小會(huì)使訓(xùn)練次數(shù)增加,因而希望增大值;而在誤差變化劇烈的區(qū)域,太大會(huì)因調(diào)整量過(guò)大而跨過(guò)較窄的“坑凹”處,使訓(xùn)練出現(xiàn)振蕩,反而使迭代此時(shí)增加。為了加速收斂過(guò)程,一個(gè)較好的思路是自適應(yīng)調(diào)節(jié)學(xué)習(xí)率,使其該大時(shí)增大,該小時(shí)減小。(4)引入陡度因子前面的分析指出,誤差曲面上存在著平坦區(qū)域。權(quán)值調(diào)整進(jìn)入平坦區(qū)的原因是神經(jīng)元進(jìn)入了轉(zhuǎn)移函數(shù)的飽和區(qū)。如果在調(diào)整進(jìn)入平坦區(qū)后,設(shè)法壓縮神經(jīng)元的凈輸入,是其輸出退出轉(zhuǎn)移函數(shù)的飽和區(qū),就可以改變誤差函數(shù)的形狀,從而使調(diào)整脫離平坦區(qū)。實(shí)現(xiàn)這一思路的具體作法是,在原轉(zhuǎn)移函數(shù)引入一個(gè)陡因子 01 壓縮后的轉(zhuǎn)移函數(shù)曲線當(dāng)發(fā)現(xiàn) 接近零而 仍較大時(shí),可判斷已進(jìn)入平坦區(qū),此時(shí)令 ;當(dāng)退出平坦區(qū)后,再令。 可以看出,當(dāng)時(shí), 坐標(biāo)壓縮了倍,神經(jīng)元的轉(zhuǎn)移函數(shù)曲線的敏感區(qū)段變長(zhǎng),從而可使絕對(duì)值較大的退出飽和值。當(dāng)時(shí)轉(zhuǎn)移函數(shù)恢復(fù)原狀,對(duì)較小的具有較高的靈敏度。應(yīng)用結(jié)果表明該方法對(duì)于提高BP算法的收斂速度十分有效。 基于BP算法的多層前饋網(wǎng)絡(luò)設(shè)計(jì)基礎(chǔ)(1)網(wǎng)絡(luò)信息容量與訓(xùn)練樣本數(shù)多層前饋網(wǎng)絡(luò)的分類能力與網(wǎng)絡(luò)信息容量相關(guān)。如用網(wǎng)絡(luò)的權(quán)值和閥值總數(shù) 表征網(wǎng)絡(luò)信息容量與訓(xùn)練誤差之間應(yīng)滿足如下匹配關(guān)系 ………………………………………………………………()上式表明網(wǎng)絡(luò)的信息容量與訓(xùn)練樣本之間存在著合理匹配關(guān)系。在解決實(shí)際問(wèn)題時(shí),訓(xùn)練樣本常常難以滿足以上要求。對(duì)于確定的樣本數(shù),網(wǎng)絡(luò)參數(shù)太少則不足以表達(dá)樣本中蘊(yùn)涵的全部規(guī)律,而網(wǎng)絡(luò)參數(shù)太多則由于樣本信息太少而得不到充分訓(xùn)練。因此,當(dāng)實(shí)際問(wèn)題不能提供較多的訓(xùn)練樣本時(shí),必需設(shè)法減少樣本維數(shù),從而降低。(2)訓(xùn)練樣本集的準(zhǔn)備訓(xùn)練數(shù)據(jù)的準(zhǔn)備工作是網(wǎng)絡(luò)設(shè)計(jì)和訓(xùn)練的基礎(chǔ),數(shù)據(jù)選擇的科學(xué)性以及數(shù)據(jù)表示的合理性對(duì)于網(wǎng)絡(luò)設(shè)計(jì)具有極為重要的影響。數(shù)據(jù)準(zhǔn)備工作包括原始數(shù)據(jù)的收集、數(shù)據(jù)分析、變量選擇和數(shù)據(jù)預(yù)處理等諸多步驟,下面分幾個(gè)方面介紹有關(guān)的知識(shí)。(3)輸入輸出的選擇一個(gè)待建模系統(tǒng)的輸入輸出就是神經(jīng)網(wǎng)絡(luò)的輸入輸出變量。這些變量可能是事先確定的,也可能不夠明確,需要進(jìn)行一番篩選。一般來(lái)講,輸出量代表系統(tǒng)要實(shí)現(xiàn)的功能目標(biāo),其選擇確定相對(duì)容易一些。輸入量必須選擇那些對(duì)輸出影響大且能檢測(cè)或提取的變量,此外還要求各輸入變量之間互不相關(guān)或相關(guān)性很小,這是輸入量選擇的兩條基本原則。如果對(duì)某個(gè)變量是否適合作網(wǎng)絡(luò)輸入沒(méi)有把握,可分別訓(xùn)練含有和不含有該輸入的兩個(gè)網(wǎng)絡(luò),對(duì)其效果進(jìn)行對(duì)比[14]。(4)輸入量的提取與表示在很多情況下,神經(jīng)網(wǎng)絡(luò)的輸入量無(wú)法直接獲得,常常需要用信號(hào)處理與特征提取技術(shù)從原始數(shù)據(jù)中提取能反映其特征的若干特征參數(shù)作為網(wǎng)絡(luò)的輸入。提取的方法與解決的問(wèn)題密切相關(guān),下面僅討論幾種典型的情況。①文字符號(hào)輸入 在各類字符識(shí)別的應(yīng)用中,均以字符為輸入的原始對(duì)象。BP網(wǎng)絡(luò)的輸入層不能直接接受字符輸入,必須先對(duì)其進(jìn)行編碼,變成網(wǎng)絡(luò)可以接受的形式。②曲線輸入 多層前饋網(wǎng)在模式識(shí)別類應(yīng)用中常被用來(lái)識(shí)別各種設(shè)備輸出的波形曲線,對(duì)于這類輸入模式,常用的表示方法是提取波形在個(gè)區(qū)間分界點(diǎn)的值,以其作為網(wǎng)絡(luò)輸入向量的分量值。個(gè)輸入分量的下標(biāo)表示輸入值在波形中的位置,因此分量的編號(hào)是嚴(yán)格有序的。③函數(shù)自變量輸入 用多層前饋網(wǎng)見(jiàn)建立系統(tǒng)的數(shù)學(xué)模型屬于典型的非線形映射問(wèn)題。一般系統(tǒng)已有大量輸入輸出數(shù)據(jù)對(duì),建模的目的是提取其中隱含的映射規(guī)則,這類應(yīng)用比較簡(jiǎn)單,一般有幾個(gè)輸入量就設(shè)幾個(gè)分量,1個(gè)輸入分量對(duì)應(yīng)1個(gè)輸入層節(jié)點(diǎn)。④圖象輸入 當(dāng)需要對(duì)物體的圖象進(jìn)行識(shí)別時(shí),很少直接將每個(gè)像素點(diǎn)的灰度值作為網(wǎng)絡(luò)的輸入。因?yàn)閳D象的像素點(diǎn)常數(shù)以萬(wàn)計(jì),不適合作為網(wǎng)絡(luò)的輸入,而且難以從中提取有價(jià)值的輸入輸出規(guī)律。在這類應(yīng)用中,一般根據(jù)識(shí)別的具體目的從圖象中提前一些有用的特征參數(shù),再根據(jù)這些參數(shù)對(duì)輸入的貢獻(xiàn)進(jìn)行篩選,這種特征提取屬于圖象處理的范疇。 (5)輸出向量的表示所謂輸出量實(shí)際上是指為網(wǎng)絡(luò)訓(xùn)練提供期望輸出,一個(gè)網(wǎng)絡(luò)可以有多個(gè)輸出變量,其表示方法通常比輸入量容易得多,而且對(duì)網(wǎng)絡(luò)的精度和訓(xùn)練時(shí)間影響不大。輸出量可以是數(shù)值變量,也可以是語(yǔ)言變量。對(duì)于數(shù)值類的輸出量,可直接用數(shù)據(jù)來(lái)表示,但由于網(wǎng)絡(luò)實(shí)際輸出只能是0~1或1~1之間的數(shù),所以需要將期望輸出進(jìn)行尺度變換處理,有關(guān)的方法在樣本的預(yù)處理中介紹。 (6)輸入輸出數(shù)據(jù)的處理①尺度變換 尺度變換也稱歸一化或標(biāo)準(zhǔn)化,是指通過(guò)變換的處理的將網(wǎng)絡(luò)的輸入、輸出數(shù)據(jù)限制在[0,1]或[1,1]區(qū)間類。進(jìn)行尺度變換的主要原因有:網(wǎng)絡(luò)的各個(gè)輸入數(shù)據(jù)常具有不同的物理意義和不同的量綱;BP網(wǎng)的神經(jīng)元均采用Sigmoid函數(shù),變換后可防止因凈輸入的絕對(duì)值過(guò)大而使神經(jīng)元輸出飽和,繼而使權(quán)值調(diào)整進(jìn)入誤差曲面的平坦區(qū)。 Sigmoid轉(zhuǎn)移函數(shù)的輸出在0~1或1~1之間,作為教師信號(hào)的輸出數(shù)據(jù)如不進(jìn)行變換處理,勢(shì)必使數(shù)值大的輸出分量誤差大,數(shù)值小的輸出分量絕對(duì)誤差小,網(wǎng)絡(luò)訓(xùn)練時(shí)只針對(duì)輸出的誤差的調(diào)整權(quán)值,其結(jié)果是在總誤差中占分額小的輸出分量相對(duì)誤差較大,對(duì)輸出量進(jìn)行尺度變換后這個(gè)問(wèn)題可迎刃而解。②分布變換 尺度變換是一種線形變換,當(dāng)樣本的分布不合理時(shí),線形變換只能統(tǒng)一樣本數(shù)據(jù)的變化范圍,而不能改變其分布規(guī)律。適用于網(wǎng)絡(luò)訓(xùn)練的樣本分布應(yīng)比較均勻,相應(yīng)的樣本分布曲線應(yīng)比較平坦。當(dāng)樣本分布不理想時(shí),最常用的變換是對(duì)書(shū)變換,其他常用的還有平方根,立方根等。由于變換是非線形的,其結(jié)果不僅壓縮了數(shù)據(jù)變化的范圍,而且改善了其分布規(guī)律。(7) 訓(xùn)練集的設(shè)計(jì)①訓(xùn)練樣本數(shù)的確定 一般說(shuō)來(lái)訓(xùn)練樣本數(shù)越多,訓(xùn)練結(jié)果越能正確反映其類在規(guī)律,但樣本的收集整理往往受到客觀條件的限制。此外,當(dāng)樣本多到一定程度時(shí),網(wǎng)絡(luò)的精也難再提高,實(shí)踐表明,網(wǎng)絡(luò)訓(xùn)練所需的樣本數(shù)取決于輸入輸出非線性映射關(guān)系的復(fù)雜程度,映射關(guān)系越復(fù)雜,樣本中含的噪聲越大,為保證一定映射精度所需要的樣本數(shù)就越多,而且網(wǎng)絡(luò)的規(guī)模就越多[13][14]。②樣本的選擇與組織 網(wǎng)絡(luò)訓(xùn)練中提取的規(guī)律蘊(yùn)涵在樣本中,因此樣本一定要有代表性。樣本的選擇要注意樣本類別的均衡,盡量使每個(gè)類別的樣本數(shù)量大致相等。即使是同一類樣本也要照顧樣本的多樣性和類別的均勻性。按照這種“平均主義”原則選擇的樣本能使網(wǎng)絡(luò)在訓(xùn)練是見(jiàn)多識(shí)廣,而且可以避免網(wǎng)絡(luò)樣本數(shù)量的類別印象深,而對(duì)出現(xiàn)次數(shù)少的類別印象淺。樣本的組織要注意將不同類別的樣本交叉輸入,或從訓(xùn)練集中隨機(jī)選擇輸入樣本。因?yàn)橥悩颖咎袝?huì)使網(wǎng)絡(luò)訓(xùn)練時(shí)傾向于只建立與其匹配的映射關(guān)系,當(dāng)另一類樣本集中輸入時(shí),權(quán)值的調(diào)整又轉(zhuǎn)向新的映射關(guān)系而將前面的訓(xùn)練結(jié)果否定。當(dāng)各類樣本輪流集中輸入時(shí),網(wǎng)絡(luò)的訓(xùn)練會(huì)出現(xiàn)振蕩使訓(xùn)練時(shí)間延長(zhǎng)。 初始權(quán)值的設(shè)計(jì) 網(wǎng)絡(luò)權(quán)值的初始化決定了網(wǎng)絡(luò)的訓(xùn)練從誤差曲面的哪一點(diǎn)開(kāi)始,因此初始化方法對(duì)縮短網(wǎng)絡(luò)的訓(xùn)練時(shí)間至關(guān)重要。神經(jīng)元的轉(zhuǎn)移函數(shù)都是關(guān)于零點(diǎn)對(duì)稱的,如果沒(méi)個(gè)節(jié)點(diǎn)的凈輸入均在零點(diǎn)附近,則其輸出均處在轉(zhuǎn)移函數(shù)的中點(diǎn)。這個(gè)不僅遠(yuǎn)離轉(zhuǎn)移函數(shù)的兩個(gè)飽和區(qū),而且是其變化最靈敏的區(qū)域,必然使網(wǎng)絡(luò)的學(xué)習(xí)速度較快。從凈輸入的表達(dá)式可以看出,為了使個(gè)節(jié)點(diǎn)初始凈輸入在零點(diǎn)附近,有兩種辦法可采用。一種辦法是,使初始權(quán)值足夠??;另一種辦法是,使初始值為+1和1的權(quán)值數(shù)相等。 多層前饋網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計(jì)(1)隱層數(shù)的設(shè)計(jì)理論分析證明,具有單隱層的前饋網(wǎng)絡(luò)可以映射所有連續(xù)函數(shù),只有當(dāng)學(xué)習(xí)不連續(xù)函數(shù)時(shí),才需要兩個(gè)隱層,所以多層前饋網(wǎng)絡(luò)最多只需兩個(gè)隱層。在設(shè)計(jì)多層前饋網(wǎng)時(shí),一般先考慮設(shè)一個(gè)隱層,當(dāng)一個(gè)隱層的隱節(jié)點(diǎn)數(shù)很多仍不能改善網(wǎng)絡(luò)性能時(shí),才考慮再增加一個(gè)隱層。(2)隱節(jié)點(diǎn)數(shù)的設(shè)計(jì)隱節(jié)點(diǎn)的作用是從樣本中提取并存儲(chǔ)其內(nèi)在規(guī)律,每個(gè)隱節(jié)點(diǎn)有若干個(gè)權(quán)值都是增強(qiáng)網(wǎng)絡(luò)映射能力的一個(gè)參數(shù)。隱節(jié)點(diǎn)數(shù)量太少,網(wǎng)絡(luò)從樣本中獲取的信息能力就差,不足以概括和體現(xiàn)訓(xùn)練集中的樣本規(guī)律;隱節(jié)點(diǎn)數(shù)量過(guò)多,又可能把樣本中非規(guī)律性的內(nèi)容也學(xué)會(huì)牢記,從而出現(xiàn)所謂過(guò)度吻合問(wèn)題,反而降低了泛能力。此外隱節(jié)點(diǎn)數(shù)太多還會(huì)增加訓(xùn)練時(shí)間。確定最佳隱節(jié)點(diǎn)數(shù)的一個(gè)常用方法稱為試湊法,可先設(shè)置較少的隱節(jié)點(diǎn)訓(xùn)練網(wǎng)絡(luò),然后逐漸增加隱節(jié)點(diǎn)數(shù),用同一樣本集進(jìn)行訓(xùn)練,從中確定網(wǎng)絡(luò)誤差最小時(shí)對(duì)應(yīng)的隱節(jié)點(diǎn)數(shù)。下面介紹幾個(gè)公式…………………………………………………() ………………………………………… ()以上個(gè)式中為隱層節(jié)點(diǎn)數(shù),為輸入層節(jié)點(diǎn)數(shù),為輸出節(jié)點(diǎn)數(shù),為1~10的常數(shù)。 網(wǎng)絡(luò)訓(xùn)練與測(cè)試網(wǎng)絡(luò)設(shè)計(jì)完成后,要應(yīng)用設(shè)計(jì)值進(jìn)行訓(xùn)練。訓(xùn)練時(shí)對(duì)所有樣本正向運(yùn)行一輪并反向修改權(quán)值一次稱為一次訓(xùn)練。在訓(xùn)練過(guò)程中要反復(fù)使用樣本集數(shù)據(jù),但每一輪最好不按固定順序取數(shù)據(jù)。網(wǎng)絡(luò)性能的好壞主要看其是否具有很好的泛化能力,而對(duì)泛化能力的測(cè)試不能用訓(xùn)練集的數(shù)據(jù)進(jìn)行,而用訓(xùn)練集以外的測(cè)試數(shù)據(jù)來(lái)進(jìn)行檢測(cè)。在隱節(jié)點(diǎn)數(shù)一定的情況下,為獲得好的泛化能力,存在著一個(gè)最佳訓(xùn)練次數(shù)。為了說(shuō)明這個(gè)問(wèn)題,訓(xùn)練時(shí)將訓(xùn)練于測(cè)試交替進(jìn)行,每訓(xùn)練一次記錄一次訓(xùn)練均方誤差,然后保持網(wǎng)絡(luò)權(quán)值不變,用測(cè)試數(shù)據(jù)正向運(yùn)行網(wǎng)絡(luò),記錄測(cè)試均方誤差。 模糊控制系統(tǒng) 模糊控制系統(tǒng)的組成所謂系統(tǒng)指的是兩個(gè)以上彼此聯(lián)系又相互作用的對(duì)象構(gòu)成的具有某種功能的集體。而模糊系統(tǒng)是由那些現(xiàn)象引起的不確定性系統(tǒng)。也就是說(shuō)一個(gè)模糊系統(tǒng),它的狀態(tài)或輸入、輸出具有模糊性。一般說(shuō)來(lái),模糊系統(tǒng)也是復(fù)雜過(guò)程的一種近似表示方式。該過(guò)程本身并不一定是模糊的。模糊控制系統(tǒng)是一種自動(dòng)控制系統(tǒng),它是以模糊數(shù)學(xué)、模糊語(yǔ)言形式的知識(shí)表示和模糊邏輯推理為理論基礎(chǔ),采用計(jì)算機(jī)控制技術(shù)構(gòu)成的一種具有閉環(huán)結(jié)構(gòu)的數(shù)字控制系統(tǒng)。它的組成核心是具有智能性的模糊控制器。無(wú)疑,模糊邏輯控制系統(tǒng)是一種典型的智能控制系統(tǒng),在控制原理上它應(yīng)用模糊集合論、模糊語(yǔ)言變量和模糊邏輯推理的知識(shí),模擬人的思維方法,對(duì)復(fù)雜過(guò)程進(jìn)行控制。模糊邏輯控制的基礎(chǔ)是模糊邏輯。模糊邏輯從含義上比其他傳統(tǒng)邏輯更接近人類的思想和語(yǔ)言,它能夠?qū)φ鎸?shí)世界的近似的、不確切的特征進(jìn)行刻劃。實(shí)際上,模糊邏輯控制是利用模糊邏輯建立一種“自由模型”的非線形控制算法,特別是在那些采用傳統(tǒng)定量技術(shù)分析過(guò)于復(fù)雜的過(guò)程、結(jié)構(gòu)如圖所示。從圖中可以看出,模糊控制系統(tǒng)的主要部件是模糊化過(guò)程、知識(shí)庫(kù)、推理決策和精確化計(jì)算[16]。很顯然,模糊控制系統(tǒng)在結(jié)構(gòu)上與傳統(tǒng)的控制系統(tǒng)沒(méi)有太大的差別,主要不同之處在于控制器采用了模糊控制器。由于模糊控制器是采用數(shù)字計(jì)算機(jī)來(lái)實(shí)現(xiàn)的,所以,它應(yīng)該具備下列三個(gè)中重要功能:(1)把系統(tǒng)的偏差從數(shù)字量轉(zhuǎn)化為模糊量(模糊化過(guò)程、數(shù)據(jù)庫(kù)兩塊完成)。(2)對(duì)模糊量有給定的規(guī)則進(jìn)行模糊推理(規(guī)則庫(kù)、推理決策完成)。(3)把推理結(jié)果的模糊輸出量轉(zhuǎn)化為實(shí)際系統(tǒng)能夠接受的精確數(shù)字量或模擬量(精確化借口)。知識(shí)庫(kù)精確化接口推 理 決 策被 控 對(duì) 象Fuzzy化接口給定FLC FLC基本結(jié)構(gòu)圖因此,模糊控制器的設(shè)計(jì)問(wèn)題就是模糊化過(guò)程、知識(shí)庫(kù)(含數(shù)據(jù)庫(kù)和規(guī)則庫(kù))、理決策和精確化計(jì)算四部分的設(shè)計(jì)問(wèn)題。 模糊化過(guò)程模糊化過(guò)程主要完成:測(cè)量輸入變量的值,并將數(shù)字表示形式的輸入量轉(zhuǎn)化為通用語(yǔ)言表示的某一限定碼的序數(shù)。每一個(gè)限定碼表示論域的序數(shù),每一個(gè)限定碼表示論域內(nèi)的一個(gè)模糊子集,并有其隸屬度函數(shù)來(lái)定義,對(duì)于某一個(gè)輸入值,它必定與某一個(gè)特定限定碼的隸屬度相對(duì)應(yīng)。圖給出了三種化函數(shù)。圖給出了輸入變量屬于語(yǔ)言 的程度高。對(duì)于圖b只有在點(diǎn)處的隸屬度為1,其它輸入對(duì)應(yīng)的隸屬度都為0。而圖c所表示的隸屬度曲線有點(diǎn)像高斯曲線,它是一條連續(xù)函數(shù)。除以上三種隸屬度函數(shù)之外,其它類型的隸屬度函數(shù)曲線只要符合一定的條件也是可以的。已有經(jīng)驗(yàn)表明,通常選三角型和梯型函數(shù)的隸屬函數(shù)在實(shí)際應(yīng)用中帶來(lái)很多方便。一旦模糊集設(shè)計(jì)完成,則對(duì)于任意的物理輸入x,如何將其映射到模糊系統(tǒng)中去呢?映射的過(guò)程實(shí)際上是將當(dāng)前的物理輸入根據(jù)模糊子集的分布情況確定出此時(shí)此刻輸入值對(duì)這些模糊子集的隸屬度,因此,為了保證在所有論域內(nèi)的輸入量都能與某一模糊子集相對(duì)應(yīng),模糊子集(限定碼)的數(shù)目和范圍必須遍及整個(gè)論域。這樣,對(duì)于每一個(gè)物理輸入量至少有一個(gè)模糊子集的隸屬程度函數(shù)大與零。 模糊化函數(shù) 知識(shí)庫(kù)知識(shí)庫(kù)包括數(shù)據(jù)庫(kù)和規(guī)則庫(kù),數(shù)據(jù)庫(kù)提供必要的定義,包含了語(yǔ)言控制規(guī)則論域的離散化、量化和正則化以及輸入空間的分區(qū)、隸屬度函數(shù)的定義等。規(guī)則庫(kù)根據(jù)控制目的和控制測(cè)略給出了一套由語(yǔ)言變量描述的并由專家或自學(xué)習(xí)
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖片鄂ICP備17016276號(hào)-1