freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

神經(jīng)網(wǎng)絡ppt課件(參考版)

2025-01-11 05:15本頁面
  

【正文】 )()()()()()()()()()()()(nwdndEnwnwnw1nwnwdndEnwnwnw1nwDDDDDIIIII??????????????)()()()()()(nwdndEnwnwnw1nwppppp ???????例2 時域控制法 控制輸出量 : u(n)=w0*e(n)+w1*e(n1)+‥‥‥ + Wm*e(nm) 例3 RBF模糊控制器 模糊 。 例 1設輸入和輸出均為一維向量,輸入變量 S定義在 1到 360的區(qū)間內(nèi),分辨率為 1,即 3 6 0,2,1)(s i ??? ii0)f(sf0s / 360),s i n(2f(s )0 ???則函數(shù)值,所有權值初始為假定所希望的輸出: ?學習過程為 0 1 1 360 50 最大誤差 最大誤差 1次訓練 2次訓練 50 50 50 最大誤差 最大誤差 最大誤差 5次訓練 9次訓練 16次訓練 ?? 180 S 0 , 360 S0 360S 2 πs i n360S 2 πs i n f21210 ?????120次迭代后的輸出 10ss 21 的分辨率為和 實例 例 1 神經(jīng)元 PID的自適應控制作用。比如,如果權值 w1產(chǎn)生非線性函數(shù)為 F1(s)權值陣 W2產(chǎn)生的非線性函數(shù) F2(s),那 W1+W2,將會產(chǎn)生 F1(s)+F2(s)。 在輸入空間相近的輸入向量給出相近的輸出。當其中,C MAC01i20)()()1(wij???????idiTjidiijyyyykwk??????編碼方法 α 1 α 2 α 3 α 4 α 5 α 6 α 7 α 8 α 9 α 10 α 11 α 12 1 1 1 1 1 0 0 0 0 0 0 0 0 2 0 1 1 1 1 0 0 0 0 0 0 0 3 0 0 1 1 1 1 0 0 0 0 0 0 4 0 0 0 1 1 1 1 0 0 0 0 0 5 0 0 0 0 1 1 1 1 0 0 0 0 6 0 0 0 0 0 1 1 1 1 0 0 0 7 0 0 0 0 0 0 1 1 1 1 0 0 8 0 0 0 0 0 0 0 1 1 1 1 0 9 0 0 0 0 0 0 0 0 1 1 1 1 X的大小 α*i 把 X=( x1 , x2 , … xN)變成二進制變量 α * 規(guī)則 : a) 對每一個輸入量 , α *只能有 |Ai*|個 1。前面也講過個輸出分量的期望值分別表示第和是收斂的。網(wǎng)絡的學習速整。直觀想一想,非零元素分布一定有某規(guī)律才能做到這一點。 ①幾個概念 多少,且取或取維空間,它的元素只能為 0101m1 ??? ?? ?? ?4AAAXAA0001111000A276541021??????????????上例中中非零元素的個數(shù)表示影射求解目標為則某,例設的集合表示相聯(lián)空間非零元素A?????????值和向量相應分量差的絕對第向量與表示輸入空間第其中海明距離輸入空間兩個點之間的jiH31ijjkiknkjkikijxxxxH ??? ???? ?? ?? ?? ?43jiji1021jijijjijiAA0000111100A0000001111AAAAAAAAAAA4??????????????????????????設中相同元素的集合和表示中非零元素集合影射到相聯(lián)空間表示輸入向量中非零元素集合影射到相聯(lián)空間表示輸入向量交集的概念與xxi之間關系與 ??? ? jiij AAA5ixjx?iA?jA較小距離較遠,則與較大即反之,較大距離較近,則與較小即若??????jiijjiijAAHAAHjijixxxx綜上所述,我們考慮以下幾個問題 m大小的確定,即相聯(lián)空間的大小考慮 非零元素個數(shù)的確定 非零元素分布 為了實現(xiàn)上述 S影射,要求相聯(lián)空間的維數(shù)遠遠大于 中的元素個數(shù)。 在控制中我們希望輸入空間中兩個相近的輸入能產(chǎn)生交疊的影射。正是由于這個特點,才使得 CMAC網(wǎng)絡具有比較快的學習速度。ww168。ww168。 mxWy ??x168。ww168。ww168。關鍵在于 ????01j?????????????????????????????????????????????r21m212m1m22212r12111yyyy168。它所表達的關系為: ??????? ??miijiwfy0j ?所以 P:a→y 影射是線性影射??梢娝鼘崿F(xiàn)的是一個為,大部分元素少數(shù)元素為這個點對應的向量只有上,相聯(lián)空間的影射到相聯(lián)空間某個點的某個點值。 CMAC小腦模型連接控制器、 B樣條、 RBF、模糊神經(jīng)網(wǎng)絡都是局部逼近網(wǎng)絡。 局部逼近網(wǎng)絡: 對輸入空間某局部區(qū)域,只有幾個權連接系數(shù)影響網(wǎng)絡的輸出。對每個輸入輸出數(shù)據(jù)對,網(wǎng)絡的每個權連接系數(shù)均需要進行調(diào)整。 全局逼近網(wǎng)絡: 如果網(wǎng)絡的權連接系數(shù)或自適應可調(diào)參數(shù)在輸入空間的每一個點對任何一個輸出都有影響。調(diào)整網(wǎng)絡結構和網(wǎng)絡的權連接系數(shù),影射可以達到期望的程度。 2)輸出的動作只限制在最活躍神經(jīng)中的一個小子集,絕大多數(shù) 神經(jīng)元都受到抑制。 也就是一段一段的逼近 顯然, RBF網(wǎng)絡所使用的神經(jīng)元 及 耗費計算量要比 BP網(wǎng)絡少很多。 多二次函數(shù) 逆多二次函數(shù) ? ? 2122 crr /)( ???? ? 2122 cr1r/)( ??? RBF網(wǎng)絡與 BP網(wǎng)絡的比較 1) RBF網(wǎng)絡只有一個隱含層, BP網(wǎng)絡則可以是一層或者是多層。 (3) 學習權值 可以使用 LMS算法,即 幾點注意: 1) K— 均值聚類算法的終止條件是網(wǎng)絡學完所有的訓練樣本 且中心分布不再變化; ),2,1( Iii ???????ni1n2iki2i tXn1?ijwiI1iiijiijij wndnW1nW ??? ))(()()( ??????2)“基函數(shù) ” 除了選用高斯函數(shù)外,也常使用 多二次函數(shù) 和 逆多二次函數(shù)。 ( 1) 學習中心 K均值聚類算法 ),2,1( Iit i ??學習過程: (2) 方差 中心一旦確定,方差也就固定。 下面詳細介紹自組織選取中心法。 RBF網(wǎng)絡的學習算法 RBF網(wǎng)絡要學習的參數(shù)有三個: 基 函數(shù)中心 、 方差 、隱含層與輸出層間的權值 。當網(wǎng)絡輸入訓練樣本 Xk時,網(wǎng)絡第 j個神經(jīng)元的實際輸出為 10 ?? jw0JjtXwwXy Iiikijojkkj ,2,1,),()(1???? ???當“基函數(shù)”為高斯函數(shù)時,可如下表示 式中, ,為高斯函數(shù)中心; 為高斯函數(shù)方 差。 為減少隱層神經(jīng)元的個數(shù),假設訓練樣本個數(shù)為 N。 正規(guī)化網(wǎng)絡只是實際上難以體現(xiàn) RBF網(wǎng)絡的優(yōu)點。 對于多維的高斯函數(shù) 可以表示為 ),2,1(],[ 21 NkyyyyY kJkjkkk ?? ??),2,1(],[ 21 Nkddddd kJkjkkk ??? ??),(),( ikik XXGXX ??),0(2 )(e xp)( 22Rrtrr ?????????? ??? ???t ?),( ik XXG???? Niikijkkj JjXXwXy1,2,1),()( ??式中 , 是高斯函數(shù)的中心, 高斯函數(shù)的方差。 隱含層與輸出層權值用 。 水分定量耦合關系 )1()()1()1()( 12121111111 ???????? kwNkubkubkxakx)()()1()()( 22221212212 NkwNkubkubNkxakx ????????經(jīng)過解耦 )1()1()1()( 11111111 ??????? kwkubkxakx)1()()()( 22222212 ??????? kwNkubNkxakx???????????????????????????????????)()1()()1(2122122211211222112112211122112112221222122211211221NkukubbbbbbbbbbbbbbbbbbbbbbbbNkuku新的控制變量吸收了耦合關系 解耦控制中的近似思想 非線性控制系統(tǒng)中的近似思想 ? 無論是非線性關系還是耦合關系的存在都無法消除; ? 所謂補償只是對其進行了空間上的移動,移到了更易處理的區(qū)域(移入了計算機) RBF神經(jīng)網(wǎng)絡模型 RBF網(wǎng)絡有 2種模型: 正規(guī)化網(wǎng)絡 (Regularization Network) 廣義網(wǎng)絡 (Generalized Network) 正規(guī)化網(wǎng)絡的隱單元的就是訓練樣本,所以正規(guī)化網(wǎng)絡其 隱單元的個數(shù)與訓練樣本的個數(shù)相同 。 — — 這個思想和解耦方法、非線性系統(tǒng)方法一致 RBF網(wǎng)絡的優(yōu)點: 徑向基函數(shù)( RBF)網(wǎng)絡學習 收斂速度快,能夠逼近任意非線性函數(shù)。 RBF網(wǎng)絡結構: 與 BP網(wǎng)絡類似,輸入層、隱含層、輸出層三層組成,其中隱含層的個數(shù)由問題的復雜程度及研究精度而定,隱層函數(shù)是 對稱衰減的非線性非負函數(shù)。 1988年, Broomhead 和 Lowe將 RBF引入到神經(jīng) 網(wǎng)絡的設計中,產(chǎn)生了 RBF神經(jīng)網(wǎng)絡。 采用的方法,只提取偏差符號,若連續(xù)偏差同號,加大步長;若出現(xiàn)變號,說明出現(xiàn)震蕩,減小步長。 不過一階慣性也會破壞一定的快速性。 在 E(n)減小后,經(jīng)過若干步后,傳遞到動量項,調(diào)節(jié)量減小 ( 正負抵消),但有些滯后,顯然這是動量項的一個缺點,會 引起一定幅度的 振蕩(總會有小幅振蕩) ,但很快會消除。 1) 加入動量項 真對于學習步長 缺少自適應性,難以同時滿足收斂性和 快速性的問題,加入動量項,即在原來 (ID控制器 ) 公式中加入動量項 公式成為 ( 33) ?)1( ?? nw?wEnw????? ?)(wEnwnw??????? ?? )1()(分析動量項的作用,將
點擊復制文檔內(nèi)容
教學課件相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1