freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

神經(jīng)網(wǎng)絡(luò)建模ppt課件-在線瀏覽

2025-02-22 15:32本頁面
  

【正文】 為同步而不是異步應(yīng)用,我們就會得到完全不同的響應(yīng)。在前一個(gè)例子中,如果我們用一組同步輸入,我們有: p1=[1], p2=[2],p3=[3], p4=[4] 這可用下列代碼創(chuàng)建: P =[1 2 3 4]。這種情況我們就要給網(wǎng)絡(luò)輸入一組同步序列。 P = {[1 4] [2 3] [3 2] [4 1]}。 網(wǎng)絡(luò)輸出結(jié)果將是: A = {[ 1 4] [4 11] [7 8] [10 5]} ? 可以看到,每個(gè)矩陣的第一列是由第一組輸入序列產(chǎn)生的輸出序列,每個(gè)矩陣的第二列是由第二組輸入序列產(chǎn)生的輸出序列。 前面的討論中,不論是作為一個(gè)同步向量矩陣輸 入還是作為一個(gè)異步向量細(xì)胞數(shù)組輸入,模擬的 輸出值是一樣的。當(dāng)我們使用 adapt函 數(shù)時(shí),如果輸入是異步向量細(xì)胞數(shù)組,那么權(quán)重 將在每一組輸入提交的時(shí)候更新(就是增加方 式);如果輸入是同步向量矩陣,那么權(quán)重將只 在所有輸入提交的時(shí)候更新(就是批處理方式)。 (2)在批處理方式中:僅僅當(dāng)所有的輸入數(shù)據(jù)都被提交以后,網(wǎng)絡(luò)權(quán)重和偏置才被更新 . ? 增加方式(應(yīng)用于自適應(yīng)網(wǎng)絡(luò)和其他網(wǎng)絡(luò)) 雖然增加方式更普遍的應(yīng)用于動態(tài)網(wǎng)絡(luò),比如自適應(yīng)濾波,但是在靜態(tài)和動態(tài)網(wǎng)絡(luò)中都可以應(yīng)用它。 在此我們用函數(shù) adapt,并給出輸入和目標(biāo)序列:假定我們要 訓(xùn)練網(wǎng)絡(luò)建立以下線性函數(shù): t=2p1+p2 . 我們的輸入是: 目標(biāo)輸出是: t1=[4],t2=[5] ,t3=[7] ,t4=[7] 首先用 0初始化權(quán)重和偏置。 = newlin([1 1。 {1,1} = [0 0]。 為了用增加方式,我們把輸入和目標(biāo)輸出表示為以下序列: P = {[1。1] [2。1]}。 用增加方式訓(xùn)練網(wǎng)絡(luò): = newlin([1 1。 {1,1} = [0 0]。 P = {[1。1] [2。1]}。 [,a,e,pf] = adapt(,P,T)。錯(cuò)誤和目標(biāo)輸出相等。 {1,1}.=。 [,a,e,pf] = adapt(,P,T)。 一個(gè)典型的 BP網(wǎng)絡(luò)采用的是梯度下降算法 , 也就是 WidrowHoff算法所規(guī)定的 。 現(xiàn)在有許多基本的優(yōu)化算法 , 例如變尺度算法和牛頓算法 。 ? 一個(gè)經(jīng)過訓(xùn)練的 BP網(wǎng)絡(luò)能夠根據(jù)輸入給出合適的結(jié)果 ,雖然這個(gè)輸入并沒有被訓(xùn)練過 。 為了提高網(wǎng)絡(luò)的適用性 , 神經(jīng)網(wǎng)絡(luò)工具箱提供了兩個(gè)特性 規(guī)則化和早期停止 。當(dāng)網(wǎng)絡(luò)的最后一層采用曲線函數(shù)時(shí)輸出被限制在一個(gè)很小的范圍內(nèi),如果采用線性函數(shù)則輸出可為任意值。 2) 在 BP網(wǎng)絡(luò)中,轉(zhuǎn)移函數(shù)可求導(dǎo)是非常重要的,tansig、 logsig和 purelin都有對應(yīng)的導(dǎo)函數(shù) dtansig、dlogsig和 dpurelin。 函數(shù) newff建立一個(gè)可訓(xùn)練的前饋網(wǎng)絡(luò)。 第一個(gè)參數(shù)是一個(gè) RxS1的矩陣以定義 R個(gè)輸入向量的最小值 和最大值。 第三個(gè)參數(shù)是包含每層用到的轉(zhuǎn)移函數(shù)名稱的細(xì)胞數(shù)組。 例、創(chuàng)建一個(gè)二層網(wǎng)絡(luò) 它的輸入是兩個(gè)元素的向量,第一層有四個(gè)神經(jīng)元,第二層有三個(gè)神 經(jīng)元。 輸入向量的第一個(gè)元素的范圍是 1到 2,輸入向量的第二個(gè)元素的范 圍是 0到 5,訓(xùn)練函數(shù)是 traingd。 0 5],[4,3],{‘tansig’,‘purelin’},‘traingd’)。 在訓(xùn)練前饋網(wǎng)絡(luò)之前,權(quán)重和偏置必須被初始化。 = init()。 1) initwb函數(shù)根據(jù)每一層自己的初始化參數(shù)({i,j}.initF)初始化權(quán)重矩陣和偏置。 2) initnw通常用于轉(zhuǎn)換函數(shù)是曲線函數(shù)。它比起單純的給權(quán)重和偏置隨機(jī)賦值有以下優(yōu)點(diǎn):( 1)減少神經(jīng)元的浪費(fèi)(因?yàn)樗猩窠?jīng)元的活動區(qū)域都在輸入空間內(nèi))。 ? 初始化函數(shù)被 newff所調(diào)用。 ? init不需要單獨(dú)的調(diào)用。例如,我們用newff創(chuàng)建的網(wǎng)絡(luò),它缺省用 initnw來初始化第一層。initwb39。rands39。rands39。rands39。 網(wǎng)絡(luò)模擬 (SIM) 用函數(shù) sim 模擬一個(gè)網(wǎng)絡(luò)。 p = [1。 a = sim(,p) a = (用這段代碼得到的輸出是不一樣的,這是因?yàn)榫W(wǎng)絡(luò)初始化是隨機(jī)的。2 4 1]。我們能夠訓(xùn)練網(wǎng)絡(luò)來做函數(shù)近似(非線性后退),模式結(jié)合,或者模式分類。在訓(xùn)練期間網(wǎng)絡(luò)的加權(quán)和偏差不斷的把網(wǎng)絡(luò)性能函數(shù) 到最小。 反向傳播算法 反向傳播學(xué)習(xí)算法最簡單的應(yīng)用是沿著性能函數(shù)最速增 加的方向 梯度的負(fù)方向更新權(quán)重和偏置。 有兩種不同的辦法實(shí)現(xiàn)梯度下降算法:增加模式和批處 理模式。在批處理模式中,當(dāng)所有的輸入都 被提交后網(wǎng)絡(luò)才被更新。當(dāng)然我們要指定輸入 值和目標(biāo)值如下所示: p = [1 1 2 2。 t = [1 1 1 1]。每一個(gè)細(xì) 胞都是一個(gè)輸入或者目標(biāo)向量。 t = num2cell(t,1)。 訓(xùn)練結(jié)束以后,就可以模擬網(wǎng)絡(luò)輸出來檢驗(yàn)訓(xùn)練質(zhì)量了。 ( ii)對觸角和翼長分別為 (,), (,)
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1