freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

ann神經(jīng)網(wǎng)絡(luò)ppt課件-wenkub

2023-01-20 03:14:24 本頁面
 

【正文】 kpropagation)的學習算法 ? 它是一種多層前向反饋神經(jīng)網(wǎng)絡(luò),其神經(jīng)元的變換函數(shù)是 S型函數(shù) ? 輸出量為 0到 1之間的連續(xù)量,它可實現(xiàn)從輸入到輸出的任意的非線性映射 BP網(wǎng)絡(luò) ? BP網(wǎng)絡(luò)主要用于下述方面 ? 函數(shù)逼近:用輸入矢量和相應(yīng)的輸出矢量訓練一個網(wǎng)絡(luò)逼近一個函數(shù) ? 模式識別和分類:用一個特定的輸出矢量將它與輸入矢量聯(lián)系起來;把輸入矢量以所定義的合適方式進行分類; ? 數(shù)據(jù)壓縮:減少輸出矢量維數(shù)以便于傳輸或存儲 ? 具有將強泛化性能:使網(wǎng)絡(luò)平滑地學習函數(shù),使網(wǎng)絡(luò)能夠合理地響應(yīng)被訓練以外的輸入 ? 泛化性能只對被訓練的輸入/輸出對最大值范圍內(nèi)的數(shù)據(jù)有效,即網(wǎng)絡(luò)具有內(nèi)插值特性,不具有外插值性。沿神經(jīng)纖維傳遞的電脈沖為等幅、恒寬、編碼( 60~100mV)的離散脈沖信號,而細胞膜電位變化為連續(xù)的電位信號??偟膩碚f,通過自適應(yīng)學習的特性,這些算法達到了全局優(yōu)化的目的。 ? 這些方法具有以下共同的要素:自適應(yīng)的結(jié)構(gòu)、隨機產(chǎn)生的或指定的初始狀態(tài)、適應(yīng)度的評測函數(shù)、修改結(jié)構(gòu)的操作、系統(tǒng)狀態(tài)存儲器、終止計算的條件、指示結(jié)果的方法、控制過程的參數(shù)。在用進廢退、優(yōu)勝劣汰的過程中,適應(yīng)度高的(頭腦)結(jié)構(gòu)被保存下來,智能水平也隨之提高。 ? 計算智能( Computation Intelligence, CI)技術(shù)就是在這一背景下發(fā)展起來的。 ? 人工智能( Artificial Intelligence, AI)是另一層次的智能,研究如何制造出人造的智能機器或智能系統(tǒng),來模擬人類的智能活動。 ? 1956年 Dartmouth大學研討會上將“人工智能” 定義為“試圖用來模仿與智能有關(guān)的人類活動的計算機過程”。 ? 計算智能的最大特點就是不需要建立問題本身精確的數(shù)學模型,側(cè)重從數(shù)據(jù)中學習,非常適合于處理那些因為難以建立有效的形式化模型而用傳統(tǒng)人工智能方法難以解決的問題。因此說計算智能就是基于結(jié)構(gòu)演化的智能。 ? 計算智能的這些方法具有自學習、自組織、自適應(yīng)的特征和簡單、通用、魯棒性強、適于并行處理的優(yōu)點。 單元二 人工神經(jīng)網(wǎng)絡(luò)及應(yīng)用 ? ANN的基本原理 ? BP網(wǎng)絡(luò)及應(yīng)用 ANN基本原理 生物神經(jīng)元 ? 神經(jīng)元是大腦處理信息的基本單元 ? 人腦大約由 1011個神經(jīng)元組成,神經(jīng)元互相連接成神經(jīng)網(wǎng)絡(luò) 生物神經(jīng)元簡圖 ? 生物神經(jīng)元傳遞信息的過程為多輸入 、 單輸出 ? 神經(jīng)元各組成部分的功能來看,信息的處理與傳遞主要發(fā)生在突觸附近 ? 當神經(jīng)元細胞體通過軸突傳到突觸前膜的脈沖幅度達到一定強度,即超過其閾值電位后,突觸前膜將向突觸間隙釋放神經(jīng)傳遞的化學物質(zhì) ? 突觸有兩種類型,興奮性突觸和抑制性突觸。在突觸接口處進行“數(shù) /模”轉(zhuǎn)換,是通過神經(jīng)介質(zhì)以量子化學方式實現(xiàn)的變換過程; ? 神經(jīng)纖維傳導速度 神經(jīng)沖動沿神經(jīng)纖維傳導的速度在 1~50m/s之間,因纖維特性不同而不同,粗纖維的傳導速度在100m/s,細纖維的傳導速度可低至每秒數(shù)米; ? 突觸延時和不應(yīng)期 突觸對神經(jīng)沖動的傳遞具有延時和不應(yīng)期。超出最大訓練值的輸入必將產(chǎn)生大的輸出誤差 一個具有 r個輸入和一個隱含層的神經(jīng)網(wǎng)絡(luò)模型結(jié)構(gòu) 網(wǎng)絡(luò)模型 ? 感知器和自適應(yīng)線性元件的主要差別在激活函數(shù)上:前者是二值型的,后者是線性的 ? BP網(wǎng)絡(luò)具有一層或多層隱含層,除了在多層網(wǎng)絡(luò)上與前面已介紹過的模型有不同外,其主要差別也表現(xiàn)在激活函數(shù)上。調(diào)用后返回訓練后權(quán)值,循環(huán)總數(shù)和最終誤差 ? TP= [disp_freq max_epoch err_goal 1r] ? [W, B, epochs, errors]= trainbp(W, B,’ F’, P, T,TP) ? 網(wǎng)絡(luò)的層數(shù) ? 隱含層神經(jīng)元數(shù) ? 初始權(quán)值的選取 ? 學習速率 ? 期望誤差的選取 ? 應(yīng)用舉例 ? 局限性 網(wǎng)絡(luò)的層數(shù) ? 理論上已經(jīng)證明:具有偏差和至少一個 S型隱含層加上一個線性輸出層的網(wǎng)絡(luò),能夠逼近任何有理函數(shù) ? 增加層數(shù)主要可以進一步的降低誤差,提高精度,但同時也使網(wǎng)絡(luò)復雜化,從而增加了網(wǎng)絡(luò)權(quán)值的訓練時間。學習速率的選取范圍在 期望誤差值選取 ? 在設(shè)計網(wǎng)絡(luò)的訓練過程中,期望誤差值也應(yīng)當通過對比訓練后確定一個合適的值 ? 這個所謂的“合適”,是相對于所需要的隱含層的節(jié)點數(shù)來確定,因為較小的期望誤差值是要靠增加隱含層的節(jié)點,以及訓練時間來獲得 ? 一般情況下,作為對比,可以同時對兩個不同期望誤差值的網(wǎng)絡(luò)進行訓練,最后通過綜合因素的考慮來確定采用其中一個網(wǎng)絡(luò) 應(yīng)用舉例 ? 求解函數(shù)逼近問題 ? 有 21組單輸入矢量和相對應(yīng)的目標矢量,試設(shè)計神經(jīng)網(wǎng)絡(luò)來實現(xiàn)這對數(shù)組的函數(shù)關(guān)系 P=1::1 T=[ … … ] 測試集 P2=1::1 目標矢量相對于輸入矢量的圖形 初始網(wǎng)絡(luò)的輸出曲線 訓練 1000次 2022次 訓練 3000次 5000次 ? Matlab 中的 ANN演示 語句: nnd 限制與不足 ? 需要較長的訓練時間 ? 完全不能訓練 ? 選取較小的初始權(quán)值 ? 采用較小的學習速率,但同時又增加了訓練時間 ? 局部極小值 ? BP算法可以使網(wǎng)絡(luò)權(quán)值收斂到一個解,但它并不能保證所求為誤差超平面的全局最小解,很可能是一個局部極小解 BP網(wǎng)絡(luò)的 改進 目標 ?加快訓練速度 ?避免陷入局部極小值 附加動量法 ? 利用附加動量的作用則有可能滑過局部極小值 ? 修正網(wǎng)絡(luò)權(quán)值時,不僅考慮誤差在梯度上的作用,而且考慮在誤差曲面上變化趨勢的影響,其作用如同一個低通濾波器,它允許網(wǎng)絡(luò)忽略網(wǎng)絡(luò)上微小變化特性 ? 該方法是在反向傳播法的基礎(chǔ)上在每一個權(quán)值的變化上加上一項正比于前次權(quán)值變化量的值,并根據(jù)反向傳播法來產(chǎn)生新的權(quán)值變化 ? 帶有附加動量因子的權(quán)值調(diào)節(jié)公式 其中 k為訓練次數(shù), mc為動量因子,一般取 0. 95左右 ? 附加動量法的實質(zhì)是將最后一次權(quán)值變化的影響,通過一個動量因子來傳遞。 lr]]= trainbpx(W, B, F, P, T, TP) ? 反向傳播法可以用來訓練具有可微激活函數(shù)的多層前向網(wǎng)絡(luò) ,以進行函數(shù)逼近,模式分類等工作 ? 反向傳播網(wǎng)絡(luò)的結(jié)構(gòu)不完全受所要解決的問題所限制。統(tǒng)計學習理論( STL)研究有限樣本情況下的機器學習問題。 ? 推廣能力 是指 : 將學習機器 (即預測函數(shù) ,或稱學習函數(shù)、學習模型 )對未來輸出進行正確預測的能力。而基于經(jīng)驗風險最小化準則的學習方法只強調(diào)了訓練樣本的經(jīng)驗風險最小誤差,沒有 最小化 置信范圍值,因此其推廣能力較差。 ? 當 x1和 x2都在判定面上時, ? 這表明 w和超平面上任意向量正交, ? 并稱 w為超平面的法向量。 線性判別函數(shù)和判別面 線性判別函數(shù)和判別面 廣義線性判別函數(shù) 最優(yōu)分類面 ? SVM 是從線性可分情況下的最優(yōu)分類面發(fā)展而來的 , 基本思想可用下圖的兩維情況說明 . 圖中 , 方形點和圓形點代表兩類樣本 , H 為分類線 ,H1, H2分別為過各類中離分類線最近的樣本且平行于分類線的直線 , 它們之間的距離叫做 分類間隔 (margin)。 : ,2: 。 支持向量機 ? 上節(jié)所得到的最優(yōu)分類函數(shù)為: ? 該式只包含待分類樣本與訓練樣本中的支持向量的內(nèi)積 運算,可見 ,要解決一個特征空間中的最優(yōu)線性分類問題 ,我們只需要知道這個空間中的內(nèi)積運算即可。 ? SVM 是一種有堅實理論基礎(chǔ)的新穎的小樣本學習方法。 ? 少數(shù)支持向量決定了最終結(jié)果 ,這不但可以幫助我們抓住關(guān)鍵樣本、“剔除”大量冗余樣本 ,而且注定了該方法不但算法簡單 ,而且具有較好的“魯棒”性。
點擊復制文檔內(nèi)容
教學課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1