freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

第5章分類技術(shù)-在線瀏覽

2024-12-14 13:35本頁面
  

【正文】 算每個類別 Y 的事後機(jī)率: 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 貝氏信念網(wǎng)路 (1) ? 貝氏信念網(wǎng)路簡稱貝氏網(wǎng)路 ? 提供以圖形的方式來表示隨機(jī)變數(shù)間機(jī)率關(guān)係 ? 貝氏網(wǎng)路的兩個重要元素是: – 用直接的非循環(huán)圖表示變數(shù)間的相依關(guān)係 – 機(jī)率表的內(nèi)容為每個節(jié)點(diǎn)和它的父節(jié)點(diǎn)間的關(guān)聯(lián)性 ? 貝氏網(wǎng)路如果在父節(jié)點(diǎn)未知的情形下,其非子孫的節(jié)點(diǎn)具有條件獨(dú)立的特性。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 貝氏信念網(wǎng)路 (2) ? 模式建立的兩個步驟: 1. 建立網(wǎng)路結(jié)構(gòu) 2. 形成每個節(jié)點(diǎn)與節(jié)點(diǎn)關(guān)聯(lián)的機(jī)率表 ? 貝氏信念網(wǎng)路的特性 – 提供一個利用圖形模式從特定的領(lǐng)域當(dāng)中獲取知識的方法,而這個網(wǎng)路可以用來表示變數(shù)間的因果關(guān)係 – 要建立一個網(wǎng)路也許需要耗費(fèi)大量的時間;但網(wǎng)路模式建立後,就可很快的增加新變數(shù) – 適合用來處理不完整的資料問題。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 類神經(jīng)網(wǎng)路 (1) ? 類神經(jīng)網(wǎng)路( Artificial Neural Network, ANN)的研究源起於想要模擬生物的神經(jīng)系統(tǒng) ? 人類的大腦是很多的神經(jīng)元細(xì)胞所組成的,這些稱為神經(jīng)元( neurons) ? 神經(jīng)元會彼此透過神經(jīng)軸( axon)相互連結(jié) ? 神經(jīng)軸用來轉(zhuǎn)換神經(jīng)元至其他被刺激的神經(jīng)間的脈衝 ? 一個神經(jīng)元會經(jīng)由突觸( dendrites)連結(jié)至另一個神經(jīng)軸 ? 人類大腦的學(xué)習(xí)可藉由突觸在神經(jīng)元間連結(jié)的重覆刺激所改變的長度而獲得學(xué)習(xí) ? 類神經(jīng)網(wǎng)路是很多內(nèi)部的節(jié)點(diǎn)間的相互連結(jié)所組成的結(jié)構(gòu) 169。輸入節(jié)點(diǎn)表示輸入屬性;輸出節(jié)點(diǎn)表示輸出結(jié)果 ? 這個生物神經(jīng)系統(tǒng)會讓感知機(jī)網(wǎng)路不斷的調(diào)整連結(jié)的權(quán)重值,直到輸入與輸出的對應(yīng)關(guān)係符合原來的訓(xùn)練資料為止 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 類神經(jīng)網(wǎng)路 (4) ? ANN 學(xué)習(xí)演算法的目的在於決定權(quán)重 w,然後得到最小的誤差值平方 ? ANN 網(wǎng)路的特性如下: – 多層類神經(jīng)網(wǎng)路至少有一個隱藏層具有普遍逼近 ( universal approximators)的性質(zhì) – ANN 可以用來處理多餘的特徵值 – 類神經(jīng)網(wǎng)對於具有雜訊的訓(xùn)練資料問題會非常敏感 – 最陡坡降法可用來學(xué)習(xí) ANN 中的權(quán)重值 – 要訓(xùn)練 ANN 網(wǎng)路是很耗時的,尤其是當(dāng)隱藏層節(jié)點(diǎn)很多的情形,不過一旦模式建立之後,就能夠很快的針對測試資料進(jìn)行歸類 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 最大邊際超平面 ? 可找到一個超平面( hyperplane),將兩個類別的資料分開 B1 的邊大於 B2,在這個例子中, B1 是具有最大邊界的超平面 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 線性支援向量機(jī):不可分割的情形 ? 支援向量機(jī)在不可分割類別問題的決策界限 ? 不可分割資料的差額變數(shù) 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) kernel trick方法 ? kernel trick 是一個在轉(zhuǎn)換空間中使用原始屬性集合來計(jì)算相似度的方法 ? 可用在非線性的支援向量機(jī)的問題上 – 不用知道正確的對映函數(shù) – 使用 kernel函數(shù)計(jì)算點(diǎn)乘積比起使用轉(zhuǎn)換後的屬性集合來得容易 – 因在原始的空間中進(jìn)行計(jì)算,可避免維度問題 ? 使用多項(xiàng)式 kernel 函數(shù)的非線性決策界限 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 整合法 ? 藉由整合多種分類方法以改善分類正確性的方法 ? 這些技術(shù)我們稱為整合法或是分類技術(shù)的結(jié)合法 ? 根據(jù)每個分類方法對訓(xùn)練資料預(yù)測結(jié)果的投票所建立的整合分類方法 ? 整合分類法的結(jié)果比基本分類法好的兩個必要條件 – 基本分類法間要彼此獨(dú)立 – 基本分類法應(yīng)該要比隨機(jī)猜測的結(jié)果要好才行 169。 2020 臺灣培生教育出版 (Pearson Education Taiwan) 建立整合分類法的過程 169。樣本的分配將決定所要選取的資料要和訓(xùn)練資料有多相似,而且有可能和其他訓(xùn)練資料不一樣 ? 藉由處理輸入的特徵:輸入特徵將被隨機(jī)選取、或是經(jīng)由領(lǐng)域?qū)<业耐扑]而獲得 ? 藉由處理類別標(biāo)籤:可用在類別個數(shù)太多的情形,其訓(xùn)練資料可以藉由隨機(jī)將類別分到兩個子集合(A0 及 A1)中,將這類問題轉(zhuǎn)成二元分類 ? 藉由處理學(xué)習(xí)演算法:很多學(xué)習(xí)演算法可以在同一個訓(xùn)練資料上用很多次,而
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1