freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

第5章分類技術(shù)(編輯修改稿)

2024-11-16 13:35 本頁面
 

【文章內(nèi)容簡介】 們稱為中間層,又稱為隱藏層 多層前向式架構(gòu)類神經(jīng)網(wǎng)路 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 類神經(jīng)網(wǎng)路 (4) ? ANN 學(xué)習(xí)演算法的目的在於決定權(quán)重 w,然後得到最小的誤差值平方 ? ANN 網(wǎng)路的特性如下: – 多層類神經(jīng)網(wǎng)路至少有一個(gè)隱藏層具有普遍逼近 ( universal approximators)的性質(zhì) – ANN 可以用來處理多餘的特徵值 – 類神經(jīng)網(wǎng)對於具有雜訊的訓(xùn)練資料問題會(huì)非常敏感 – 最陡坡降法可用來學(xué)習(xí) ANN 中的權(quán)重值 – 要訓(xùn)練 ANN 網(wǎng)路是很耗時(shí)的,尤其是當(dāng)隱藏層節(jié)點(diǎn)很多的情形,不過一旦模式建立之後,就能夠很快的針對測試資料進(jìn)行歸類 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 支援向量機(jī) ? 支援向量機(jī)( support vector machine, SVM)的分類技術(shù)起源於統(tǒng)計(jì)學(xué)習(xí)理論 ? SVM 也能夠處理高維度資料的問題 ? 可以使用訓(xùn)練範(fàn)例的子集合來表示決策界限,就是支援向量( support vector) 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 最大邊際超平面 ? 可找到一個(gè)超平面( hyperplane),將兩個(gè)類別的資料分開 B1 的邊大於 B2,在這個(gè)例子中, B1 是具有最大邊界的超平面 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 線性的支援向量機(jī):可分割的例子 ? 線性支援向量機(jī):可分割的情況 支援向量機(jī)的學(xué)習(xí)方式可以正式化成以下的限制最佳化的問題: ? 線性資料可分割的例子 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 線性支援向量機(jī):不可分割的情形 ? 支援向量機(jī)在不可分割類別問題的決策界限 ? 不可分割資料的差額變數(shù) 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 非線性的支援向量機(jī) ? 將原屬於同類空間 x 中的資料轉(zhuǎn)換成新的空間 ,如此線性決策界限就可在轉(zhuǎn)換後的空間中分割資料 ? 非線性的支援向量機(jī):非線性的支援向量機(jī)的學(xué)習(xí)可以用以下最佳化問題來表示: 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) kernel trick方法 ? kernel trick 是一個(gè)在轉(zhuǎn)換空間中使用原始屬性集合來計(jì)算相似度的方法 ? 可用在非線性的支援向量機(jī)的問題上 – 不用知道正確的對映函數(shù) – 使用 kernel函數(shù)計(jì)算點(diǎn)乘積比起使用轉(zhuǎn)換後的屬性集合來得容易 – 因在原始的空間中進(jìn)行計(jì)算,可避免維度問題 ? 使用多項(xiàng)式 kernel 函數(shù)的非線性決策界限 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 支援向量機(jī)的特性 ? 支援向量機(jī)的學(xué)習(xí)問題可以轉(zhuǎn)變成凸型最佳化的問題,可以用來找到目標(biāo)函數(shù)的全域最佳化 ? 支援向量機(jī)可藉由最大化決策界限的邊界來執(zhí)行容量的控制( capacity control) ? 支援向量機(jī)可以針對每個(gè)類別屬性變數(shù)建立虛擬變數(shù),使得支援向量機(jī)可以應(yīng)用在類別型資料上 ? 可處理二元與多元分類的問題 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 整合法 ? 藉由整合多種分類方法以改善分類正確性的方法 ? 這些技術(shù)我們稱為整合法或是分類技術(shù)的結(jié)合法 ? 根據(jù)每個(gè)分類方法對訓(xùn)練資料預(yù)測結(jié)果的投票所建立的整合分類方法 ? 整合分類法的結(jié)果比基本分類法好的兩個(gè)必要條件 – 基本分類法間要彼此獨(dú)立 – 基本分類法應(yīng)該要比隨機(jī)猜測的結(jié)果要好才行 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 基本分類法與整合分類法錯(cuò)誤率的比較 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 建立整合分類法的過程 169。 2020 臺(tái)灣培生教育出版 (Pearson Education Taiwan) 整合的方法 ? 藉由處理訓(xùn)練資料:可根據(jù)樣本分配的狀況,另外產(chǎn)生一些相似的樣本。樣本的分配將決定所要選取的資料要和訓(xùn)練資料有多相似,而且有可能和其他訓(xùn)練資料不一樣 ? 藉由處理輸入的特徵:輸入特徵將被隨機(jī)選取、或是經(jīng)由領(lǐng)域?qū)<业耐扑]而獲得 ? 藉由處理類別標(biāo)籤:可用在類別個(gè)數(shù)太多的情形,其訓(xùn)練資料可以藉由隨機(jī)將類別分到兩個(gè)子集合(A0 及 A1)中,將這類問題轉(zhuǎn)成二元分類
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1