freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

模式識別導(dǎo)論(三)ppt-分類器的設(shè)計線性分類器的設(shè)計分段線性-展示頁

2025-01-16 21:46本頁面
  

【正文】 Wk)+(W Wk)TD(W Wk)T/2 ① 其中 D為當(dāng) W = Wk時 J(W)的二階偏導(dǎo)數(shù)矩陣 將 W=Wk+1 = Wkρk▽ J(Wk)代入 ① 式得: J(Wk+1) ≈J(Wk) ρk||▽ J||2+ ρk2▽ JT D▽ J 其中 ▽ J=▽ J(Wk) 對 ρk求導(dǎo)數(shù) , 并令導(dǎo)數(shù)為零有 最佳步長為 ρk=||▽ J||2/▽ JTD▽ J 這就是最佳 ρk的計算公式 , 但因二階偏導(dǎo)數(shù)矩陣 D的計算 量太大 , 因此此公式很少用 。 ρk太小 , 迭代太慢 。 方法就是從起始值 W1開始 , 算出 W1處目標(biāo)函數(shù)的梯度 矢量 ▽ J(W1), 則下一步的 w值為: W2 = W1ρ 1▽ J(W1) W1為起始權(quán)向量 ρ1為迭代步長 J(W1) 為目標(biāo)函數(shù) ▽ J(W1)為 W1處的目標(biāo)函數(shù)的梯度矢量 在第 K步的時候 Wk+1 = Wkρ k▽ J(Wk) ρk為正比例因子 這就是梯度下降法的迭代公式 。 因此求解權(quán) 向量的問題就轉(zhuǎn)化為對一標(biāo)量函數(shù)求極值的問題 。 算法可以分為迭代法和非迭代法 。 求解時: ① 只有對線 性 可分的問題 , g(x) =WTX才有解 ② 聯(lián)立方程的解是非單值 , 在不同條件下 , 有不同的解 , 所以就產(chǎn)生了求最優(yōu)解的問題 ③ 求解 W的過程就是訓(xùn)練的過程 。 求解權(quán)向量的過程就是分類器的訓(xùn)練過程 , 使用已 知類別的有限的學(xué)習(xí)樣本來獲得分類器的權(quán)向量被稱為 有監(jiān)督的分類 。第三章 分類器的設(shè)計 ? 線性分類器的設(shè)計 ? 分段線性分類器的設(shè)計 ? 非線性分類器的設(shè)計 167。 31 線性分類器的設(shè)計 上一章我們討論了線性判別函數(shù)形式為 :g(x)=WTX 其中 X= (X1, X2… Xn) n維特征向量 W= (W1, W2 … Wn , Wn+1) n維權(quán)向量 通常通過特征抽取可以獲得 n維特征向量 , 因此 n維 權(quán)向量是要求解的 。 ???????0)(,0)(,21xgxxgx??分類準(zhǔn)則利用已知類別學(xué)習(xí)樣本來獲得權(quán)向量的訓(xùn)練過程如下 已知 x1 ∈ ω1, 通過檢測調(diào)整權(quán)向量,最終使 x1 ∈ ω1 已知 x2 ∈ ω2, 通過檢測調(diào)整權(quán)向量,最終使 x2 ∈ ω2 這樣就可以通過有限的樣本去決定權(quán)向量 x1 x2 ……. xn 1 w1 w2 wn wn+1 ∑ 0 x∈ ω1 檢測 (已知類別 ) W1 X1 W2 X2 Wn Xn Wn+1 0 x∈ ω2 g(x)=wTx ??? WW 1利用方程組來求解權(quán)向量 對二類判別函數(shù) g(x) = W1X1+ W2X2 +W3 已知訓(xùn)練集: Xa, Xb, Xc, Xd且 當(dāng) (Xa, Xb) ∈W 1時 g(x)> 0 當(dāng) (Xc, Xd) ∈W 2時 g(x)< 0 設(shè) Xa = (X1a, X2a)T Xb = (X1b, X2b)T Xc = (X1c, X2c)T Xd = (X1d, X2d)T 判別函數(shù)可聯(lián)立成: X1aW1+ X2aW2+ W3> 0 ① X1bW1+ X2bW2+ W3> 0 ② X1cW1+ X2cW2+ W3< 0 ③ X1dW1+ X2dW2+ W3< 0 ④ 求出 W1 , W2, W3 將 ③ ④式正規(guī)化,得 X1cW1 X2cW2 W3 0 X1dW1 X2dW2 W3 0 所以 g(x) =WTX 0 其中 W = (W1 , W2, W3)T 為各模式增 1矩陣 為 N*(n+1) 矩陣 N為樣本數(shù) , n為特征數(shù) ???????????????????111121212121ddccbbaaXXXXXXXXX訓(xùn)練過程就是對已知類別的樣本集求解權(quán)向量 w, 這是一個線 性 聯(lián)立不等式方程組求解的過程 。 訓(xùn)練方法的共同點是 , 先給出準(zhǔn)則函數(shù) , 再尋找使準(zhǔn)則函數(shù)趨于極值的優(yōu)化算法 , 不同的算法有不同的準(zhǔn)則函數(shù) 。 一 梯度下降法 — 迭代法 欲對不等式方程組 WTX0求解 , 首先定義準(zhǔn)則函數(shù) (目 標(biāo)函數(shù) )J(W), 再求 J(W)的極值使 W優(yōu)化 。 解決 此類問題的方法是梯度下降法 。 這樣一步步迭代 就可以收斂于解矢量 , ρk取值很重要 ρk太大 , 迭代太快 , 引起振蕩 , 甚至發(fā)散 。 應(yīng)該選最佳 ρk。 21若令 W=Wk+1上式為 J(Wk+1)=J(Wk)+▽ JT(Wk+1Wk)+(Wk+1Wk)TD(Wk+1Wk)T/2 對 Wk+1求導(dǎo) , 并令導(dǎo)數(shù)為零可得: 最佳迭代公式: Wk+1= Wk D1▽ J — 牛頓法的迭代公式 D1是 D的逆陣 討論:牛頓法比梯度法收斂的更快 , 但是 D的計算量大并且要計算 D1。 二 感知器法 感知器的原理結(jié)構(gòu)為: 通過對 W的調(diào)整 , 可實現(xiàn)判別函數(shù) g(x) =WTX RT 其中 RT為響應(yīng)閾值 定義感知準(zhǔn)則函數(shù):只考慮錯分樣本 定義: 其中 x0為錯分樣本 當(dāng)分類發(fā)生錯誤時就有 WTX 0,或- WTX 0, 所以 J(W) 總是正值,錯誤分類愈少, J(W)就愈小。 ? ??? ??0)( XX XWWJ T0)( ?WJ 求最小值對 W求梯度 代入迭代公式中 Wk+1 = Wkρk▽ J 由 J(W)經(jīng)第 K+1次迭代的時候, J(W)趨于 0,收斂于所求的 W值 ? ??? ??????0)(XX XWWJJ?????01 XX XWW kkk ?即感知器迭代公式:W的訓(xùn)練過程: 例如 :x1, x2,
點擊復(fù)制文檔內(nèi)容
高考資料相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1