【導(dǎo)讀】評(píng)估分類(lèi)法的準(zhǔn)確率。劃分為兩個(gè)獨(dú)立的數(shù)據(jù)集:。將數(shù)據(jù)集分為k個(gè)子集;用k-1個(gè)子集作訓(xùn)練集,1個(gè)子集作測(cè)試集,然。后k次交叉驗(yàn)證;將該學(xué)習(xí)算法使用多次,得出預(yù)測(cè)函數(shù)。序列,進(jìn)行投票;最后結(jié)果準(zhǔn)確率將得到提高.也可通過(guò)得票的平均值用于連續(xù)值的預(yù)測(cè)。Bagging要求“不穩(wěn)定”的分類(lèi)方法;結(jié)果的顯著的變動(dòng)。是否可以將弱學(xué)習(xí)算法提升為強(qiáng)學(xué)習(xí)算法。加關(guān)注這些樣本。在一定的權(quán)重條件下訓(xùn)練數(shù)據(jù),得出。每個(gè)分類(lèi)法Ct的投票價(jià)值為log[1/βt]. 即訓(xùn)練錯(cuò)誤率隨γt的增大呈指數(shù)級(jí)的減小.如果T值太大,Boosting會(huì)導(dǎo)致過(guò)適應(yīng)。解釋以上試驗(yàn)現(xiàn)象;較大的負(fù)邊界表示可信度高的錯(cuò)誤的預(yù)測(cè)。性增加,降低總誤差.Boosting易受到噪音的影響;AdaBoost可以用來(lái)鑒別異常;具有最高權(quán)重的樣本即為異常.Bagging:隨機(jī)選擇,各輪訓(xùn)練集相互獨(dú)立。Bagging:沒(méi)有權(quán)重;可以