【導(dǎo)讀】不同于eager學習算法,K-近鄰方法在訓練階段只。法是一種典型的lazy學習算法。k-近鄰方法既可以用于目標函數(shù)值是離散的情況,連續(xù)的情況就是回歸。K-近鄰方法的學習過程分兩部:1)找到要預(yù)測新。k-近鄰算法假定所有的實例對應(yīng)于n維空間。根據(jù)歐氏距離定義實例間的距離。逼近離散值函數(shù)f:Rn?–在training_examples中選出最靠近xq的k個實例,對k-近鄰算法的一個改進是對k個近鄰的貢獻加權(quán),為了處理查詢點xq恰好匹配某個訓練樣例xi,從而。們占多數(shù)的分類。例,則用它們的平均值來預(yù)測。k-近鄰算法的所有變體都只考慮k個近鄰用。的訓練樣例,稱為局部法。K-近鄰算法不是在整個實例空間上一次性地預(yù)測。均,可以消除孤立的噪聲樣例的影響。k-近鄰算法的一個實踐問題:維度災(zāi)害。k-近鄰算法的所有計算幾乎都花費在索引近鄰問。目前,已經(jīng)開發(fā)了很多對存儲的訓練樣例進行索。引的方法,以便能高效地確定最近鄰。k-近鄰算法的預(yù)測結(jié)果與k的大小相關(guān)。k-近鄰算法推遲所有的計算處理,直到接收到一