freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

機器學習面試題目(已修改)

2025-04-06 04:09 本頁面
 

【正文】 有監(jiān)督學習和無監(jiān)督學習的區(qū)別有監(jiān)督學習:對具有標記的訓練樣本進行學習,以盡可能對訓練樣本集外的數據進行分類預測。(LR,SVM,BP,RF,GBDT)無監(jiān)督學習:對未標記的樣本進行訓練學習,比發(fā)現這些樣本中的結構知識。(KMeans,DL)正則化正則化是針對過擬合而提出的,以為在求解模型最優(yōu)的是一般優(yōu)化最小的經驗風險,現在在該經驗風險上加入模型復雜度這一項(正則化項是模型參數向量的范數),并使用一個rate比率來權衡模型復雜度與以往經驗風險的權重,如果模型復雜度越高,結構化的經驗風險會越大,現在的目標就變?yōu)榱私Y構經驗風險的最優(yōu)化,可以防止模型訓練過度復雜,有效的降低過擬合的風險。奧卡姆剃刀原理,能夠很好的解釋已知數據并且十分簡單才是最好的模型。 過擬合如果一味的去提高訓練數據的預測能力,所選模型的復雜度往往會很高,這種現象稱為過擬合。所表現的就是模型訓練時候的誤差很小,但在測試的時候誤差很大。產生的原因過擬合原因:1. 樣本數據的問題。樣本數量太少;抽樣方法錯誤,抽出的樣本數據不能有效足夠代表業(yè)務邏輯或業(yè)務場景。比如樣本符合正態(tài)分布,卻按均分分布抽樣,或者樣本數據不能代表整體數據的分布;樣本里的噪音數據干擾過大2. 模型問題模型復雜度高 、參數太多決策樹模型沒有剪枝權值學習迭代次數足夠多(Overtraining),擬合了訓練數據中的噪聲和訓練樣例中沒有代表性的特征.解決方法1. 樣本數據方面。增加樣本數量,對樣本進行降維,添加驗證數據抽樣方法要符合業(yè)務場景清洗噪聲數據2. 模型或訓練問題控制模型復雜度,優(yōu)先選擇簡單的模型,或者用模型融合技術。利用先驗知識,添加正則項。L1正則更加容易產生稀疏解、L2正則傾向于讓參數w趨向于0. 交叉驗證不要過度訓練,最優(yōu)化求解時,收斂之前停止迭代。 決策樹模型沒有剪枝權值衰減 泛化能力泛化能力是指模型對未知數據的預測能力 生成模型和判別模型1. 生成模型:由數據學習聯(lián)合概率分布P(X,Y),然后求出條件概率分布P(Y|X)作為預測的模型,即生成模型:P(Y|X)= P(X,Y)/ P(X)。(樸素貝葉斯、Kmeans)生成模型可以還原聯(lián)合概率分布p(X,Y),并且有較快的學習收斂速度,還可以用于隱變量的學習2. 判別模型:由數據直接學習決策函數Y=f(X)或者條件概率分布P(Y|X)作為預測的模型,即判別模型。(k近鄰、決策樹、SVM)直接面對預測,往往準確率較高,直接對數據在各種程度上的抽象,所以可以簡化模型線性分類器與非線性分類器的區(qū)別以及優(yōu)劣如果模型是參數的線性函數,并且存在線性分類面,那么就是線性分類器,否則不是。常見的線性分類器有:LR,貝葉斯分類,單層感知機、線性回歸常見的非線性分類器:決策樹、RF、GBDT、多層感知機SVM兩種都有(看線性核還是高斯核)線性分類器速度快、編程方便,但是可能擬合效果不會很好非線性分類器編程復雜,但是效果擬合能力強特征比數據量還大時,選擇什么樣的分類器?線性分類器,因為維度高的時候,數據一般在維度空間里面會比較稀疏,很有可能線性可分對于維度很高的特征,你是選擇線性還是非線性分類器?理由同上對于維度極低的特征,你是選擇線性還是非線性分類器?非線性分類器,因為低維空間可能很多特征都跑到一起了,導致線性不可分1. 如果Feature的數量很大,跟樣本數量差不多,這時候選用LR或者是Linear Kernel的SVM2. 如果Feature的數量比較小,樣本數量一般,不算大也不算小,選用SVM+Gaussian Kernel3. 如果Feature的數量比較小,而樣本數量很多,需要手工添加一些feature變成第一種情況illcondition病態(tài)問題訓練完的模型測試樣本稍作修改就會得到差別很大的結果,就是病態(tài)問題(這簡直是不能用?。㎜1和L2正則的區(qū)別,如何選擇L1和L2正則他們都是可以防止過擬合,降低模型復雜度L1是在loss function后面加上 模型參數的1范數(也就是|xi|)L2是在loss function后面加上 模型參數的2范數(也就是sigma(xi^2)),注意L2范數的定義是sqrt(sigma(xi^2)),在正則項上沒有添加sqrt根號是為了更加容易優(yōu)化L1 會產生稀疏的特征L2 會產生更多地特征但是都會接近于0L1會趨向于產生少量的特征,而其他的特征都是0,而L2會選擇更多的特征,這些特征都會接近于0。L1在特征選擇時候非常有用,而L2就只是一種規(guī)則化而已。L1求解最小角回歸算法:LARS算法1越小的參數說明模型越簡單過擬合的,擬合會經過曲面的每個點,也就是說在較小的區(qū)間里面可能會有較大的曲率,這里的導數就是很大,線性模型里面的權值就是導數,所以越小的參數說明模型越簡單。1為什么一些機器學習模型需要對數據進行歸一化?歸一化化就是要把你需要處理的數據經過處理后(通過某種算法)限制在你需要的一定范圍內。1)歸一化后加快了梯度下降求最優(yōu)解的速度。等高線變得顯得圓滑,在梯度下降進行求解時能較快的收斂。如果不做歸一化,梯度下降過程容易走之字,很難收斂甚至不能收斂2)把有量綱表達式變?yōu)闊o量綱表達式, 有可能提高精度。一些分類器需要計算樣本之間的距離(如歐氏距離),例如KNN。如果一個特征值域范圍非常大,那么距離計算就主要取決于這個特征,從而與實際情況相悖(比如這時實際情況是值域范圍小的特征更重要)3) 邏輯回歸等模型先驗假設數據服從正態(tài)分布。哪些機器學習算法不需要做歸一化處理?概率模型不需要歸一化,因為它們不關心變量的值,而是關心變量的分布和變量之間的條件概率,如決策樹、rf。而像adaboost、gbdt、xgboost、svm、lr、KNN、KMeans之類的最優(yōu)化問題就需要歸一化。特征向量的歸一化方法線性函數轉換,表達式如下:y=(xMinValue)/(MaxValueMinValue)對數函數轉換,表達式如下:y=log10 (x)反余切函數轉換 ,表達式如下:y=arctan(x)*2/PI減去均值,乘以方差:y=(xmeans)/ variance標準化與歸一化的區(qū)別簡單來說,標準化是依照特征矩陣的列處理數據,其通過求zscore的方法,將樣本的特征值轉換到同一量綱下。歸一化是依照特征矩陣的行處理數據,其目的在于樣本向量在點乘運算或其他核函數計算相似性時,擁有統(tǒng)一的標準,也就是說都轉化為“單位向量”。規(guī)則為l2的歸一化公式如下:1特征向量的缺失值處理1. ,否則可能反倒會帶入較大的noise,對結果造成不良影響。2. 缺失值較少,其余的特征缺失值都在10%以內,我們可以采取很多的方
點擊復制文檔內容
黨政相關相關推薦
文庫吧 www.dybbs8.com
公安備案圖鄂ICP備17016276號-1