freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

weka學(xué)習(xí)文檔(參考版)

2025-08-07 09:11本頁面
  

【正文】 。可以在這里點(diǎn)“Save”把聚類結(jié)果保存成ARFF文件。彈出的窗口給出了各實(shí)例的散點(diǎn)圖。 最后的“Clustered Instances”是各個(gè)簇中實(shí)例的數(shù)目及百分比。對于數(shù)值型的屬性,簇中心就是它的均值(Mean);分類型的就是它的眾數(shù)(Mode),也就是說這個(gè)屬性上取值為眾數(shù)值的實(shí)例最多。當(dāng)然再嘗試幾個(gè)seed,這個(gè)數(shù)值可能會更小。我們應(yīng)該多嘗試幾個(gè)seed,并采納這個(gè)數(shù)值最小的那個(gè)結(jié)果。結(jié)果解釋 首先我們注意到結(jié)果中有這么一行: Within cluster sum of squared errors: 這是評價(jià)聚類好壞的標(biāo)準(zhǔn),數(shù)值越小說明同一簇實(shí)例之間的距離越小。選中“Cluster Mode”的“Use training set”,點(diǎn)擊“Start”按鈕,觀察右邊“Clusterer output”給出的聚類結(jié)果。下面的“seed”參數(shù)是要設(shè)置一個(gè)隨機(jī)種子,依此產(chǎn)生一個(gè)隨機(jī)數(shù),用來得到K均值算法中第一次給出的K個(gè)簇中心的位置。點(diǎn)“Choose”按鈕選擇“SimpleKMeans”,這是WEKA中實(shí)現(xiàn)K均值的算法。這樣得到的數(shù)據(jù)文件為“”,含600條實(shí)例。WEKA將自動(dòng)實(shí)施這個(gè)分類型到數(shù)值型的變換,而且WEKA會自動(dòng)對數(shù)值型的數(shù)據(jù)作標(biāo)準(zhǔn)化。重復(fù)1)和2),直到K個(gè)簇中心的位置都固定,簇的分配也固定。K均值算法首先隨機(jī)的指定K個(gè)簇中心?,F(xiàn)在我們對前面的“bank data”作聚類分析,使用最常見的K均值(Kmeans)算法。聚類的任務(wù)是把所有的實(shí)例分配到若干的簇,使得同一個(gè)簇的實(shí)例聚集在一個(gè)簇中心的周圍,它們之間距離的比較近;而不同簇實(shí)例之間的距離比較遠(yuǎn)。另一個(gè)是對預(yù)測結(jié)果給出了置信度,我們可以有選擇的采納預(yù)測結(jié)果,例如,只考慮那些置信度在85%以上的結(jié)果。我們看到,使用命令行至少有兩個(gè)好處。第三列對預(yù)測結(jié)果的置信度(confidence )?!癟”后面是待預(yù)測數(shù)據(jù)集的完整路徑。把這個(gè)模型應(yīng)用到“”所用命令的格式為: java p 9 l directorypath\ T directorypath \其中“p 9”說的是模型中的待預(yù)測屬性的真實(shí)值存在第9個(gè)(也就是“pep”)屬性中,這里它們?nèi)课粗虼巳坑萌笔е荡?。輸入上述命令后,所得到樹模型和誤差分析會在“Simple CLI”上方顯示,可以復(fù)制下來保存在文本文件里。“t ”后面跟著的是訓(xùn)練數(shù)據(jù)集的完整路徑(包括目錄和文件名),“d ”后面跟著的是保存模型的完整路徑。使用命令行(推薦) 雖然使用圖形界面查看結(jié)果和設(shè)置參數(shù)很方便,但是最直接最靈活的建模及應(yīng)用的辦法仍是使用命令行。點(diǎn)擊這個(gè)新窗口中的“Save”按鈕,保存一個(gè)Arff文件。如果你的Class屬性都是些缺失值,那這些內(nèi)容是無意義的,我們關(guān)注的是模型在新數(shù)據(jù)集上的預(yù)測值?,F(xiàn)在,右鍵點(diǎn)擊“Result list”中剛產(chǎn)生的那一項(xiàng),選擇“Reevaluate model on current test set”。即使你沒有待預(yù)測數(shù)據(jù)集的Class屬性的值,你也要添加這個(gè)屬性,可以將該屬性在各實(shí)例上的值均設(shè)成缺失值。模型應(yīng)用 現(xiàn)在我們要用生成的模型對那些待預(yù)測的數(shù)據(jù)集進(jìn)行預(yù)測了。74+64+30+132 = 300是實(shí)例總數(shù),而(74+132)/300 = ??赐旰蠼貓D或者關(guān)掉這里我們解釋一下“Confusion Matrix”的含義。 右鍵點(diǎn)擊“Results list”剛才出現(xiàn)的那一項(xiàng),彈出菜單中選擇“Visualize tree”,新窗口里可以看到圖形模式的決策樹。也許我們需要對原屬性進(jìn)行處理,或者修改算法的參數(shù)來提高準(zhǔn)確度。如果換一個(gè)模型或者換個(gè)參數(shù),重新“Start”一次,則“Results list”又會多出一項(xiàng)。很快,用文本表示的一棵決策樹,以及對這個(gè)決策樹的誤差分析等等結(jié)果出現(xiàn)在右邊的“Classifier output”中。建模結(jié)果 OK,選上“Crossvalidation”并在“Folds”框填上“10”。我們沒有專門設(shè)置檢驗(yàn)數(shù)據(jù)集,為了保證生成的模型的準(zhǔn)確性而不至于出現(xiàn)過擬合(overfitting)的現(xiàn)象,我們有必要采用10折交叉驗(yàn)證(10fold cross validation)來選擇和評估模型。這里我們把參數(shù)保持默認(rèn)。點(diǎn)擊“Choose”右邊的文本框,彈出新窗口為該算法設(shè)置各種參數(shù)。點(diǎn)“OK”后回到樹形圖,可以發(fā)現(xiàn)一些算法名稱變紅了,說明它們不能用。樹型框下方有一個(gè)“Filter...”按鈕,點(diǎn)擊可以根據(jù)數(shù)據(jù)集的特性過濾掉不合適的算法。我們用“Explorer”打開訓(xùn)練集“”,觀察一下它是不是按照前面的要求處理好了。另外,我們的訓(xùn)練集僅取原來數(shù)據(jù)集實(shí)例的一半;而從另外一半中抽出若干條作為待預(yù)測的實(shí)例,它們的“pep”屬性都設(shè)為缺失值。我們不用像前面用關(guān)聯(lián)規(guī)則那樣把每個(gè)變量都離散化成分類型。 我們來看原來的“”文件。一般的,若Class屬性是分類型時(shí)我們的任務(wù)才叫分類,Class屬性是數(shù)值型時(shí)我們的任務(wù)叫回歸。衡量模型的好壞就在于預(yù)測的準(zhǔn)確程度。觀察訓(xùn)練集中的實(shí)例,可以建立起預(yù)測的模型。我們希望根據(jù)一個(gè)樣本(WEKA中稱作實(shí)例)的一組特征(輸入變量),對目標(biāo)進(jìn)行預(yù)測。5. 分類與回歸背景知識 WEKA把分類(Classification)和回歸(Regression)都放在“Classify”選項(xiàng)卡中,這是有原因的。 我們還可以加上“ I”參數(shù),得到不同項(xiàng)數(shù)的頻繁項(xiàng)集。注意,“t”參數(shù)后的文件路徑中不能含有空格。 Best rules found: 1. age=52_max save_act=YES current_act=YES 113 == ine=43759_max 61 conf:() lift:() lev:( [45] conv:() 2. ine=43759_max 80 == age=52_max save_act=YES current_act=YES 61 conf:() lift:() lev:( [45] conv:() 3. ine=43759_max current_act=YES 63 == age=52_max save_act=YES 61 conf:() lift:() lev:( [45] conv:() 4. age=52_max save_ac
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評公示相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1