freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

決策樹(shù)分析及spss實(shí)現(xiàn)(ppt61頁(yè))(更新版)

  

【正文】 的相同資料來(lái)決定該如何加以修剪。 當(dāng)然在醫(yī)療診斷上,一個(gè)錯(cuò)誤的陰性診斷( negative)也許會(huì)比錯(cuò)誤的陽(yáng)性診斷( positive)傷害更大。這是一種衡量方法,逐一檢視每一個(gè)葉部,確認(rèn)最弱勢(shì)的分支(那些無(wú)法有效降低整棵決策樹(shù)錯(cuò)誤率的分支),然後將它們標(biāo)示出來(lái)加以修剪 34 分類(lèi)與迴歸樹(shù) ( CART) 35 分類(lèi)與迴歸樹(shù) ( CART) 36 分類(lèi)與迴歸樹(shù) ( CART) 評(píng)估分支樹(shù): 最後工作是從入選的分支樹(shù)中選出最能分類(lèi)新資料的決策樹(shù)。這個(gè)規(guī)則有助於將訓(xùn)練資料分類(lèi),但如果在更寬廣的世界上,馬丁是一個(gè)很少見(jiàn)的名,而且這個(gè)名字和身高又沒(méi)有特別的關(guān)連,那麼這個(gè)規(guī)則比沒(méi)用還糟糕。然而,這並不表示所有祗達(dá)這個(gè)葉部的資料都屬於同一類(lèi)。如果這個(gè)變數(shù)只遇上一個(gè)數(shù)值,我們就將其排除,因?yàn)樗鼰o(wú)法被用來(lái)創(chuàng)造一個(gè)分隔。 25 分類(lèi)與迴歸樹(shù) ( CART) 找出起始的分隔 : 最好的分隔變數(shù)是能夠降低一個(gè)資料組的分散度,而且降得最多。 21 分類(lèi)與迴歸樹(shù) ( CART) 22 分類(lèi)與迴歸樹(shù) ( CART) numbers 23 分類(lèi)與迴歸樹(shù) ( CART) 找出起始的分隔 : 在過(guò)程中的一開(kāi)始,我們有一個(gè)預(yù)先分類(lèi)好的訓(xùn)練和資料。 17 決策樹(shù)基本觀念 18 決策樹(shù)基本觀念 這是一種基本上的差異:當(dāng)一筆資料有多種非常不同的方法使其成為目標(biāo)類(lèi)別的一部份時(shí),使用單一線條來(lái)找出類(lèi)別間界線的統(tǒng)計(jì)方法效力會(huì)很弱。這類(lèi)直條圖可以使用直條的頻色或形狀來(lái) 顯示對(duì)應(yīng)規(guī)則的錯(cuò)誤率。然後我們使用決策樹(shù)程式來(lái)創(chuàng)造規(guī)則,以受測(cè)者在問(wèn)卷中其他問(wèn)題的答案來(lái)找出該名受測(cè)者的性別。 從根部到每一個(gè)葉部都有一套獨(dú)特的路徑,這個(gè)路徑就是用來(lái)分類(lèi)資料規(guī)則的一種表達(dá)方式。在遊戲中,一個(gè)玩家先想好所有參加者都有知道的一個(gè)特定地點(diǎn),人物或事物,其他玩家藉著提出一堆 『 是或不是 』 的問(wèn)題,來(lái)找出答案。這項(xiàng)以樹(shù)狀圖為基礎(chǔ)的方法,其吸引人之處在於決策樹(shù)具有規(guī)則,和類(lèi)神經(jīng)網(wǎng)路不同。如果謹(jǐn)慎選擇問(wèn)題,只要短短幾次詢(xún)問(wèn)就可以將後來(lái)的資料正確分類(lèi)。 ●如果是一個(gè)葉部節(jié)點(diǎn),可觀察資料分類(lèi)的方式。 一個(gè)決策樹(shù)創(chuàng)造一系列盒子或箱子,我們可以將資料丟進(jìn)去。 15 決策樹(shù)基本觀念 16 決策樹(shù)基本觀念 表現(xiàn)多維度 : 當(dāng)我們將資料丟進(jìn)格子中,它們落到特定的層內(nèi)並以此分類(lèi)。還有一種持卡人每月都繳清帳款,但他們交易金額很高,因此發(fā)卡銀行還是可以賺到錢(qián)。因此,第一的任務(wù)是決定哪一個(gè)自變數(shù)可以成最好的分隔變數(shù)。 為了在一個(gè)節(jié)點(diǎn)中選擇最佳分隔變數(shù),我們依次考量每一個(gè)自變數(shù)。當(dāng)我們無(wú)法找到任何分隔可以顯著降低一個(gè)節(jié)點(diǎn)的分散度,我們就將其標(biāo)示為葉部節(jié)點(diǎn)。相對(duì)的,這個(gè)葉部的錯(cuò)誤率 1 。很顯的。入選分支樹(shù)中每一個(gè)都被用來(lái)分類(lèi)測(cè)試組資,得出最低的整體錯(cuò)誤率的就是勝利者。 39 ,是澳州研究者昆蘭( J. Ross Quinlan)多年努力成果。 ?看球賽加上地主隊(duì)獲勝加上待在家裡,就會(huì)得出 健怡汽水 。 45 CHAID 培養(yǎng)決策樹(shù): 如同其他兩種方法, CHAID演算利用輸入變數(shù)找出一個(gè)方法,將訓(xùn)練組資料分隔成兩個(gè)或兩個(gè)以上子節(jié)點(diǎn)。 50 CHAID 限制決策樹(shù)的成長(zhǎng): 在 CHAID演算法中,決策樹(shù)持續(xù)成長(zhǎng),直到再也沒(méi)有任何區(qū)隔能在分類(lèi)上達(dá)到統(tǒng)計(jì)顯著性差異為止。這個(gè)決策樹(shù)完美的將訓(xùn)練組資料分組,但需要五個(gè)內(nèi)部分隔節(jié)點(diǎn)。藉由選擇不同的N值,我們可以讓這條直線上下移動(dòng),但無(wú)法改變其斜率。當(dāng)我們碰到方形區(qū)域無(wú)法順利描述出讓類(lèi)別真正形狀的領(lǐng)域,類(lèi)神經(jīng)可以得出更正確的分類(lèi)。 演講完畢,謝謝觀看!
點(diǎn)擊復(fù)制文檔內(nèi)容
畢業(yè)設(shè)計(jì)相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1