freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

人工智能-第5章-機(jī)器學(xué)習(xí)-wenkub.com

2025-01-18 14:37 本頁(yè)面
   

【正文】 一條規(guī)則 X=Y的 支持度 定義為:在集合 D 中 同時(shí)包含 X 和 Y 的事務(wù)數(shù)量與 D中的 總事務(wù)量之比 ,即: %100}|{),s up ( ????? D TYXTDYX 一條規(guī)則 X=Y的 可信度 定義為:在集合 D 中,包含 X 的事務(wù)中有多大可能性也包含 Y。 數(shù)據(jù)項(xiàng)之間的關(guān)聯(lián)規(guī)則就是根據(jù)一個(gè)事務(wù)中某些項(xiàng)的出現(xiàn),可推導(dǎo)出另一些項(xiàng)在同一事務(wù)中也出現(xiàn)。偏差包括很多潛在的知識(shí),如分類中的異常實(shí)例、不滿足規(guī)則的特例、觀測(cè)結(jié)果與模型預(yù)測(cè)值的偏差、量值隨時(shí)間的變化等。 ④ 時(shí)序模式 通過(guò)時(shí)間序列搜索出重復(fù)發(fā)生概率較高的模式。 ②分類 分類是找出一個(gè)類別的概念描述,它代表了這類數(shù)據(jù)的整體信息,即該類的內(nèi)涵描述,一般用規(guī)則或決策樹模式表示。 在通常情況下,許多人把數(shù)據(jù)挖掘與知識(shí)發(fā)現(xiàn)廣泛地認(rèn)為是同一個(gè)概念,一般在科研領(lǐng)域中稱為知識(shí)發(fā)現(xiàn),而在工程領(lǐng)域則稱為數(shù)據(jù)挖掘。 2022/2/15 《人工智能》 91 數(shù)據(jù)挖掘 數(shù)據(jù)挖掘是知識(shí)發(fā)現(xiàn)處理過(guò)程的一個(gè)核心環(huán)節(jié),其任務(wù)就是從數(shù)據(jù)中發(fā)現(xiàn)模式。 在求解過(guò)程中,通過(guò)最好解的選擇和彼此組合,使期望解的集合愈來(lái)愈好。 貝葉斯信念網(wǎng)是概率分布的圖表示。 決策樹的每一個(gè)非終葉節(jié)點(diǎn)表示所考慮的數(shù)據(jù)項(xiàng)的測(cè)試或決策。 (2) 模糊集 (3) 支持向量機(jī) 針對(duì)兩類分類問(wèn)題,在高維空間中尋找一個(gè)超平面作為兩類的分割,以保證最小的錯(cuò)誤分類率。 這一過(guò)程主要用于對(duì)所獲得的知識(shí)進(jìn)行價(jià)值評(píng)定,以決定所得的規(guī)則是否存入基礎(chǔ)知識(shí)庫(kù)。轉(zhuǎn)換包括對(duì)數(shù)據(jù)組織、數(shù)據(jù)類型轉(zhuǎn)換、數(shù)據(jù)屬性轉(zhuǎn)換等。 一個(gè)數(shù)據(jù)倉(cāng)庫(kù)包含了各種數(shù)據(jù) , 所以有必要根據(jù)用戶的需求從中提取與 KDD相關(guān)的數(shù)據(jù)。一個(gè)表達(dá)式 E所描述的數(shù)據(jù)是 F一個(gè)子集 FE,只有當(dāng)表達(dá)式 E比列舉出 FE中所有元素的描述方法更簡(jiǎn)單時(shí),才可稱為 E為一個(gè)模式。通??梢杂靡粋€(gè)函數(shù) N(E,F)來(lái)表示模式的新穎程度。知識(shí)發(fā)現(xiàn)的產(chǎn)生和發(fā)展與數(shù)據(jù)處理的發(fā)展有密切的聯(lián)系。而人工智能處理方式很難對(duì)龐大的數(shù)據(jù)進(jìn)行有效的處理和應(yīng)用。 Q學(xué)習(xí)可以看作一種增量式動(dòng)態(tài)規(guī)劃,它通過(guò)直接優(yōu)化一個(gè)可迭代計(jì)算的動(dòng)作值函數(shù) Q(s,a)來(lái)找到一個(gè)策略 , 使得期望折扣報(bào)酬總和最大,而非 TD算法中的狀態(tài)值 V(s)。λ返回函數(shù) Rt′的物理意義如圖所示(見(jiàn)下頁(yè))。 2022/2/15 《人工智能》 76 TD 算法可擴(kuò)充到 TD (?) 算法,即 Agent 獲得的瞬時(shí)報(bào)酬值可回退任意步。 T T T T T T T T T T stT 2022/2/15 《人工智能》 75 瞬時(shí)差分學(xué)習(xí)算法 (TD算法 ) TD (Temporal Differences)算法是一種增量式學(xué)習(xí)算法,它不用建立環(huán)境的動(dòng)態(tài)信息模型,也不必等到最終輸出結(jié)果產(chǎn)生之后再修改以往學(xué)到的經(jīng)驗(yàn) ,而是直接從交互經(jīng)驗(yàn)中學(xué)習(xí),在學(xué)習(xí)過(guò)程中逐步修改。 從 s 出發(fā)到終止?fàn)顟B(tài) t 的過(guò)程中, s 可能不止出現(xiàn)一次。 2022/2/15 《人工智能》 73 蒙特卡羅算法 蒙特卡羅算法 ( Monte Carlo method , MC)通過(guò) 評(píng)估值函數(shù) 來(lái)發(fā)現(xiàn)最優(yōu)策略,且不需要環(huán)境的全部信息,它只需要經(jīng)驗(yàn)知識(shí) 。 2022/2/15 《人工智能》 71 根據(jù) Bellman最優(yōu)策略公式,在最優(yōu)策略 π*下,系統(tǒng)在 s狀態(tài)下的值函數(shù)定義為: 所以,強(qiáng)化學(xué)習(xí)的任務(wù)就是求解 π* 。 2022/2/15 《人工智能》 70 首先通過(guò)下式構(gòu)造一個(gè)返回函數(shù) Rt,用于反映系統(tǒng)在某個(gè)策略 π指導(dǎo)下的一次學(xué)習(xí)循環(huán)中,從 st狀態(tài)往后所獲得的所有獎(jiǎng)賞的累計(jì)折扣和。因此在已知狀態(tài)轉(zhuǎn)移概率函數(shù) P和獎(jiǎng)賞函數(shù) R的環(huán)境模型知識(shí)下,可以采用動(dòng)態(tài)規(guī)劃技術(shù)求解最優(yōu)策略。 馬氏決策過(guò)程 由四元組 S, A, R, P定義。反之系統(tǒng)產(chǎn)生這個(gè)動(dòng)作的趨勢(shì)便減弱。 agent 執(zhí)行一個(gè)動(dòng)作除了獲得立即獎(jiǎng)賞信號(hào)外,還有從后續(xù)狀態(tài) —?jiǎng)幼饔成涞难舆t獎(jiǎng)賞。在強(qiáng)化學(xué)習(xí)中, Agent 選擇一個(gè)動(dòng)作作用于環(huán)境,環(huán)境接收該動(dòng)作后發(fā)生變化,同時(shí)產(chǎn)生一個(gè)強(qiáng)化信號(hào)(獎(jiǎng)或罰)反饋給 Agent, Agent 再根據(jù)強(qiáng)化信號(hào)和環(huán)境的當(dāng)前狀態(tài)再選擇下一個(gè)動(dòng)作,選擇的原則是使受到正的報(bào)酬的概率增大。 1978年開始,Sutton、 Barto、 Moore等對(duì)這兩者結(jié)合開始進(jìn)行深入研究。強(qiáng)化學(xué)習(xí)一詞最早出現(xiàn)于科技文獻(xiàn)是 1961年 Minsky 的論文“ Steps Toward Artificial Intelligence”,此后開始廣泛使用。換個(gè)說(shuō)法,哪種行為會(huì)“記住”,會(huì)與刺激建立聯(lián)系,取決于行為產(chǎn)生的效果。典型的技術(shù)如遺傳算法等搜索技術(shù); ? 另一類是采用統(tǒng)計(jì)技術(shù)和動(dòng)態(tài)規(guī)劃方法來(lái)估計(jì)在某一環(huán)境狀態(tài)下的行為的效用函數(shù)值,從而通過(guò)行為效用函數(shù)來(lái)確定最優(yōu)行為。 所謂 強(qiáng)化學(xué)習(xí) 就是智能系統(tǒng)從環(huán)境到行為映射的學(xué)習(xí),以使獎(jiǎng)勵(lì)信號(hào) (強(qiáng)化信號(hào) ) 函數(shù)值最大。 求解:訓(xùn)練實(shí)例的一般化概括,使之滿足: (1) 目標(biāo)概念的充分概括描述 TC; (2) 操作準(zhǔn)則 OC。 (3) 從解釋結(jié)構(gòu)中識(shí)別出訓(xùn)練例子的特性,獲取一般控制知識(shí)。為此,可能要對(duì)范例庫(kù)的索引內(nèi)容甚至結(jié)構(gòu)進(jìn)行調(diào)整,如改變索引的強(qiáng)度或特征權(quán)值。此過(guò)程涉及選取哪些信息保留,以及如何把新范例有機(jī)集成到范例庫(kù)中。 2022/2/15 《人工智能》 58 范例學(xué)習(xí)的主要問(wèn)題( 3) (8) 類比驗(yàn)證 : 驗(yàn)證目標(biāo)范例和源范例進(jìn)行類比的有效性。 (6) 解釋過(guò)程 : 對(duì)把轉(zhuǎn)換過(guò)的源范例的求解方案應(yīng)用到目標(biāo)范例時(shí)所出現(xiàn)的失敗做出解釋,給出失敗的因果分析報(bào)告。 2022/2/15 《人工智能》 57 范例學(xué)習(xí)的主要問(wèn)題( 2) (4) 類比映射 : 尋找目標(biāo)范例同源范例之間的對(duì)應(yīng)關(guān)系。這步非常關(guān)鍵。范例表示涉及這樣幾個(gè)問(wèn)題 : 選擇什么信息存放在一個(gè)范例中;如何選擇合適的范例內(nèi)容描述結(jié)構(gòu);范例庫(kù)如何組織和索引。 當(dāng)對(duì)問(wèn)題還缺乏足夠的了解時(shí) , 通過(guò)在范例的表示上加上結(jié)果部分能取得較好的效果 。 (2) 解決方案: 是問(wèn)題如何在一特定情形下得到解決 。 范例推理的特點(diǎn) 2022/2/15 《人工智能》 52 基于范例的學(xué)習(xí) 基于范例的推理系統(tǒng)經(jīng)過(guò)不斷的積累經(jīng)驗(yàn)(案例),同時(shí)合適地對(duì)其進(jìn)行索引,系統(tǒng)的推理效率和問(wèn)題求解能力會(huì)隨之增加。 ? 對(duì)過(guò)去的求解結(jié)果進(jìn)行復(fù)用 , 而不是再次從頭推導(dǎo) , 可以提高對(duì)新問(wèn)題的求解效率 。這種推理就是 基于范例的推理 (CaseBased Reasoning, CBR),也簡(jiǎn)稱為范例推理。具體來(lái)說(shuō),一個(gè)范例應(yīng)具有如下特性: ? 范例表示了與某個(gè)上下文有關(guān)的具體知識(shí),這種知識(shí)具有可操作性。 (3) 按相似變換的方法,將已有問(wèn)題的概念、特性、方法、關(guān)系等映射到新問(wèn)題上,以獲得待求解新問(wèn)題所需的新知識(shí)。類比學(xué)習(xí)的過(guò)程主要分為兩步:首先歸納找出源問(wèn)題和目標(biāo)問(wèn)題的公共性質(zhì),然后再演繹推出從源問(wèn)題到目標(biāo)問(wèn)題的映射,得出目標(biāo)問(wèn)題的新的性質(zhì)。 2022/2/15 《人工智能》 46 (2) 選擇 從找出的相似情況中選出與當(dāng)前情況最相似的情況及其有關(guān)知識(shí)。 例如,當(dāng)人們遇到一個(gè)新問(wèn)題需要進(jìn)行處理,但又不具備處理這個(gè)問(wèn)題的知識(shí)時(shí),通常采用的辦法就是回憶一下過(guò)去處理過(guò)的類似問(wèn)題,找出一個(gè)與目前情況最接近的處理方法來(lái)處理當(dāng)前問(wèn)題。當(dāng)特征向量空間為歐氏空間時(shí),同樣可以采用決策樹方法來(lái)構(gòu)造分類器。一條從根結(jié)點(diǎn)到葉結(jié)點(diǎn)的路途對(duì)應(yīng)于一條 IFTHEN規(guī)則。 A為閾值,在修剪過(guò)程開始前預(yù)先設(shè)定。這棵決策樹,就是我們最終選擇的決策樹。 2022/2/15 《人工智能》 41 決策樹修剪( 2) ( 2)在上述決策樹構(gòu)建完畢后,從葉結(jié)點(diǎn)一層開始,考察兄弟葉結(jié)點(diǎn)是否可以合并。 2022/2/15 《人工智能》 40 決策樹修剪( 1) 決策樹的修剪是決策樹學(xué)習(xí)的另外一種有效的方法。決策樹直接采用全體樣本集合構(gòu)建。 2022/2/15 《人工智能》 39 確定葉結(jié)點(diǎn)的基本方法( 2) ()n le a f n o d e ssiz e i n???? ?方法 3:在決策樹開始訓(xùn)練以前,首先設(shè)定一個(gè)閾值 A。 方法 2:在決策樹開始訓(xùn)練以前,首先設(shè)定一個(gè)閾值 A。根據(jù)訓(xùn)練集構(gòu)建決策樹,決策樹中的結(jié)點(diǎn)逐層展開。 ( 3)因此,在決策樹的構(gòu)建過(guò)程中,需要在過(guò)度擬合與欠學(xué)習(xí)之間尋求合理的平衡,即尋求復(fù)雜度適中的決策樹。 ( 2)要適度保證葉結(jié)點(diǎn)的純凈度,適度保證對(duì)訓(xùn)練樣本的正確分類能力。 2022/2/15 《人工智能》 37 葉結(jié)點(diǎn)確定的基本思路 ( 1)并不絕追求對(duì)訓(xùn)練樣本的正確劃分。不同的隨機(jī)實(shí)驗(yàn)會(huì)得到不同的樣本集合。 2022/2/15 《人工智能》 36 葉結(jié)點(diǎn)的確定問(wèn)題 ? 問(wèn)題:在構(gòu)建決策樹的過(guò)程中,確定葉節(jié)點(diǎn)的一個(gè)策略是:對(duì)于每一個(gè)可以進(jìn)一步劃分的結(jié)點(diǎn)都進(jìn)行劃分,直到得到一個(gè)不可劃分的子結(jié)點(diǎn),并將該子結(jié)點(diǎn)定為葉結(jié)點(diǎn)。 ( 2)結(jié)點(diǎn) n中的樣本不屬于同一類,但是不存在任何一個(gè)劃分(即提出一個(gè)問(wèn)題并根據(jù)該問(wèn)題對(duì)結(jié)點(diǎn) n的樣本進(jìn)行劃分)可以使其子結(jié)點(diǎn)的平均純凈度高于結(jié)點(diǎn) n。 所提問(wèn)題通常限制為針對(duì)某個(gè)特征提出的簡(jiǎn)單問(wèn)題,問(wèn)題的形式如前面的二叉數(shù)所示。 2022/2/15 《人工智能》 33 最佳提問(wèn)的選擇( 4) ( ) ( ) ( ) ( )ny nnynnnN Ni n i n i n i nNN??? ? ? ????? 其中, ny為結(jié)點(diǎn) n的 YES子結(jié)點(diǎn), nn 為 NO子結(jié)點(diǎn), Nny為 YES子結(jié)點(diǎn)對(duì)應(yīng)的樣本的數(shù)量, Nnn為 NO子結(jié)點(diǎn)對(duì)應(yīng)的樣本的數(shù)量。 ( 7)在對(duì)訓(xùn)練集分類能力相近的條件下,復(fù)雜度小的決策樹(分類器)優(yōu)于復(fù)雜度大的決策樹(分類器)。我們希望根據(jù)結(jié)點(diǎn) N提出的問(wèn)題,能夠使DNy及 DNn盡可能純凈。通過(guò)選擇針對(duì)某一屬性的一個(gè)問(wèn)題進(jìn)行提問(wèn),可以根據(jù)對(duì)該問(wèn)題的回答,將訓(xùn)練樣本集 D分類兩個(gè)部分: Dy及 Dn (其中, Dy為回答YES的樣本, Dn為回答 NO的樣本) ,并建立與之相對(duì)應(yīng)的兩個(gè)子結(jié)點(diǎn)。 ( 2)葉結(jié)點(diǎn)的確定:什么時(shí)候可以結(jié)束提問(wèn),并判定模式的類別? ( 3)決策樹修剪:如果決策樹過(guò)大,應(yīng)該如何修剪決策樹,以保證其泛化能力? 2022/2/15 《人工智能》 30 最佳提問(wèn)的選擇( 1) ( 1)決策樹中的每一個(gè)結(jié)點(diǎn)(葉結(jié)點(diǎn)除外)對(duì)應(yīng)于一個(gè)提問(wèn)。然后為根節(jié)點(diǎn)屬性的每個(gè)可能值產(chǎn)生一個(gè)分枝,并把訓(xùn)練樣例排列到適當(dāng)?shù)姆种Γㄒ簿褪?,樣例的該屬性值?duì)應(yīng)的分枝)之下。繼續(xù)這個(gè)過(guò)程指導(dǎo)這棵樹能完美分類訓(xùn)練樣例,或所有的屬性都已被使用過(guò)。 2022/2/15 《人工智能》 28 ID3算法 ? 大多數(shù)已開發(fā)的決策樹學(xué)習(xí)算法是一種核心算法 ( CLS算法 ) 的變體 。 ? 可能需要析取的描述:決策樹很自然地代表了析取表達(dá)式。從樹根到樹葉的每一條路徑對(duì)應(yīng)一組屬性測(cè)試的合取,樹本身對(duì)應(yīng)這些合取的析取。 ? 分類實(shí)例的方法是從這顆樹的根節(jié)點(diǎn)開始,測(cè)試這個(gè)節(jié)點(diǎn)指定的屬性,然后按照給定實(shí)例的該屬性值對(duì)應(yīng)的樹枝向下移動(dòng)。這些決策樹學(xué)習(xí)方法搜索一個(gè)完整表示的假設(shè)空間,從而避免了受限假設(shè)空間的不足。在這種方法中學(xué)習(xí)到的函數(shù)被表示為一顆決策樹。觀察發(fā)現(xiàn)學(xué)習(xí)可分為觀察學(xué)習(xí)與機(jī)器發(fā)現(xiàn)兩種。即: CTX∧ S→ K = CTX→ K (2) 放松條件: 一個(gè)事例的原因可能不止一條,當(dāng)出現(xiàn)新的原因時(shí),應(yīng)該把新的原因包含進(jìn)去。 求:歸納斷言(假設(shè)) H,能重言蘊(yùn)涵或弱蘊(yùn)涵觀察陳述,并滿足背景知識(shí)。根據(jù)歸納學(xué)習(xí)有無(wú)教師指導(dǎo),可把它分為示例學(xué)習(xí)和觀察與發(fā)現(xiàn)學(xué)習(xí)。這種方法對(duì)領(lǐng)域理論沒(méi)有要求,甚至可以沒(méi)有領(lǐng)域理論,但其需要大量的訓(xùn)練例子,而且歸納性能受到描述語(yǔ)言、概念類型、信噪比、實(shí)例空間分布、 歸納模式等的影響。 ( 1)存儲(chǔ)組織信息:采用適當(dāng)?shù)拇鎯?chǔ)方式,使檢索速度盡可能地快,是機(jī)械學(xué)習(xí)中的重要問(wèn)題。他們指出,可以把機(jī)械學(xué)習(xí)看成是數(shù)據(jù)化簡(jiǎn)分級(jí)中的第一級(jí)。機(jī)械學(xué)習(xí)又是最基本的學(xué)習(xí)過(guò)程。 ⑤解釋學(xué)習(xí):根據(jù)領(lǐng)域知識(shí)對(duì)當(dāng)前實(shí)例分析和求解。 2022/2/15 《人工智能》 12 機(jī)器學(xué)習(xí)的分類 ? 按學(xué)習(xí)方法分類(溫斯頓在 1977年提出的分類方法) ①機(jī)械式學(xué)習(xí):機(jī)械學(xué)習(xí)就是記憶。學(xué)習(xí)系統(tǒng)的本質(zhì)要求它不斷地修改自己的知識(shí)庫(kù),當(dāng)推廣得出一般執(zhí)行規(guī)則后,要加到知識(shí)庫(kù)中。所選擇的表示方式能很容易地表達(dá)有關(guān)的知識(shí)。 機(jī)器學(xué)習(xí)系統(tǒng)的基本結(jié)構(gòu)如圖 2022/2/15 《人工智能》 11 影響學(xué)習(xí)系統(tǒng)設(shè)計(jì)的重要因素 (1) 影響學(xué)習(xí)系統(tǒng)設(shè)計(jì)的最重要的因素是環(huán)境向系統(tǒng)提供的信息。學(xué)習(xí)單元利用
點(diǎn)擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖片鄂ICP備17016276號(hào)-1