【正文】
、選擇(select)C、切片(slice)D、轉(zhuǎn)軸(pivot)8.關(guān)于OLAP和OLTP的區(qū)別描述,不正確的是: (C)A. .B. 與OLAP應(yīng)用程序不同,OLTP應(yīng)用程序包含大量相對簡單的事務(wù).C. OLAP的特點(diǎn)在于事務(wù)量大,但事務(wù)內(nèi)容比較簡單且重復(fù)率高.D. OLAP是以數(shù)據(jù)倉庫為基礎(chǔ)的,但其最終數(shù)據(jù)來源與OLTP一樣均來自底層的數(shù)據(jù)庫系統(tǒng),兩者面對的用戶是相同的9.下列哪個描述是正確的?( )A、分類和聚類都是有指導(dǎo)的學(xué)習(xí)B、分類和聚類都是無指導(dǎo)的學(xué)習(xí)C、分類是有指導(dǎo)的學(xué)習(xí),聚類是無指導(dǎo)的學(xué)習(xí)D、分類是無指導(dǎo)的學(xué)習(xí),聚類是有指導(dǎo)的學(xué)習(xí)10簡單地將數(shù)據(jù)對象集劃分成不重疊的子集,使得每個數(shù)據(jù)對象恰在一個子集中,這種聚類類型稱作( B ) A、層次聚類 B、劃分聚類 C、非互斥聚類 D、模糊聚類11將原始數(shù)據(jù)進(jìn)行集成、變換、維度規(guī)約、數(shù)值規(guī)約是在以下哪個步驟的任務(wù)?(C) A. 頻繁模式挖掘 B. 分類和預(yù)測 C. 數(shù)據(jù)預(yù)處理 D. 數(shù)據(jù)流挖掘12 什么是KDD? (A) A. 數(shù)據(jù)挖掘與知識發(fā)現(xiàn) B. 領(lǐng)域知識發(fā)現(xiàn) C. 文檔知識發(fā)現(xiàn) D. 動態(tài)知識發(fā)現(xiàn)為數(shù)據(jù)的總體分布建模;把多維空間劃分成組等問題屬于數(shù)據(jù)挖掘的哪一類任務(wù)?(B) A. 探索性數(shù)據(jù)分析 B. 建模描述 C. 預(yù)測建模 D. 尋找模式和規(guī)則判斷題1. 數(shù)據(jù)挖掘的主要任務(wù)是從數(shù)據(jù)中發(fā)現(xiàn)潛在的規(guī)則,從而能更好的完成描述數(shù)據(jù)、預(yù)測數(shù)據(jù)等任務(wù)。 數(shù)據(jù)挖掘整理(熊熊整理獻(xiàn)給夢中的天涯)單選題1.下面哪種分類方法是屬于神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)算法?( )A. 判定樹歸納 B. 貝葉斯分類 C. 后向傳播分類 D. 基于案例的推理2.置信度(confidence)是衡量興趣度度量( A )的指標(biāo)。 (對)2. 數(shù)據(jù)挖掘的目標(biāo)不在于數(shù)據(jù)采集策略,而在于對于已經(jīng)存在的數(shù)據(jù)進(jìn)行模式的發(fā)掘。(錯)6. 離群點(diǎn)可以是合法的數(shù)據(jù)對象或者值?! 。▽Γ?0. 特征提取技術(shù)并不依賴于特定的領(lǐng)域?! 。ㄥe)14. 。(錯)22. 利用先驗原理可以幫助減少頻繁項集產(chǎn)生時需要探查的候選項個數(shù)(對)。(錯)26. 聚類(clustering)是這樣的過程:它找出描述并區(qū)分?jǐn)?shù)據(jù)類或概念的模型(或函數(shù)),以便能夠使用模型預(yù)測類標(biāo)記未知的對象類。 (錯):訓(xùn)練誤差(training error)和泛化誤差(generalization error). (對)31. 在決策樹中,隨著樹中結(jié)點(diǎn)數(shù)變得太大,即使模型的訓(xùn)練誤差還在繼續(xù)減低,但是檢驗誤差開始增大,這是出現(xiàn)了模型擬合不足的問題。(錯36. 給定由兩次運(yùn)行K均值產(chǎn)生的兩個不同的簇集,誤差的平方和最大的那個應(yīng)該被視為較優(yōu)。(錯)40. DBSCAN是