freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

k-近鄰研究應(yīng)用-文庫(kù)吧資料

2025-06-30 18:56本頁(yè)面
  

【正文】 一樣是這個(gè)語(yǔ)言的一部分。C新的數(shù)據(jù)類型是decimal數(shù)據(jù)類型,對(duì)于貨幣數(shù)據(jù),它能存放28位10進(jìn)制數(shù)字。又象C和C++一樣,每個(gè)數(shù)據(jù)類型都有有符號(hào)和無(wú)符號(hào)兩種類型。這些類型是bool, byte, ubyte,short, ushort, int, uint,long, ulong, float,double和decimal。必須使用using關(guān)鍵字來(lái)引用其他命名空間的內(nèi)容。(2)命名空間中的申明:當(dāng)你創(chuàng)建一個(gè)程序的時(shí)候,你在一個(gè)命名空間里創(chuàng)建了一個(gè)或多個(gè)類。C獨(dú)有的特點(diǎn):(1)中間代碼:微軟在用戶選擇何時(shí)MSIL應(yīng)該編譯成機(jī)器碼的時(shí)候是留了很大的余地。終端用戶能夠享受一個(gè)智能化的、個(gè)性化的Internet,它能記住用戶的個(gè)人設(shè)置,并在適當(dāng)?shù)臅r(shí)候,向用戶使用的智能設(shè)備上發(fā)送適當(dāng)?shù)臄?shù)據(jù)[10]。 開(kāi)創(chuàng)了全新的商業(yè)模型,它使得一個(gè)公司可以用多種方法來(lái)把自己的技術(shù)商品化。 。但Matlab強(qiáng)大的功能只能在它所提供的平臺(tái)上才能使用,也就是說(shuō),這樣就給工程計(jì)算帶來(lái)了很大不便;特別是,在matlab中,使用的行解釋方式執(zhí)行代碼,這樣大大地限制了代碼執(zhí)行速度。第四章 K近鄰法的分類器的設(shè)計(jì)與編程實(shí)現(xiàn) 開(kāi)發(fā)環(huán)境的選擇Matlab是當(dāng)今世界上使用最為廣泛的數(shù)學(xué)軟件,它具有相當(dāng)強(qiáng)大的數(shù)值計(jì)算、數(shù)據(jù)處理、系統(tǒng)分析、圖形顯示,甚至符號(hào)運(yùn)算功能,是一個(gè)完整的數(shù)學(xué)平臺(tái),在這個(gè)平臺(tái)上,你只需寥寥數(shù)語(yǔ)就可以完成十分復(fù)雜的功能,大大提高了工程分析計(jì)算的效率。通常線性分類器速度較快,而且實(shí)現(xiàn)方便,準(zhǔn)確率也不錯(cuò)。而基于人臉圖像整體特征識(shí)別方法,取得了比較好的識(shí)別性能。早期的人臉識(shí)別方法通常是以人臉器官位置、尺度作為描述人臉的特征。這個(gè)過(guò)程與模型評(píng)價(jià)基本相同,只是輸入數(shù)據(jù)的類別是未知的。模型的準(zhǔn)確度定義為測(cè)試集中結(jié)果正確的樣本的比例。用來(lái)評(píng)價(jià)模型的數(shù)據(jù)集稱為測(cè)試數(shù)據(jù)集或者測(cè)試樣本集,簡(jiǎn)稱測(cè)試集。用來(lái)構(gòu)造模型的數(shù)據(jù)集稱為訓(xùn)練數(shù)據(jù)集或者訓(xùn)練樣本集,即訓(xùn)練集。具體地說(shuō),每個(gè)步驟的功能如下:(1)模型構(gòu)造分析樣本的類別和其具備的一些特征之間的依賴關(guān)系,并將這種關(guān)系用特定的模型表示出來(lái)。 分類器的構(gòu)造方法分類的方法不同,模型的表示形式就不同。分類的目的就是發(fā)現(xiàn)X1,X2,Xm…和Y之間的依賴關(guān)系,這種依賴關(guān)系又稱為分類模型或者分類器。根據(jù)在分類中的作用,屬性可以分為條件屬性和目標(biāo)屬性兩種。分類是一種典型的有監(jiān)督的機(jī)器學(xué)習(xí)方法[3],其目的是從一組已知類別的數(shù)據(jù)中發(fā)現(xiàn)分類模型,以預(yù)測(cè)新數(shù)據(jù)的未知類別。第三章 分類器概述 分類器的概念分類器的定義:輸入的數(shù)據(jù)含有千萬(wàn)個(gè)記錄,每個(gè)記錄又有很多個(gè)屬性,其中有一個(gè)特別的屬性叫做類(例如信用程度的高,中,低)。對(duì)時(shí)間和空間的復(fù)雜性是必須考慮的。缺點(diǎn)是需要大量樣本才能保證數(shù)據(jù)的精度,此外,更主要的是它需要計(jì)算大量的樣本間的距離,導(dǎo)致使用上的不便。K近鄰算法綜合與未知樣本最近的K 個(gè)近鄰樣本的類別來(lái)預(yù)測(cè)未知樣本的類別,而在選擇樣本時(shí)根據(jù)一定的距離公式計(jì)算與未知樣本的距離來(lái)確定是否被選擇。它區(qū)別于歸納學(xué)習(xí)的主要特點(diǎn)是直接用已有的樣本來(lái)解決問(wèn)題,而不是通過(guò)規(guī)則推導(dǎo)來(lái)解決問(wèn)題。它實(shí)際并不需要產(chǎn)生額外的數(shù)據(jù)來(lái)描述規(guī)則,它的規(guī)則本身就是數(shù)據(jù)(樣本)。此外,為考慮提高性能,可以把所有的數(shù)據(jù)放在內(nèi)存中,如MBR通常指保存在內(nèi)存中的K近鄰算法。對(duì)于樣本的維護(hù),也并不是簡(jiǎn)單的增加新樣本。在KNN算法里對(duì)于模型的選擇,尤其是k值和距離的尺度,往往是通過(guò)對(duì)大量獨(dú)立的測(cè)試數(shù)據(jù),多個(gè)模型來(lái)驗(yàn)證最佳的選擇。權(quán)重法是較復(fù)雜的一種方法,對(duì)K個(gè)最近鄰居設(shè)置權(quán)重,距離越大,權(quán)重就越小。(3) 決定K的取值鄰居的個(gè)數(shù)對(duì)分類的結(jié)果有一定的影響,一般先確定一個(gè)初始值,再進(jìn)行調(diào)整,直到找到合適的值為止。如果樣本是空間中點(diǎn),最常用的是歐幾里德距離。這樣既降低了訓(xùn)練集的大小,由保持了較高的準(zhǔn)確度。 K近鄰法需要解決的問(wèn)題(1) 尋找適當(dāng)?shù)挠?xùn)練數(shù)據(jù)集訓(xùn)練數(shù)據(jù)集應(yīng)該是對(duì)歷史數(shù)據(jù)的一個(gè)很好的覆蓋,這樣才能保證最近鄰有利于預(yù)測(cè),選擇訓(xùn)練數(shù)據(jù)集的原則是使各類樣本的數(shù)量大體一致,另外,選取的歷史數(shù)據(jù)要有代表性。輸出:X的類別Y。當(dāng)訓(xùn)練樣本數(shù)趨近于∞時(shí),NN算法的分類誤差最差是最優(yōu)貝葉斯誤差的兩倍;另外,當(dāng)K趨近于∞時(shí),KNN算法的分類誤差收斂于最優(yōu)貝葉斯誤差。如果取K等于1,待分樣本的類別就是最近鄰居的類別,稱為NN算法。在自然社會(huì)中,通常一個(gè)對(duì)象受其近鄰的影響是不同的,通常是距離越近的對(duì)象對(duì)其影響越大[9]。因此最近鄰算法易受噪聲數(shù)據(jù)的影響,尤其是樣本空間中的孤立點(diǎn)的影響。最近鄰數(shù)k值的選取根據(jù)每類樣本中的數(shù)目和分散程度進(jìn)行的,對(duì)不同的應(yīng)用可以選取不同的k值。一個(gè)實(shí)例的最近鄰是根據(jù)標(biāo)準(zhǔn)歐氏距離定義,設(shè)x的特征向量為:a1(x),a2(x),…,an(x)其中,ar(x)表示實(shí)例x的第r個(gè)屬性值。這k個(gè)點(diǎn)就是未知樣本的k最近鄰。 K近鄰法算法研究 K近鄰法的數(shù)學(xué)模型用最近鄰方法進(jìn)行預(yù)測(cè)的理由是基于假設(shè):近鄰的對(duì)象具有類似的預(yù)測(cè)值。優(yōu)點(diǎn):簡(jiǎn)單,應(yīng)用范圍廣;可以通過(guò)SQL語(yǔ)句實(shí)現(xiàn);模型不需要預(yù)先構(gòu)造。這與決策數(shù)和反向傳播算法等形成鮮明對(duì)比,后者在接受待分類的新樣本之前需要構(gòu)造一個(gè)一般模型。 176。 .. .. 176。 176。 .。....176。K近鄰算法從測(cè)試樣本X開(kāi)始生長(zhǎng),不斷的擴(kuò)大區(qū)域,直到包含進(jìn)K個(gè)訓(xùn)練樣本,并且把測(cè)試樣本X的類別歸為著最近的K個(gè)訓(xùn)練樣本中出現(xiàn)頻率最大的類別。取未知樣本X的K個(gè)近鄰,看著K個(gè)近鄰多數(shù)屬于哪一類,就把X分為哪一類。上式即是最近法錯(cuò)誤率的計(jì)算公式從上面可以看出近鄰法有方法簡(jiǎn)單的優(yōu)點(diǎn),但也存在這一些缺點(diǎn):(1)存儲(chǔ)量和計(jì)算量都很大;(2)沒(méi)有考慮決策的風(fēng)險(xiǎn),如果決策的錯(cuò)誤代價(jià)很大時(shí),會(huì)產(chǎn)生很大的風(fēng)險(xiǎn);(3)以上的分析——漸近平均錯(cuò)誤率,都是建立在樣本數(shù)趨向無(wú)窮大的條件下得來(lái)的,在實(shí)際應(yīng)用時(shí)大多是無(wú)法實(shí)現(xiàn)的。那么,任何樣本落入以為中心的一個(gè)超球 S 中的概率為N個(gè)獨(dú)立的樣本落在 S 外的概率為 即是,一個(gè)樣本也不落在 S 內(nèi)的概率為0,也就是說(shuō)總有一個(gè)樣本落在 S 內(nèi)的概率為1。對(duì)于取平均 下面我們看一下上面的兩個(gè)表達(dá)式。 B□ A? A ●□ ●B A □ ●B A B□ ● 近鄰法分類圖示給定c 個(gè)類別 ,每類有標(biāo)明類別的樣本個(gè),近鄰法的判別函數(shù)為決策法則為直觀的說(shuō),就是對(duì)待識(shí)別的模式向量,只要比較與所有已知類別的樣本之間的歐式距離,并決策與離它最近的樣本同類。決策規(guī)則可以寫(xiě)為:若gj(x)=min gi(x),i=1,2,…,c,則決策x∈wj。規(guī)定wi類的判別函數(shù)為gi(x)=min ||xxik||,k=1,2,…,Ni。最近鄰是將所有訓(xùn)練樣本都作為代表點(diǎn),因此在分類時(shí)需要計(jì)算待識(shí)別樣本x到所有訓(xùn)練樣本的距離,結(jié)果就是與x最近鄰的訓(xùn)練樣本所屬于的類別。在K近鄰分類器中,一個(gè)重要的參數(shù)是K值的選擇,K值選擇過(guò)小,不能充分體現(xiàn)待分類樣本的特點(diǎn),而如果K值選擇過(guò)大。近鄰法是模式識(shí)別非參數(shù)法中最重要的方法之一,最初的近鄰法是Cover和Hart于1968年提出的,由于該方法在理論上進(jìn)行了深入分析,直至現(xiàn)在仍是分類方法中最重要的方法之一[7]。最后一章總結(jié)論文中的主要工作和結(jié)果。本文的第3章介紹了分類器的概念和分類器的構(gòu)造方法。其中K近鄰算法必須明確兩個(gè)基本的因素:最近案例的數(shù)目K和距離的尺度。本文的第1章是緒論,說(shuō)明本設(shè)計(jì)課題的來(lái)源、目的、意義、國(guó)內(nèi)外研究狀況、應(yīng)解決的問(wèn)題急應(yīng)達(dá)到的技術(shù)要求。所以需要改良。在小規(guī)模仿真的時(shí)候使用精度較高的knn分類器,在大規(guī)模仿真和實(shí)際Web檢驗(yàn)的時(shí)候使用knn分類器就沒(méi)有有更好
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1