freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

遙感圖像幾種分類方法的研究比較畢業(yè)論文-文庫(kù)吧資料

2025-07-04 06:30本頁(yè)面
  

【正文】 入的數(shù)據(jù)進(jìn)行推理判斷,歸入相應(yīng)的分類類別。知識(shí)庫(kù)是問(wèn)題求解所需領(lǐng)域知識(shí)的集合,其中的知識(shí)源于領(lǐng)域?qū)<遥菦Q定專家系統(tǒng)的關(guān)鍵,即知識(shí)庫(kù)中知識(shí)的質(zhì)量水平,用戶可以通過(guò)改變、完善知識(shí)庫(kù)中的知識(shí)來(lái)提高專家系統(tǒng)的性能。專家系統(tǒng)的思想是模擬人類組合各種帶有因果關(guān)系的知識(shí)推理并得出結(jié)論。 每一個(gè)事實(shí)與知識(shí)庫(kù)中的每一知識(shí)按一定的推理方式進(jìn)行匹配,當(dāng)一個(gè)事物的屬性滿足知識(shí)中的條件項(xiàng),或大部分滿足時(shí),則按知識(shí)中的THEN 以置信度確定歸屬。 其核心內(nèi)容是知識(shí)庫(kù)(Knowledge Base)和推理機(jī)(Inference Engine),知識(shí)庫(kù)中存儲(chǔ)著多種與影像解譯有關(guān)的知識(shí)和經(jīng)驗(yàn),專家的經(jīng)驗(yàn)和知識(shí)以某種形式,如產(chǎn)生規(guī)則IF 條件 THEN 假設(shè) CF (其中CF 為可信度)表示,由諸多知識(shí)組成知識(shí)庫(kù)。利用Lagrange優(yōu)化方法可以把上述最優(yōu)分類面問(wèn)題轉(zhuǎn)化為其對(duì)偶問(wèn)題,即在約束條件和下對(duì)求解下列函數(shù)的最大值: ()為與每個(gè)樣本的對(duì)應(yīng)的Language乘子,求解對(duì)應(yīng)的樣本就是支撐向量,得到最優(yōu)的分類函數(shù): ()對(duì)于非線性問(wèn)題,可以通過(guò)非線性變換轉(zhuǎn)化為某個(gè)高維空間中的線性問(wèn)題,在變換空間最優(yōu)分類面,選用合適的核函數(shù)滿足Mercer條件變換,到高維空間,目標(biāo)函數(shù)()變換為 ()相應(yīng)的分類函數(shù)變?yōu)? ()SVM有以下幾個(gè)優(yōu)點(diǎn):構(gòu)造SVM可以加快學(xué)習(xí)過(guò)程;構(gòu)造SVM能夠解決一些其他方法無(wú)法解決的問(wèn)題;構(gòu)造決策股則的同時(shí),得到了支持向量;新的決策函數(shù)只通過(guò)改變定義空間的核函數(shù)即可實(shí)現(xiàn)。同理,在多維空間假定訓(xùn)練數(shù)據(jù)可以被一個(gè)超平面分開,如果這個(gè)向量集合能被超平面沒(méi)有錯(cuò)誤地分開,并且離超平面最近的向量與超平面之間的距離最大,則稱這個(gè)向量集合被這個(gè)最優(yōu)超平面(Optimal Separating Hyperplane,簡(jiǎn)稱OSH)最大分開。近年來(lái),基于神經(jīng)網(wǎng)絡(luò)的分類方法越來(lái)越引起人們的重視。目前己經(jīng)提出了多種用于模式分類的神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)模型和學(xué)習(xí)算法,比較典型的有感知機(jī)、多層BP網(wǎng)絡(luò)、RBP網(wǎng)絡(luò)、自組織映射的Kohonen網(wǎng)絡(luò)等。在處理以數(shù)據(jù)量多、含混度高著稱的遙感圖像的模式識(shí)別問(wèn)題時(shí),利用多層神經(jīng)網(wǎng)絡(luò)有利于實(shí)現(xiàn)多特征空間的非線性劃分。在神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)的信息處理是由神經(jīng)元之間的相互連接實(shí)現(xiàn)的,知識(shí)和信息表現(xiàn)為神經(jīng)元之間的相互連接。作為人工智能的人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)的研究則是五十年代末和六十年代初開始的。人工神經(jīng)網(wǎng)絡(luò)是由大量處理單元(神經(jīng)元)廣泛連接而成的網(wǎng)絡(luò),是人腦的某種抽象、簡(jiǎn)化與模擬,反映了人腦的基本特征。訓(xùn)練樣本集屬性分類生成決策樹修剪決策樹評(píng)估決策樹決策樹決策樹規(guī)則集分類結(jié)果待分?jǐn)?shù)劇集分類 (2)決策樹技術(shù)應(yīng)用于遙感影像的土地利分類過(guò)程中的優(yōu)點(diǎn)決策械方法不需要假設(shè)先驗(yàn)概率分布,這種非參數(shù)化的特點(diǎn)使其具有更好的靈活性和魯棒性,因此,當(dāng)遙感影像數(shù)據(jù)特征的空間分布很復(fù)雜,或者多源數(shù)據(jù)各維具有不同的統(tǒng)計(jì)分布和尺度時(shí),用決策樹分類法能獲得理想的分類結(jié)果;決策樹技術(shù)不僅可以利用連續(xù)實(shí)數(shù)或離散數(shù)值的樣本,而且可以利用“語(yǔ)義數(shù)據(jù)”,比如離散的語(yǔ)義數(shù)值:東、南、西、北、東南、東北、西南、西北;決策樹方法生成的決策樹或產(chǎn)生式規(guī)則集具有結(jié)構(gòu)簡(jiǎn)單直觀、容易理解、以及計(jì)算效率高的特點(diǎn),可以供專家分析、判斷和修正,也可以輸入到專家系統(tǒng)中,而且對(duì)于大數(shù)據(jù)量的遙感影像處理更有優(yōu)勢(shì);決策樹方法能夠有效地抑制訓(xùn)練樣本噪音和解決屬性缺失問(wèn)題,因此可以解決由于訓(xùn)練樣本存在噪聲(可能由傳感器噪聲、漏掃描、信號(hào)混合、各種預(yù)處理誤差等原因造成)使得分類精度降低的問(wèn)題。在結(jié)點(diǎn)上進(jìn)行屬性值的比較并根據(jù)各訓(xùn)練樣本對(duì)應(yīng)的不同屬性值判斷從該結(jié)點(diǎn)向下的分支,在每個(gè)分支子集中重復(fù)建立下層結(jié)點(diǎn)和分支,并在一定條件下停止樹的生長(zhǎng),在決策樹的葉結(jié)點(diǎn)得到結(jié)論,形成決策樹。決策樹學(xué)習(xí)算法的輸入是由屬性和屬性值表示的訓(xùn)練樣本集,輸出是一棵決策樹(也可以擴(kuò)展為其它的表示形式,如規(guī)則集等)。決策樹學(xué)習(xí)過(guò)程是通過(guò)對(duì)訓(xùn)練樣本進(jìn)行歸納學(xué)習(xí)(Inductive 1earning),生成以決策樹形式表示的分類規(guī)則的機(jī)器學(xué)習(xí)(Machine learning)過(guò)程。(7) 以test_attribute 標(biāo)記節(jié)點(diǎn)N;(8) For each test_attribute 的已知值v //劃分 samples(9) 由節(jié)點(diǎn)N分出一個(gè)對(duì)應(yīng)test_attribute=v的分支;(10)令Sv為 samples中 test_attribute=v 的樣本集合;//一個(gè)劃分塊(11) If Sv為空 then (12) 加上一個(gè)葉節(jié)點(diǎn),以samples中最普遍的類標(biāo)記;(13) Else 加入一個(gè)由Decision_Tree(Sv,attribute_listtest_attribute返回節(jié)點(diǎn)值。輸出 一棵決策樹。算法 Decision_Tree(samples,attribute_list)輸入 由離散值屬性描述的訓(xùn)練樣本集samples。(c)分支test_attribute=ai 沒(méi)有樣本。這涉及將給定的結(jié)點(diǎn)轉(zhuǎn)換成樹葉,并用samples中的多數(shù)所在類別標(biāo)記它。(b)沒(méi)有剩余屬性可以用來(lái)進(jìn)一步劃分樣本(步驟4)。一旦一個(gè)屬性出現(xiàn)在一個(gè)結(jié)點(diǎn)上,就不必考慮該結(jié)點(diǎn)的任何后代(步驟13)?!?對(duì)測(cè)試屬性的每個(gè)已知的值,創(chuàng)建一個(gè)分支,并據(jù)此劃分樣本(步驟8~10)。值得注意的是,在這類算法中,所有的屬性都是分類的,即取離散值的?!?否則,算法使用稱為信息增益的機(jī)遇熵的度量為啟發(fā)信息,選擇能最好地將樣本分類的屬性(步驟6)。構(gòu)造決策樹的方法是采用自上而下的遞歸構(gòu)造,其思路是:■ 以代表訓(xùn)練樣本的單個(gè)結(jié)點(diǎn)開始建樹(步驟1)。與其它分類方法相比,規(guī)則更簡(jiǎn)潔、更便于人們理解、使用和修改,可以構(gòu)成專家系統(tǒng)的基礎(chǔ)。決策樹除了以樹的形式表示外,還可以表示為一組IF—THEN形式的產(chǎn)生式規(guī)則。決策樹的每個(gè)內(nèi)部結(jié)點(diǎn)對(duì)應(yīng)一個(gè)非類別屬性或?qū)傩缘募?也稱為測(cè)試屬性),每條邊對(duì)應(yīng)該屬性的每個(gè)可能值。(1)決策樹分類算法決策樹算法:決策樹(Decision tree)是通過(guò)對(duì)訓(xùn)練樣本進(jìn)行歸納學(xué)習(xí)生成決策樹或決策規(guī)則,然后使用決策樹或決策規(guī)則對(duì)新數(shù)據(jù)進(jìn)行分類的一種數(shù)學(xué)方法。 主要缺點(diǎn):對(duì)其結(jié)果需進(jìn)行大量分析及后處理,才能得到可靠分類結(jié)果;分類出的集群與地類間,或?qū)?yīng)、或不對(duì)應(yīng),加上普遍存在的“同物異譜”及“異物同譜”現(xiàn)象,使集群組與類別的匹配難度大;因各類別光譜特征隨時(shí)間、地形等變化,則不同圖像間的光譜集群組無(wú)法保持其連續(xù)性,難以對(duì)比。主要優(yōu)點(diǎn):無(wú)需對(duì)分類區(qū)域有廣泛地了解,僅需一定的知識(shí)來(lái)解釋分類出的集群組;人為誤差的機(jī)會(huì)減少,需輸入的初始參數(shù)較少(往往僅需給出所要分出的集群數(shù)量、計(jì)算迭代次數(shù)、分類誤差的閾值等);可以形成范圍很小但具有獨(dú)特光譜特征的集群,所分的類別比監(jiān)督分類的類別更均質(zhì);獨(dú)特的、覆蓋量小的類別均能夠被識(shí)別。ISODATA 算法是個(gè)循環(huán)過(guò)程。主要環(huán)節(jié)是聚類、集群分裂和集群合并等處理。它從樣本平均迭代來(lái)確定聚類的中心,在每一次迭代時(shí),首先在不改變類別數(shù)目的前提下改變分類。可以通過(guò)其它的簡(jiǎn)單的聚類中心試探方法來(lái)找出初始中心,提高分類結(jié)果。開始選擇m個(gè)中心Z1,Z2…,Zn所有象元分到m個(gè)集群中心子計(jì)算新的集群中心聚類中心不變結(jié)束 Kmeans分類算法流程框Kmeans分類方法簡(jiǎn)便易行,其基本思想就是:通過(guò)迭代,逐次移動(dòng)各類的中心,直至得到最好的聚類結(jié)果為止。逐點(diǎn)修改聚類中心就是一個(gè)像元樣本按照某種原則屬于某一組類后,重新計(jì)算這個(gè)組類的均值,并且以新的均值作為聚類中心點(diǎn)進(jìn)行下一次像元的聚類。然后修改聚類中心,以便進(jìn)行下一次迭代。一般先按某些原則選擇一些代表點(diǎn)作為聚類的核心,然后把其余的待分點(diǎn)按某種方法分到各類中去,完成初始分類。 Kmeans算法K均值分類法也稱為kmeans算法,是一種較典型的逐點(diǎn)修改迭代的動(dòng)態(tài)運(yùn)算的聚類算法,也是一種普遍采用的一種算法。非監(jiān)督分類算法的核心問(wèn)題是初始類別參數(shù)的選定,以及它的迭代調(diào)整問(wèn)題。非監(jiān)督分類主要采用聚類分析的方法,聚類是把一組像素按照相似性歸屬為若干類別。由于在一幅復(fù)雜的圖像中,訓(xùn)練區(qū)有時(shí)不能包括所有的地物光譜樣式,這樣就造成一部分像元找不到歸屬。遙感圖像上的同類地物在相同的地表結(jié)構(gòu)特征、植被覆蓋、光照等條件下,一般具有相同的或相近的光譜特征,從而表現(xiàn)出某種內(nèi)在的相似性,歸屬于同一光譜空間區(qū)域;不同的地物,光譜信息特征不同,歸屬于不同的光譜空間區(qū)域。非監(jiān)督分類是指人們事先對(duì)分類過(guò)程不施加任何的先驗(yàn)知識(shí),僅憑遙感圖像地物的光譜特征的分布規(guī)律,隨其自然地進(jìn)行自目的分類。主要缺點(diǎn):人為主觀因素較強(qiáng);訓(xùn)練樣本的選取和評(píng)估需花費(fèi)較多的人力、時(shí)間;只能識(shí)別訓(xùn)練樣本中所定義的類別,對(duì)于因訓(xùn)練者不知或因數(shù)量太少未被定義的類別,監(jiān)督分類不能識(shí)別,從而影響分結(jié)果(對(duì)土地覆蓋類型復(fù)雜的地區(qū)需特別注意)。通常使用馬氏距離、歐氏距離、計(jì)程距離這三種判別函數(shù)。因此,在這類分類方法中距離就是一個(gè)判別函數(shù)。首先有訓(xùn)練樣本數(shù)據(jù)得出每一類別的均值向量和協(xié)防差矩陣,然后以各類的均值向量作為該類在多維空間中的中心位置。主要問(wèn)題是按照各個(gè)波段的均值為標(biāo)準(zhǔn)差劃分的平行多面體與實(shí)際地物類別數(shù)據(jù)點(diǎn)分布的點(diǎn)群形態(tài)不一致,也就造成倆類的互相重疊,混淆不清的情況。式中T為人為規(guī)定的一個(gè)閾值,相當(dāng)于有概率分布觸發(fā),采用幾個(gè)標(biāo)準(zhǔn)差作為可信的分類邊界,T越大則一個(gè)類的范圍越大。若有n個(gè)波段,m個(gè)類別,用代表第i類第j波段的均值,為對(duì)應(yīng)的標(biāo)準(zhǔn)差,為像元x在j波段的像元值。 平行多面體分類方法平行多面體分類法是根據(jù)設(shè)定在各軸上的值域,在多維數(shù)據(jù)特征空間中劃分出若干個(gè)互不重疊的平行多面體塊段(特征子空間)。利用GIS 數(shù)據(jù)來(lái)輔助最大似然法分類,可以提高分類精度,通過(guò)建立知識(shí)庫(kù)指導(dǎo)分類的進(jìn)行,可以減少分類的錯(cuò)誤,這是提高最大似然法分類的精度的有效途。該分類法錯(cuò)誤最小精度高,是較好的一種分類方法。最大似然比判決分類方法是建立在貝葉斯準(zhǔn)則基礎(chǔ)上的,其分類錯(cuò)誤概率最小,是風(fēng)險(xiǎn)最小的判決分析,是典型的和應(yīng)用最廣的監(jiān)督分類方法,偏重于集群分布的統(tǒng)計(jì)特性,并假定訓(xùn)練樣本數(shù)據(jù)在光譜空間服從高斯正態(tài)分布。根據(jù)分類結(jié)果產(chǎn)生的混淆矩陣中的總精度和Kappa系數(shù)對(duì)分類結(jié)果進(jìn)行評(píng)價(jià)。圖像分類運(yùn)算就是根據(jù)判別函數(shù)和判別準(zhǔn)則對(duì)非訓(xùn)練樣本區(qū)進(jìn)行分類,對(duì)特征向量集進(jìn)行劃分、完成分類識(shí)別工作。(4)確定判別函數(shù)和判別規(guī)則。因?yàn)榇蟮臄?shù)量除了增加計(jì)算量外也帶來(lái)尋找的困難。因?yàn)閺慕y(tǒng)計(jì)學(xué)的觀點(diǎn)來(lái)看只有在一定數(shù)量上的統(tǒng)計(jì)才有意義。當(dāng)采用最大似然法對(duì)樣本數(shù)目至少要n+l個(gè)(n為特征空間的維數(shù)),因?yàn)樯儆谶@個(gè)數(shù)目協(xié)方差矩陣將是奇異的,行列式為0,也無(wú)逆陣。⑤數(shù)量,要使各類訓(xùn)練樣本能夠提供各類的足夠信息和克服各種偶然因素的影響,各類訓(xùn)練樣本應(yīng)該有足夠樣本數(shù)。③代表性,訓(xùn)練場(chǎng)地樣本應(yīng)該在各類地物面積較大的中心部分進(jìn)行選取,而不應(yīng)在各類地物的混交地區(qū)和類別的邊緣選取,以保證數(shù)據(jù)的單純性(均一物質(zhì)的亮度值)。但是對(duì)訓(xùn)練樣本的選取要求是一致的,其要求是:①類別,選擇的訓(xùn)練場(chǎng)地所包含的類別在種類上應(yīng)與研究地域所要區(qū)分的類別一致。訓(xùn)練樣本的選取包括兩個(gè)方面,一是確定要分類的地物類型;二是確定訓(xùn)練樣本的數(shù)量。訓(xùn)練樣本的選擇是非常重要的一步,在監(jiān)督分類中由于訓(xùn)練樣本的不同,分類結(jié)果就會(huì)出現(xiàn)極大的差異。根據(jù)感興趣地物的特征進(jìn)行有針對(duì)的特征變換,變換之后的特征影像和原始影像共同進(jìn)行特征選擇,以選出既能滿足分類分類需要,又盡可能少參與分類的特征影像,加快分類速度,提高分類精度。采用KL變換選取能量較大的M個(gè)分量代替原來(lái)的D個(gè)分量。最常用的特征變換是主分量變換,KL變換的主要特點(diǎn)是:(1)變換前后方差總和不變,而是把原來(lái)方差等量的再分配到新的組分圖像中;(2)第一組分取得方差的絕大部分,一般占80%以上,也就是說(shuō)KL變換的結(jié)果使得第一主成分幾乎包含了原來(lái)多個(gè)波段信息的絕大部分內(nèi)容,其他組分圖像的方差依次減少,包含的信息量也劇減;(3)各組分之間相關(guān)系數(shù)為0或接近0,也就是說(shuō)各組分圖像所包含的信息內(nèi)容在很大程度上是不同的;(4)第一主成分相當(dāng)于原來(lái)各波段的加權(quán)和,而權(quán)值又與該波段的方差大小成正比(方差大,則圖像包含的信息量大),反映了地物總的反射強(qiáng)度。特征變換就是原圖像通過(guò)一定的數(shù)字變換生成一組新的特征圖像,這一組新的特征影像信息集中在少數(shù)幾個(gè)特征圖像上,這樣數(shù)據(jù)量有所減少。首先確定對(duì)哪些地物進(jìn)行分類,這樣就可以建立這些地物的先驗(yàn)知識(shí)。:數(shù)據(jù)獲取和預(yù)處理特征提取和選擇分類器設(shè)計(jì)圖像分類 遙感分類流程遙感圖像計(jì)算機(jī)分類處理的基本過(guò)程「27],包括原始圖像的預(yù)處理、訓(xùn)練樣本的選擇、特征的選擇和特征提取、分類器設(shè)計(jì)、圖像分類、結(jié)果輸出以及結(jié)果檢驗(yàn)等。另外,對(duì)于遙感圖像分類來(lái)說(shuō),由于各種地物波譜輻射的復(fù)雜性以及干擾因素的多樣性,有時(shí)僅僅考慮在某特定時(shí)間和空間內(nèi)選取訓(xùn)練樣本還是不夠的,為了提高分類的精度,這時(shí)還必須多選取一些樣本組和研究一些新的分類算法。自然,監(jiān)督分類的精度要比非監(jiān)督分類的方法高些,準(zhǔn)確性要好一些,但是監(jiān)督分類的工作量也要比非監(jiān)督分類方法大得多。除此之外,尚有模擬自然語(yǔ)言的句法結(jié)構(gòu)分類方法和模糊數(shù)學(xué)分類方法等。第二章 遙感圖像的分類 監(jiān)督分類監(jiān)督分類就是先用某些己知訓(xùn)練樣本讓分類識(shí)別系統(tǒng)進(jìn)行學(xué)習(xí),待其掌握了各個(gè)類別的特征后,按照分類的決策規(guī)則進(jìn)行分類下去的過(guò)程。 論文結(jié)構(gòu)本文分為五部分。(5)通過(guò)野外的實(shí)地考察,收集各方面的數(shù)據(jù)資料(包括影像圖和實(shí)地采樣數(shù)據(jù)),為提高分類精度提供基礎(chǔ)。 研究方法(1)在廣泛查閱國(guó)內(nèi)外有關(guān)遙感影像分類的文獻(xiàn)資料后,進(jìn)一步了解遙感分類的研究進(jìn)展和發(fā)展趨勢(shì),重點(diǎn)是最大似然法和決策樹在遙感分類中的應(yīng)用與研究現(xiàn)狀。研究過(guò)程中,傳統(tǒng)的監(jiān)督分類方法是采用分類精度較高的最大似然分類法和最小距離法;決策樹分類方法采用地物樣本的不同特征差異建立決策規(guī)則作為
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1