freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

遙感圖像幾種分類方法的研究比較畢業(yè)論文(編輯修改稿)

2024-07-25 06:30 本頁(yè)面
 

【文章內(nèi)容簡(jiǎn)介】 本所屬類別完成樣本的聚類分析,而且可以自動(dòng)的進(jìn)行類別的“合并”和“分裂”,從而得到類數(shù)比較合理的聚類效果。ISODATA 算法是個(gè)循環(huán)過(guò)程。輸入?yún)?shù)改變輸入?yún)?shù)最后一次迭代計(jì)算聚類中心及均值等近鄰聚類 最后一次迭代Nck/2完成分裂運(yùn)算.置c=0符合合并條件見條件合并運(yùn)算符合合并條件結(jié)束 YYNYYNYNYNN ISODATA算法流程圖其初始的集群組是隨機(jī)地在整幅圖像的特征空間選擇Cmax,基本的步驟為:①初始隨機(jī)的選擇Cmax 中心;②計(jì)算其他像元離這些中心的距離,按照最小距離規(guī)則劃分到其對(duì)應(yīng)的集群中;③重新計(jì)算每個(gè)集群的均值,按照前面定義的參數(shù)合并或分開集群組;④重復(fù)②和③,直到達(dá)到最大不變像元百分比,或者最長(zhǎng)運(yùn)轉(zhuǎn)時(shí)間。主要優(yōu)點(diǎn):無(wú)需對(duì)分類區(qū)域有廣泛地了解,僅需一定的知識(shí)來(lái)解釋分類出的集群組;人為誤差的機(jī)會(huì)減少,需輸入的初始參數(shù)較少(往往僅需給出所要分出的集群數(shù)量、計(jì)算迭代次數(shù)、分類誤差的閾值等);可以形成范圍很小但具有獨(dú)特光譜特征的集群,所分的類別比監(jiān)督分類的類別更均質(zhì);獨(dú)特的、覆蓋量小的類別均能夠被識(shí)別。 主要缺點(diǎn):對(duì)其結(jié)果需進(jìn)行大量分析及后處理,才能得到可靠分類結(jié)果;分類出的集群與地類間,或?qū)?yīng)、或不對(duì)應(yīng),加上普遍存在的“同物異譜”及“異物同譜”現(xiàn)象,使集群組與類別的匹配難度大;因各類別光譜特征隨時(shí)間、地形等變化,則不同圖像間的光譜集群組無(wú)法保持其連續(xù)性,難以對(duì)比。決策樹分類作為一種基于空間數(shù)據(jù)挖掘和知識(shí)發(fā)現(xiàn)(Spatial Data Mining and Knowledge Discovery,SDM&KD)的監(jiān)督分類方法,突破了以往分類樹或分類規(guī)則的構(gòu)建要利用分類者的生態(tài)學(xué)和遙感知識(shí)先驗(yàn)確定、其結(jié)果往往與其經(jīng)驗(yàn)和專業(yè)知識(shí)水平密切相關(guān)的問(wèn)題,而是通過(guò)決策樹學(xué)習(xí)過(guò)程得到分類規(guī)則并進(jìn)行分類,分類樣本屬于嚴(yán)格“非參”,不需要滿足正態(tài)分布,可以充分利用GIS數(shù)據(jù)庫(kù)中的地學(xué)知識(shí)輔助分類,大大提高了分類精度。(1)決策樹分類算法決策樹算法:決策樹(Decision tree)是通過(guò)對(duì)訓(xùn)練樣本進(jìn)行歸納學(xué)習(xí)生成決策樹或決策規(guī)則,然后使用決策樹或決策規(guī)則對(duì)新數(shù)據(jù)進(jìn)行分類的一種數(shù)學(xué)方法。決策樹是一個(gè)樹型結(jié)構(gòu),它由一個(gè)根結(jié)點(diǎn)(Rootnode)、一系列內(nèi)部結(jié)點(diǎn)(Internal nodes)及葉結(jié)點(diǎn)(Leaf nodes)組成每一結(jié)點(diǎn)只有一個(gè)父結(jié)點(diǎn)和兩個(gè)或多個(gè)子結(jié)點(diǎn),結(jié)點(diǎn)間通過(guò)分支相連。決策樹的每個(gè)內(nèi)部結(jié)點(diǎn)對(duì)應(yīng)一個(gè)非類別屬性或?qū)傩缘募?也稱為測(cè)試屬性),每條邊對(duì)應(yīng)該屬性的每個(gè)可能值。決策樹的葉結(jié)點(diǎn)對(duì)應(yīng)一個(gè)類別屬性值,不同的葉結(jié)點(diǎn)可以對(duì)應(yīng)相同的類別屬性值。決策樹除了以樹的形式表示外,還可以表示為一組IF—THEN形式的產(chǎn)生式規(guī)則。決策樹中每條由根到葉的路徑對(duì)應(yīng)著一條規(guī)則,規(guī)則的條件是這條路徑上所有結(jié)點(diǎn)屬性值的舍取,規(guī)則的結(jié)論是這條路徑上葉結(jié)點(diǎn)的類別屬性。與其它分類方法相比,規(guī)則更簡(jiǎn)潔、更便于人們理解、使用和修改,可以構(gòu)成專家系統(tǒng)的基礎(chǔ)。因此在實(shí)際應(yīng)用中更多的是使用規(guī)則。構(gòu)造決策樹的方法是采用自上而下的遞歸構(gòu)造,其思路是:■ 以代表訓(xùn)練樣本的單個(gè)結(jié)點(diǎn)開始建樹(步驟1)。■ 如果樣本都在同一類,則該結(jié)點(diǎn)成為樹葉,并用該類標(biāo)記(步驟2和3)?!?否則,算法使用稱為信息增益的機(jī)遇熵的度量為啟發(fā)信息,選擇能最好地將樣本分類的屬性(步驟6)。該屬性成為該結(jié)點(diǎn)的“測(cè)試”或“判定”屬性(步驟7)。值得注意的是,在這類算法中,所有的屬性都是分類的,即取離散值的。連續(xù)值的屬性必須離散化?!?對(duì)測(cè)試屬性的每個(gè)已知的值,創(chuàng)建一個(gè)分支,并據(jù)此劃分樣本(步驟8~10)。■ 算法使用同樣的過(guò)程,遞歸地形成每個(gè)劃分上的樣本決策樹。一旦一個(gè)屬性出現(xiàn)在一個(gè)結(jié)點(diǎn)上,就不必考慮該結(jié)點(diǎn)的任何后代(步驟13)?!?遞歸劃分步驟,當(dāng)下列條件之一成立時(shí)停止:(a)給定結(jié)點(diǎn)的所有樣本屬于同一類(步驟2和3)。(b)沒有剩余屬性可以用來(lái)進(jìn)一步劃分樣本(步驟4)。在此情況下,采用多數(shù)表決(步驟5)。這涉及將給定的結(jié)點(diǎn)轉(zhuǎn)換成樹葉,并用samples中的多數(shù)所在類別標(biāo)記它。換一種方式,可以存放結(jié)點(diǎn)樣本的類分布。(c)分支test_attribute=ai 沒有樣本。在這種情況下,以samples中的多數(shù)類創(chuàng)建一個(gè)樹葉(步驟12)。算法 Decision_Tree(samples,attribute_list)輸入 由離散值屬性描述的訓(xùn)練樣本集samples。候選屬性集合attribute_list。輸出 一棵決策樹。(1) 創(chuàng)建節(jié)點(diǎn)N;(2) If samples 都在同一類C中then (3) 返回N作為葉節(jié)點(diǎn),以類C標(biāo)記;(4) If attribute_list為空then (5) 返回N作為葉節(jié)點(diǎn),以samples 中最普遍的類標(biāo)記;//多數(shù)表決(6) 選擇attribute_list 中具有最高信息增益的屬性test_attribute。(7) 以test_attribute 標(biāo)記節(jié)點(diǎn)N;(8) For each test_attribute 的已知值v //劃分 samples(9) 由節(jié)點(diǎn)N分出一個(gè)對(duì)應(yīng)test_attribute=v的分支;(10)令Sv為 samples中 test_attribute=v 的樣本集合;//一個(gè)劃分塊(11) If Sv為空 then (12) 加上一個(gè)葉節(jié)點(diǎn),以samples中最普遍的類標(biāo)記;(13) Else 加入一個(gè)由Decision_Tree(Sv,attribute_listtest_attribute返回節(jié)點(diǎn)值。決策樹方法主要是決策樹學(xué)習(xí)和決策樹分類兩個(gè)過(guò)程。決策樹學(xué)習(xí)過(guò)程是通過(guò)對(duì)訓(xùn)練樣本進(jìn)行歸納學(xué)習(xí)(Inductive 1earning),生成以決策樹形式表示的分類規(guī)則的機(jī)器學(xué)習(xí)(Machine learning)過(guò)程。決策樹學(xué)習(xí)的實(shí)質(zhì)是從一組無(wú)次序、無(wú)規(guī)則的事例中推理出決策樹表示形式的分類規(guī)則。決策樹學(xué)習(xí)算法的輸入是由屬性和屬性值表示的訓(xùn)練樣本集,輸出是一棵決策樹(也可以擴(kuò)展為其它的表示形式,如規(guī)則集等)。決策樹的生成通常采用自頂向下的遞歸方式,通過(guò)某種方法選擇最優(yōu)的屬性作為樹的結(jié)點(diǎn)。在結(jié)點(diǎn)上進(jìn)行屬性值的比較并根據(jù)各訓(xùn)練樣本對(duì)應(yīng)的不同屬性值判斷從該結(jié)點(diǎn)向下的分支,在每個(gè)分支子集中重復(fù)建立下層結(jié)點(diǎn)和分支,并在一定條件下停止樹的生長(zhǎng),在決策樹的葉結(jié)點(diǎn)得到結(jié)論,形成決策樹。通過(guò)對(duì)訓(xùn)練樣本進(jìn)行決策樹學(xué)習(xí)生成決策樹,決策樹可以根據(jù)屬性的取值對(duì)一個(gè)未知樣本集進(jìn)行分類。訓(xùn)練樣本集屬性分類生成決策樹修剪決策樹評(píng)估決策樹決策樹決策樹規(guī)則集分類結(jié)果待分?jǐn)?shù)劇集分類 (2)決策樹技術(shù)應(yīng)用于遙感影像的土地利分類過(guò)程中的優(yōu)點(diǎn)決策械方法不需要假設(shè)先驗(yàn)概率分布,這種非參數(shù)化的特點(diǎn)使其具有更好的靈活性和魯棒性,因此,當(dāng)遙感影像數(shù)據(jù)特征的空間分布很復(fù)雜,或者多源數(shù)據(jù)各維具有不同的統(tǒng)計(jì)分布和尺度時(shí),用決策樹分類法能獲得理想的分類結(jié)果;決策樹技術(shù)不僅可以利用連續(xù)實(shí)數(shù)或離散數(shù)值的樣本,而且可以利用“語(yǔ)義數(shù)據(jù)”,比如離散的語(yǔ)義數(shù)值:東、南、西、北、東南、東北、西南、西北;決策樹方法生成的決策樹或產(chǎn)生式規(guī)則集具有結(jié)構(gòu)簡(jiǎn)單直觀、容易理解、以及計(jì)算效率高的特點(diǎn),可以供專家分析、判斷和修正,也可以輸入到專家系統(tǒng)中,而且對(duì)于大數(shù)據(jù)量的遙感影像處理更有優(yōu)勢(shì);決策樹方法能夠有效地抑制訓(xùn)練樣本噪音和解決屬性缺失問(wèn)題,因此可以解決由于訓(xùn)練樣本存在噪聲(可能由傳感器噪聲、漏掃描、信號(hào)混合、各種預(yù)處理誤差等原因造成)使得分類精度降低的問(wèn)題。 人工神經(jīng)網(wǎng)絡(luò)方法 人工神經(jīng)網(wǎng)絡(luò)(ARTIFICIAL NEURAL NETWORK,.)是在對(duì)人腦組織結(jié)構(gòu)和運(yùn)行機(jī)制的認(rèn)識(shí)理解基礎(chǔ)之上模擬其結(jié)構(gòu)和智能行為的一種工程系統(tǒng)。人工神經(jīng)網(wǎng)絡(luò)是由大量處理單元(神經(jīng)元)廣泛連接而成的網(wǎng)絡(luò),是人腦的某種抽象、簡(jiǎn)化與模擬,反映了人腦的基本特征。四十年代,心理學(xué)家Mc Culloch和數(shù)學(xué)家Pitts合作最早提出了形式神經(jīng)元的數(shù)學(xué)模型。作為人工智能的人工神經(jīng)網(wǎng)絡(luò)系統(tǒng)的研究則是五十年代末和六十年代初開始的。到七十年代中后期,傳統(tǒng)的Von Neumann計(jì)算機(jī)在人工智能領(lǐng)域遇到了不可克服的困難,神經(jīng)網(wǎng)絡(luò)以其高度的適應(yīng)性獲得越來(lái)越多的重視。在神經(jīng)網(wǎng)絡(luò)中,網(wǎng)絡(luò)的信息處理是由神經(jīng)元之間的相互連接實(shí)現(xiàn)的,知識(shí)和信息表現(xiàn)為神經(jīng)元之間的相互連接。信息存儲(chǔ)和處理都具有分布性并行性的特點(diǎn),具有良好的魯棒性(Robustness)和自適應(yīng)性。在處理以數(shù)據(jù)量多、含混度高著稱的遙感圖像的模式識(shí)別問(wèn)題時(shí),利用多層神經(jīng)網(wǎng)絡(luò)有利于實(shí)現(xiàn)多特征空間的非線性劃分。用計(jì)算機(jī)模擬實(shí)現(xiàn)這一網(wǎng)絡(luò)模型來(lái)進(jìn)行遙感圖像的模式識(shí)別時(shí)完全可能的。目前己經(jīng)提出了多種用于模式分類的神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)模型和學(xué)習(xí)算法,比較典型的有感知機(jī)、多層BP網(wǎng)絡(luò)、RBP網(wǎng)絡(luò)、自組織映射的Kohonen網(wǎng)絡(luò)等。神經(jīng)網(wǎng)絡(luò)分類是一種非參數(shù)方法,它不需要對(duì)模式的概率分布函數(shù)作某種假定或估計(jì),具有良好的適應(yīng)能力。近年來(lái),基于神經(jīng)網(wǎng)絡(luò)的分類方法越來(lái)越引起人們的重視。 支撐向量機(jī)支撐向量機(jī)主要思想是建立一個(gè)超平面作為決策曲面,使得正例和反例之間的隔離邊緣被最大化。同理,在多維空間假定訓(xùn)練數(shù)據(jù)可以被一個(gè)超平面分開,如果這個(gè)向量集合能被超平面沒有錯(cuò)誤地分開,并且離超平面最近的向量與超平面之間的距離最大,則稱這個(gè)向量集合被這個(gè)最優(yōu)超平面(Optimal Separating Hyperplane,簡(jiǎn)稱OSH)最大分開。給定樣本集:∈, {1,1} ∈[ ()分類間隔等于2/,上的訓(xùn)練樣本點(diǎn)就稱作支撐向量。利用Lagrange優(yōu)化方法可以把上述最優(yōu)分類面問(wèn)題轉(zhuǎn)化為其對(duì)偶問(wèn)題,即在約束條件和下對(duì)求解下列函數(shù)的最大值: ()為與每個(gè)樣本的對(duì)應(yīng)的Language乘子,求解對(duì)應(yīng)的樣本就是支撐向量,得到最優(yōu)的分類函數(shù): ()對(duì)于非線性問(wèn)題,可以通過(guò)非線性變換轉(zhuǎn)化為某個(gè)高維空間中的線性問(wèn)題,在變換空間最優(yōu)分類面,選用合適的核函數(shù)滿足Mercer條件變換,到高維空間,目標(biāo)函數(shù)()變換為 ()相應(yīng)的分類函數(shù)變?yōu)? ()SVM有以下幾個(gè)優(yōu)點(diǎn):構(gòu)造SVM可以加快學(xué)習(xí)過(guò)程;構(gòu)造SVM能夠解決一些其他方法無(wú)法解決的問(wèn)題;構(gòu)造決策股則的同時(shí),得到了支持向量;新的決策函數(shù)只通過(guò)改變定義空間的核函數(shù)即可實(shí)現(xiàn)。 專家系統(tǒng)知識(shí)專家系統(tǒng)是人工智能的一個(gè)分支,采用人工智能語(yǔ)言如LISP、PROLOG 或C 語(yǔ)言,將某一領(lǐng)域的專家分析方法或經(jīng)驗(yàn),對(duì)對(duì)象的多種屬性進(jìn)行分析、判斷,確定事物的歸屬。 其核心內(nèi)容是知識(shí)庫(kù)(Knowledge Base)和推理機(jī)(Inference Engine),知識(shí)庫(kù)中存儲(chǔ)著多種與影像解譯有關(guān)的知識(shí)和經(jīng)驗(yàn),專家的經(jīng)驗(yàn)和知識(shí)以某種形式,如產(chǎn)生規(guī)則IF 條件 THEN 假設(shè) CF (其中CF 為可信度)表示,由諸多知識(shí)組成知識(shí)庫(kù)。 待處理的對(duì)象,按某種形式將其所有屬性組合在一起,作為一個(gè)事實(shí),然后由一條條事實(shí),形成事實(shí)庫(kù)。 每一個(gè)事實(shí)與知識(shí)庫(kù)中的每一知識(shí)按一定的推理方式進(jìn)行匹配,當(dāng)一個(gè)事物的屬性滿足知識(shí)中的條件項(xiàng),或大部分滿足時(shí),則按知識(shí)中的THEN 以置信度確定歸屬。 專家系統(tǒng)方法由于總結(jié)了某一領(lǐng)域內(nèi)專家分析方法,可容納更多信息,即上述條件可以包括各種所需的或可獲取的信息,按某種可信度進(jìn)行不確定性推理,因而具有更強(qiáng)大的功能。專家系統(tǒng)的思想是模擬人類組合各種帶有因果關(guān)系的知識(shí)推理并得出結(jié)論。專家系統(tǒng)一般包括知識(shí)庫(kù)和推理機(jī)兩個(gè)相互獨(dú)立的部分。知識(shí)庫(kù)是問(wèn)題求解所需領(lǐng)域知識(shí)的集合,其中的知識(shí)源于領(lǐng)域?qū)<?,是決定專家系統(tǒng)的關(guān)鍵,即知識(shí)庫(kù)中知識(shí)的質(zhì)量水平,用戶可以通過(guò)改變、完善知識(shí)庫(kù)中的知識(shí)來(lái)提高專家系統(tǒng)的性能。推理機(jī)實(shí)施問(wèn)題求解的核心執(zhí)行機(jī)構(gòu),它實(shí)際上是對(duì)知識(shí)進(jìn)行解釋的程序,根據(jù)知識(shí)的語(yǔ)義,對(duì)俺一定策略找到的知識(shí)進(jìn)行解釋執(zhí)行。在遙感影像的分類過(guò)程中,遙感數(shù)據(jù)和空間數(shù)據(jù)都輸入到推理幾種,推理機(jī)根據(jù)知識(shí)庫(kù)中的專家知識(shí)對(duì)新輸入的數(shù)據(jù)進(jìn)行推理判斷,歸入相應(yīng)的分類類別。轉(zhuǎn)機(jī)系統(tǒng)分類技術(shù)相對(duì)于以統(tǒng)計(jì)像元分析為主的傳統(tǒng)分類技術(shù)有了巨大的飛躍,它不但對(duì)單像元的多光譜特征進(jìn)行分析研究,還依靠專家系統(tǒng)綜合相關(guān)的空間關(guān)系和其它的上下文信息,地標(biāo)高度、坡度、坡向及覆蓋形狀等,采取綜合利用空間運(yùn)算的能力解釋影像并確定專題類型。 精度評(píng)估如果不對(duì)分類結(jié)果進(jìn)行精度評(píng)價(jià),一個(gè)分類過(guò)程是不完整的。由于“同物異譜”或“異物同譜”現(xiàn)象在遙感圖像中的普遍存在,以及樣本選擇過(guò)程中的人為誤差等因素的影響,每一種分類器的分類結(jié)果都會(huì)存在不同程度的偶然性,即分類的結(jié)果不可能達(dá)到與地物的真實(shí)分布完全對(duì)應(yīng)。因此對(duì)分類的結(jié)果進(jìn)行分析與評(píng)價(jià)是整個(gè)分類過(guò)程中的一個(gè)重要的、必不可少的環(huán)節(jié) 。本論文中進(jìn)行分類精度評(píng)價(jià)的目的包括兩方面的內(nèi)容:一是比較相同特征下不同分類器的分類能力;二是比較相同分類器不同特征的分類能力。 分類結(jié)果的精度計(jì)算可以用抽樣像元中分類正確的像元數(shù)和誤分的像元數(shù)來(lái)表示,也可用實(shí)際類型與分類類型的二維表(分類精度矩陣)來(lái)表示。其中分類精度矩陣是目前研究者使用較多的一種方法。分類矩陣是一個(gè)N階方陣,它表示抽樣單元中被分到某一類而經(jīng)過(guò)檢驗(yàn)屬于該類的數(shù)目。矩陣中列一般表示參考數(shù)據(jù),行表示分類數(shù)據(jù),分類結(jié)果的總精度是所有分類正確的像元數(shù)與總的抽樣數(shù)之比。每一類精度也可用類似的方法計(jì)算。本文也采用誤差矩陣總精度和Kappa系數(shù)來(lái)進(jìn)行。誤差矩陣(也稱混淆矩陣)是表示精度評(píng)價(jià)的一種常用的標(biāo)準(zhǔn)格式,是指將分類數(shù)據(jù)(通常作為行)同參考數(shù)據(jù)(通常作為列)相比較而形成的矩陣表格,其中主對(duì)角線代表正確分類即一致的情況,非主對(duì)角線代表錯(cuò)誤分類即不一致的情況。誤差矩陣可以提供三種描述性精度指標(biāo):總體精度( overall accuraoy)、生產(chǎn)者精度(pro
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖片鄂ICP備17016276號(hào)-1