freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)設計圖像配準論文(編輯修改稿)

2025-01-05 20:29 本頁面
 

【文章內(nèi)容簡介】 的一門新學科 ,最優(yōu)化理論已滲透到生產(chǎn)、管理、商業(yè)、軍事、決策等各個領域,帶動著生產(chǎn)的發(fā)展和科學的進步,日益受到人們的關注。 2. 算法 圖像配準實際上就是找到一個最優(yōu)化參數(shù)的問題,互信息沒有一個函數(shù)表達式來表示輸入?yún)?shù)如旋轉角度、水平位移、垂直位移等,因此,無法利用求導計算梯度的方法在進行最優(yōu)化搜索時搜索極值。 Powell 算法即方向加速法不用計算目標函數(shù)的梯度,僅通過比較目標函數(shù)的大小來不停迭代就可求出極值,搜索速度快且拒不尋優(yōu)能力強。 基本 Powell 算法實現(xiàn)思想是:把整個過程分為若干輪迭代,每一輪迭 代都有 n 個搜索方向,進行 n+1 次一維搜索。在每一輪搜索中都要先確定一個初始點 0X ,從初始點出發(fā)沿已知的 n 個搜索方向一次進行一維搜索,得到一個最好的點 X ,接著再沿 0X 與 X 連線方向進行一次一維搜索,得到本輪最好點;然后以改點作為初始點進行新一輪迭代。 基本的實現(xiàn)算法如下: ( 1)給定允許誤差 ? 、初始點 0X 和 n 個線性無關的方向 1d , 2d , 3d ,… , nd ( 2)從 0X 出發(fā)依次沿方向 1d , 2d , 3d ,… , nd 進行一維搜索,得到 1X , 2X , 3X ,… , nX .再從 nX 出發(fā)沿 nX 與 0X 連線方向進行一維搜索,得到 kX ( 3)如果 1kkXX ????,停止搜索,得到點 kX 。否則置 ( 1, ) ( , 1)d k j d k j? ? ?,j=1,2,… ,n PSO 算法 粒子群優(yōu)化算法( Particle Swarm Optimization,PSO),由 Ketinedy 和 Ebe 由 art 于 1995年提出的基于對鳥類覓食過 程中遷徙和聚集的模擬的一種基于種群搜索策略的自適應隨機優(yōu)化算法。 PSO 算法就是從下面這種場景中獲得啟示并用于解決優(yōu)化問題的 :設想一群鳥在一個區(qū)域里搜索一塊食物,所有的鳥都知道自己當前的位置距離這塊兒食物有多遠但它們不知道食物具體在哪里。那么找到食物最簡單有效的方法就是搜尋目前距離食物最近的鳥的周圍區(qū)域。每個優(yōu)化問題的解對應搜索空間一只鳥的位置,我們稱之為“粒子”。 PSO 算法初始化為一群隨機粒子,每個粒子都有自己的速度和位置,還有一個由被優(yōu)化函數(shù)決定的適應度值,它們決定了粒子的飛行方向和距離。每個粒子記憶、 追隨當前的最優(yōu)粒子,在解空間中通過迭代找到最優(yōu)解。每一次迭代中,各個粒子通過跟蹤兩個“極值”更新自己。第一個“極值”是粒子自身找到的最優(yōu)解,稱之為“個體極值”,記 pbest 表示其位置 。另一個“極值”是整個種群目前找到的最優(yōu)解,稱之為“全局極值”,記 gbest 表示其位置。粒子根據(jù)如下的公式在搜索上述兩個最優(yōu)值的過程中更新自己的速度和位置)()( 22111 kidkidkidkidkidkid Xg b e s tRCXp b e s tRCVV ?????? (1) 11 ?? ?? kidkidkid VXX (2) 其中, 1C 和 2C 為加速常數(shù), 1C 調(diào)節(jié)向個體最優(yōu)粒子方向飛行的最大步長, 2C 調(diào)節(jié)向全局最優(yōu)粒子方向飛行的最大步長。 1C 和 2C 的大小應合適,合適的 1C 和 2C 可以加快收斂速度且不易陷入局部最優(yōu),但若太大可能使粒子突然沖向或越過目標區(qū)域,若太小則可能 導致粒子遠離目標區(qū)域。通常 1C , 2C 在 [0, 4]之間,一般取 221 ??CC 。 ? kidV 是粒子 i在第 k 次迭代中的速度, 1R 和 2R 為兩個在 [0, 1]范圍內(nèi)服從均勻分布的隨機變量, kidX 是粒子 i 在第 k 次迭代中的位置, kidpbest 是粒子 i 第 d 維的個體極值點的位置, kidgbest 是整個種群在第 d 維的全局極值點的位置。每個粒子的位置和速度都以隨機方式進行初始化,而后粒子的速度就朝著全局最優(yōu)和個體最優(yōu)的方向靠近。粒子根據(jù)速度不斷調(diào)整自己位置的過程中,為防止粒子遠離搜索空間,其每一維速度 idV 都被限定在 ? ?maxmax , dd VV ?? 之間:當maxdid VV ? 時, maxdid VV ? ; maxdid VV ?? 時, maxdid VV ?? 。 maxdV 太大,粒子將會飛離最優(yōu)解,太小則會陷入局部最優(yōu)解。 粒子群優(yōu)化算法的提出和應用是基于鳥類覓食過程中的集群行為和群智能理論。從粒子的速度更新公式來看,公式 (l)中的 kidV 為粒子先前的速度,表示粒子對當前自身運動狀態(tài)的信任,提供粒子在搜索空間飛行的動力 。第 2 部分 11()kkid idC R pb est X? 為“個體認知”部分,代表粒子的個人經(jīng)驗,鼓勵粒子飛向自身曾經(jīng)發(fā)現(xiàn)的最佳位置 。第 3 部分22()kkid idC R gbe st X?為“群體認知”部分,代表粒子的群體經(jīng)驗,引導粒子飛向粒子群中的最佳位置。這 3 部分之間的相互平衡和制約決定了算法的主要性能。 《 8》 相似性度量 相似性測度是用來度量參考圖像和待配準圖像中提取的兩個特征集之間的相似性,是衡量每次變換結果優(yōu)劣的準則,相似性度量和特征空間搜索空間緊密相關,不同的特征空間往往對應不同的相似 性度量。因此它與兩幅圖像中提取的配準基元及其屬性信息緊密相關。相似性測度決定了特征的哪些因素參與配準,哪些因素不參與配準,可以消除或減弱圖像畸變對配準的影響。在實際應用中,要根據(jù)實際的需求來定義相似性測度。相似性度量的值直接決定配準變換的選擇, ( ? 如果參考圖像和待配準圖像中提取出的配準基元是模糊的或者它們的鄰域是局部形變的,則一般采用變換模型約束下兩幅圖像中配準基元之間的空間關系定義相似性測度。基于空間關系的方法首先是從兩幅圖像中提取的每個配準基元中抽取出 一些控制點 (如點特征本身、直線的中點、區(qū)域的重心、輪廓上的突出點等 ),然后將這些控制點在變換模型約束下的空間關系定義為相似性測度。 ) 常用的相似性度量有互信息、歸一化互信息、聯(lián)合熵、相關性、歐式距離、梯度互相關等。 基于空間關系定義的優(yōu)點就是能獲得較好的配準結果,但是同時也存在缺陷,就是計算量大而且算法復雜,算法的復雜度將會隨著正確匹配特征數(shù)量的減少而增加。 ? 基于特征相似性的方法首先用一組基于參考圖像和待配準圖像幾何形變不變性的參數(shù)描述兩幅圖像中提取的每個特征,然后利用描述參數(shù)之間的最小距離準則定義相似性測度,或者是利用描述參數(shù)之間的最大相似性來定義相似性測度,這些描述參數(shù)通常稱為不變描述子,要滿足以下幾個條件 : ( 1)不變性。參考圖像和待配準圖像中對應特征的不變描述子應該是相同的,這一點是最重要的 。 ( 2)唯一性。不同的兩個特征之間的不變描述子必須是不同的 。 ( 3)穩(wěn)定性。變形后特征的不變描述子與原始特征的不變描述子比較應只有少許的失真 。 ( 4)獨立性。如果不變描述 子是一個向量,則向量中的每個元素應該是獨立的。 基于特征定義的相似性測度,選擇和構造合適的不變描述子是非常重要的。 現(xiàn)有的不變描述子主要包括 :直觀的不變描述子、變換域系數(shù)描述子以及各 3 基于互信息的圖像配準 ? 互信息( Mutual Information)來自于信息論,是信息論中的一個基本概念,是兩個隨機變量統(tǒng)計相關性的測度。當兩幅圖像達到最佳配準,它們對應像素的灰度互信息應達到最大。該測度不需要對不同成像模式下圖像灰度間的關系作任何假設,也不需要對圖像進行分割或任何預處理,具有自動化程度 高的特點。因此,最近幾年將互信息作為圖像配準過程的相似性測度,利用最大互信息法進行圖像配準成為了圖像處理領域的研究熱點。 信息嫡 如果一條信息是由 n 個字符連成的字符串組成,并且每個字符有 m 種可能,那么這條信息就有 nm 種不同的排列情況,那么可以用 nm 度量信息量,但這時的信息量隨著消息的長度 n 按指數(shù)增加,為了使信息量的度量值按線性增加, Hartley 給出了取對數(shù)的信息量的定義 : mnmH n 22 lo glo g ?? ( 31) 由上式可以看出,信息量隨著消息的可能性組合 m 增多而增多,如果消息只有一種可能性時即事件為必然事件時,那么消息中包含的信息量為零 01log2 ? 。因此可以看出,可能收到的不同消息越多,對收到哪條消息的不確定性就越大 。相反,收到只有一種可能性的消息,不確定性為零, Hartley 對消息的度量實際是對不確定性的度量。 Hartley 度量方法的不足之處是式他所定義信息量是假定所有符號發(fā)生的概率相同,但實際情況各符號并不一定都等概發(fā)生,為此, Shannon 用概率加權來衡量消息 出現(xiàn)的可能性,對 Hartley 的度量方法做出改進。 設某一隨機過程中有 k 種可能的情況,每種情況發(fā)生的概率分別是 1P , 2P ,?, kP ,shannon 給出了嫡的如下定義 : ? ???? i i iiii ppppH 22 l og1l og ( 32) 當所有可能的事件均以相等的概率發(fā)生時,上式就成了 Hartley 定義的嫡,并且這時嫡取得最大值,即 ? ? ???? nnnnn mmmmmH 222 l ogl og11l og1 ()。所以, Hartley 嫡是 shannon 嫡的特殊情形,而 Shannon 更具有一般性。 Shannon 嫡包含三種含義 :第一種含義是度量信息量,事件發(fā)生概率與獲得的信息量成反比,即概率越大,信息量越少,又由式 ()知,概率越大,信息量越少,嫡越小,所以可用墑的大小來度量信息量,嫡越大,信息量越大 。第二是度量事件概率分布的分散度,概率集中分布時嫡值小,分散性越強熵越大;三含義是度量事件發(fā)生的不確定性,概率越大,事件的不確定性越小,嫡越小 。?( 利用上面第三個含義,可以用 Shannon 嫡來度量圖 像包含的信息量,圖像灰度值的概率分布是每灰度值出現(xiàn)的次數(shù)除以圖像中所有灰度值出現(xiàn)的總次數(shù),此時圖像的信息量可依據(jù)這個概率分布來計算,一幅圖像中不同的灰度值較少,各灰度值出現(xiàn)的概率較高,則對應的灰度值較低,意味著這幅圖像含有的信息量很少。反之,如果一幅圖像中含有很多不同的灰度值,且各灰度值發(fā)生的概率又基本一致,則它的嫡值會很高,那么這幅圖像包含的信息量很大。 ) 互信息的定義 互信息是基于概率統(tǒng)計論提出的,具有統(tǒng)計特性,它被多數(shù)研究者公認為是一個很好的圖像配準準則,許多圖像配準算法的研究均是在互信息的基礎 上加以改進的?;バ畔⒆鳛獒t(yī)學圖像配準的一個相似性測度,多模態(tài)醫(yī)學圖像的配準很實用,其配準原理是兩幅基于共同人體解剖結構的圖像在配準時具有最大的互信息值。 互信息是信息論中的一個基本概念,通常用于描述兩個系統(tǒng)間的相關性,或者是一個系統(tǒng)中所包含的另一個系統(tǒng)信息的多少,是兩個隨機變量 A 和 B 之間統(tǒng)計相關性的量度 ,或是一個變量包含另一個變量的信息量的量度 . 它可以用熵 )(AH 和 )(BH 來描述以及聯(lián)合熵 ),( BAH )|()()|()(),()()(),( ABHBHBAHAHBAHBHAHBAI ??????? ( 34) 其中 )(AH 和 )(BH 分別是系統(tǒng) A 和 B 的熵, )( BA,H 是 A,B 的聯(lián)合熵, )|( ABH 表示一直系統(tǒng) A 時 B 的條件熵和一直系統(tǒng) B 時 A 的條件熵。 上述各種熵可分別表示為 ???a AA apapAH )(lo g)()( 2( 35) ??? b BB bpbpBH )(lo g)()( 2( 36) ??? ba ABAB bapbapBAH , 2 ),(l og),(),( ( 37) ??? ba BAAB bapbapBAH , |2 )|(l og),()|( ( 38) ??? ba ABAB abpbapABH , |2 )|(l og),()|( ( 39) 其中, a?A,b?B, )(apA 和 )(bpB 分別是系統(tǒng) A 和系統(tǒng) B 完全獨立時的邊緣概率密度,),( bapAB 是系統(tǒng) A 和 B 的聯(lián)合概率分布, )|(| abp AB 是已知系統(tǒng) B 時 A 的條件概率分布,)|(| bap BA 是已知系統(tǒng) B 時 A 的條件概率分布,如果聯(lián)合概率分布密度 ),( bapAB 滿足)()(),( bpapbap BAAB ? ,則隨機變量 A 和 B 相互獨立 。如果 A 和 B 滿足某映射關系 T 使))(,())(()( aTapaTpap ABBA ?? ,則隨機變量 A 和 B 最大相關 . 直方圖 直方圖是多種數(shù)字圖像處理技術的基礎,能夠提供十分有用的圖像統(tǒng)計信息。 ( 1)直方圖的定義 設數(shù)字圖像 ( , )f xy 的灰度級值 [0, 1]rL?
點擊復制文檔內(nèi)容
公司管理相關推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1