freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

數(shù)字圖像修復算法的研究畢業(yè)論文(參考版)

2025-06-29 16:44本頁面
  

【正文】 img(i,j,k)。 w3(k) = 1/sqrt(1+grid_s(k))。 w1(k) = 1/sqrt(1+grid_w(k))。 grid_s(k) = (img(i,j,k)img(i,j1,k))^2+()*(img(i+1,j,k)+img(i+1,j1,k)img(i1,j,k)img(i1,j1,k))^2。 while n = itertimes for i = 2:width1 for j = 2:height/31 %if (mask(i,j+1) == 255)||(mask(i,j1) == 255)||(mask(i+1,j) == 255)||(mask(i1,j) == 255) if (mask(i,j+1,1) == 255)||(mask(i,j1,1) == 255)||(mask(i+1,j,1) == 255)||(mask(i1,j,1) == 255) %if mask(i,j)==255 for k=1:3 %k=1,2,3時分別計算紅色,綠色,藍色分量 %計算w1,w2,w3,w4 grid_w(k) = (img(i,j,k)img(i1,j,k))^2+()*(img(i1,j+1,k)+img(i,j+1,k)img(i1,j1,k)img(i,j1,k))^2。%更新原圖修復區(qū)域內每點值n = 1。39。)。%imwrite(mask,39。掩碼圖像39。imshow(mask)。 mask(i,j,3) = 0。 else mask(i,j,1) = 0。 mask(i,j,2) = 255。(imgoriginal(i,j,3) 235)) %標記出待修復點。(imgoriginal(i,j,2) 235)amp。 for j = 1:height/3 for i = 1:width if ((imgoriginal(i,j,1) 230)amp。 %獲取圖像寬度和高度 img= double(imgoriginal)。)。 xlabel(39。subplot(131)。)。 imgoriginal=imread(39。39。clc。%圖像修復;%修復白色劃痕;close all。39。)。imwrite(img,39。修復后圖像39。imshow(img,[])。end img = uint8(floor(img))。 img(i,j,k) =(w1(k)*img(i1,j,k)+w2(k)*img(i+1,j,k)+w3(k)*img(i,j+1,k)+w4(k)*img(i,j1,k))/(w1(k)+w2(k)+w3(k)+w4(k))。 w3(k) = 1/sqrt(1+grid_s(k))。 w1(k) = 1/sqrt(1+grid_w(k))。 grid_s(k) = (img(i,j,k)img(i,j1,k))^2+()*(img(i+1,j,k)+img(i+1,j1,k)img(i1,j,k)img(i1,j1,k))^2。 while n = itertimes for i = 2:width1 for j = 2:height1 if (mask(i,j+1) == 255)||(mask(i,j1) == 255)||(mask(i+1,j) == 255)||(mask(i1,j) == 255) for k=1:3 %k=1,2,3時分別計算紅色,綠色,藍色分量 %計算w1,w2,w3,w4 grid_w(k) = (img(i,j,k)img(i1,j,k))^2+()*(img(i1,j+1,k)+img(i,j+1,k)img(i1,j1,k)img(i,j1,k))^2。%更新原圖修復區(qū)域內每點值n = 1。39。)。imwrite(mask,39。掩碼圖像39。%創(chuàng)建子圖,第一行,三列,第二個圖imshow(mask)。 %把是紅塊的像素點標記為紅色 else mask(i,j) = 0。 %變?yōu)殡p精度,便于某些函數(shù)的運算%獲取掩碼圖像mask = zeros(width,height/3,3)。[width,height] = size(imgoriginal)。原圖像39。imshow(imgoriginal)。 figure(1)。39。)。%讀入圖像imgoriginal=imread(39。clear。感謝你們無私的支持與幫助!參考文獻[1] 曲振峰,李小光. 數(shù)字圖像去噪盲復原算法改進研究[J]. 湖南工程學院學報, 2011, 21(1): 1216.[2] 孫韶杰,吳瓊,李國輝. 基于變分貝葉斯估計的相機抖動模糊圖像的盲復原算法[J]. 電子與信息學報,2010,32(11):對此,我只能對所有辛勤工作的老師和朝夕相對的同學們表示感謝。特別感謝我的學姐,她樂于助人,知識淵博,對圖像處理領域具有深刻而獨特的見解,與她的討論讓我深受啟發(fā)。感謝和我一起研究論文的同學,大家共同了營造了一個團結友愛、積極向上的集體。老師不斷鼓勵我在學習上創(chuàng)新,并注重理論與實踐相結合,正是受她的這一科研精神的鼓舞和鞭策,我的畢業(yè)論文才得以順利完成。為了方便我更快、更好地了解這方面的研究狀況,老是挑選這方面好的文獻和書籍讓我閱讀,并鼓勵和指導我的論文寫作,在老師的指導和督促下,我的論文才可以順利并且高質量的完成。在和老師的不斷交流和接觸中,使我產生和加深了對學科前沿方面的圖像修復研究上的認識和熱情,在這過程中,我的能力得到了提高,倘若沒有田丹老師的認真負責的監(jiān)督,我很難取得今天的成果。在此衷心的感謝老師對我的關懷、幫助和指導。致 謝借此論文完成之際,謹向所有幫助、關心我的人表示最誠摯的感謝。因此減少邊緣紋理信息細節(jié)特征的缺失是以后圖像修復工作的重點,并且因為偏微分方程的數(shù)學特征,直接求解偏微分方程很困難,它的數(shù)值解法的收斂性、穩(wěn)定性等也是探討的熱點問題。TV方法可以對圖像進行很好的修補,但是和一些基于無紋理修補方法一樣,TV方法也適合修補沒有紋理結構的圖像,結構十分的清晰,但是修補的區(qū)域一般都會趨于模糊化。結論本文研究了全變模型在圖像修補中的應用,本算法能夠較好地完成數(shù)字圖像的修復工作,修復圖像的視覺效果良好。TV模型修復結果都是用直線連接邊緣,并且適合處理的破損區(qū)域是很小范圍的,隨著破損區(qū)域寬度的增大,需要很大程度地增加迭代次數(shù),并且修復效果也越來越差,所以TV修復模型對于含有細小劃痕的圖像修復效果非常。物體的邊緣對于識別該物體起著很重要的作用。根據(jù)TV模型的數(shù)字圖像修復方法可以恢復出物體的輪廓,也就是受損物體的邊緣。全變分模型的作用是為數(shù)字圖像修復技術提供了一個有效而可行的數(shù)學模型, TV模型的數(shù)字圖像修復方法是局部的,就是依靠破損區(qū)域鄰近的已知圖像范圍的信息進行修補,不需要顧慮全局的圖像信息。圖像的修復是將沒有破損區(qū)域的信息逐步擴散到破損區(qū)域,因為損壞范圍邊界的梯度較大,所以擴散速度相對較慢。沿著法線的方向不會有擴散,因此會很好的保證圖像的特征,但是在無細節(jié)特性的區(qū)域它也沿著切線一個方向進行擴散,這樣就會導致修復的速度較慢?;谄⒎址匠痰姆椒ㄖ饕峭ㄟ^求解偏微分方程或擴散方程對破損區(qū)域進行插值,這是目前研究用得最多的方法,算法特點是:理論性強,適應性好,算法編寫簡單,但計算速度慢,不能產生強邊緣。仿真實驗結果表明:基于TV 模型的修復算法實際上是一種加權平均的算法,和對象的象素點差異小的鄰域點梯度較小,所以權重較大相反差異大的鄰域點的權重就會小,迭代的過程中待修補范圍邊界點逐漸向區(qū)域內進行各向異性的擴散以達到修補的目的。更新原圖修復區(qū)域內每點值。實驗四修復白色文字,迭代次數(shù)為2000,標記出待修復點,白色劃痕即為需修復點。更新原圖修復區(qū)域內每點值,k=1,2,3,時分別計算紅色,綠色,藍色分量。實驗一去除紅點迭代次數(shù)為1000,因為是紅塊所以獲取掩碼圖時紅色分量大于254時,判斷為方塊點,即為須修復點,更新原圖修復區(qū)域內每點值,k=1,2,3,時分別計算紅色,綠色,藍色分量。這里為了簡單起見,同時也是為了增加程序執(zhí)行的效率,只可以在、兩點之間進行選取。分別計算橫縱方向上2個點之間的距離d(橫)、d(縱)。橫向的點記為、。相關隨機初始化[16]的具體的操作如下圖8隨機初始化圖詳細的步驟:假如目前要求處理的對象點為O點,并且這個點是在污損區(qū)域中。為了預防梯度產生為零的情況,通常用來表示梯度,這里設 (417)于是可以得到 (418)因此TV修補方法的的迭代公式為 (419)當無噪聲污染的時侯,能夠得出下面的迭代公式 (420)當含有噪聲污染時,要實現(xiàn)對圖像的降噪,這時,則可以用以下的方法求 (421)對于所有的點,都為其降噪過程中的,其中這里的n代表的是迭代的次數(shù) (422)對邊界像素的算法用如下的方法 (423)表示的是第n次迭代的結果,M和N表示的是圖像的大小。這里記,其中,代表在修復區(qū)域橫向和縱向的分量。對于這里的式(45)運用前面二元泛函最小值滿足的條件可以得到要使得(45)式最小,對(45)去卷積,用最速下降法(梯度下降法)的偏微分方程,則要滿足以下的式子 (46)把以上的公式進行離散化就能夠得到目前修復的像素點以及鄰近的像素點之間的關系。第二項是數(shù)據(jù)項,保持修復結果與原圖的一致性,進行邊緣維護。運用拉格朗日算子[14]把有條件極值轉換成無條件極值,推導出新的代價函數(shù)是 (45)其中,D代表待修復范圍,E代表待修復范圍的外鄰域,I代表原始圖像,代表破損圖像。在考慮完代價函數(shù)后,就如同像上面說的那種,圖像需要考慮到噪聲的問題,邊界帶狀區(qū)域出現(xiàn)的噪聲不能超過一定的區(qū)域,于是能夠得到以下的約束式子(這里的是參數(shù)白噪聲的方差):A(E)表示E區(qū)域的面積;E內初始圖像值 (42)這是一個噪聲約束條件,在它的約束下求下面(45)的極限值,當時,是TV模型。 TV修復模型的基本原理如下圖5所示是待修補的區(qū)域,而E是緊貼著的帶狀形區(qū)域,TV圖像修復就是區(qū)域在噪聲約束的條件下,對區(qū)域E和區(qū)域進行整體的變分,達到對污損區(qū)域D進行的修復,其建立的模型是根據(jù)以下理論: 圖5修復與待修復區(qū)域下圖6中的左圖上半?yún)^(qū)域和下半?yún)^(qū)域有著很大的差別,但是相當右圖來講,下半部分與上半部分基本上是一致的,這樣的梯度向量的模也就相對的會小,當對圖像的修復要達到一定的效果的時,那么可以知道在各像素點的過渡都比較的光滑,換句話說就是在各個像素點的梯度向量的模都十分的小,這里引入的TV修補的模型就是根據(jù)這個事實而建立的。紋理合成中過程紋理的結構和調試有很大的難度;過程紋理不容易掌控,結果獲得比較困難;過程紋理的計算要花費更多的時間;過程紋理走樣問題嚴重;過程紋理適用范圍狹窄。相反有的網(wǎng)絡的學習效果不是很理想是因為神經元由于獲勝的次數(shù)太多,產生神經元利用過度的問題所產生的。但是因為文本數(shù)據(jù)高維性的特性,不能簡單的提前給出和初始數(shù)據(jù)空間中相同的網(wǎng)絡輸出層拓撲結構。從人的視覺原理看來,很難不忽略有噪音的圖像中的有些噪音部分,辨別出圖像的特征信息。因為對模式的識別和圖像分割等圖像處理圖像的邊緣信息非常重要,所以TV模型一定要考慮到圖像的邊緣修復難題。TV模型只可以涉及到修復區(qū)域和修復區(qū)域接近的范圍,而不應該是全局的統(tǒng)計學模型,也就是TV模型只可以
點擊復制文檔內容
環(huán)評公示相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1