【正文】
參考文獻[1] K Engan, SO Aase and JH HakonHusoy. Method of optimal directions for frame design[C]. IEEE Int. Conf. Acoustics, Speech, and SignalProcessing, 1999.[2] K KreutzDelgado and BD Rao. Focussbased dictionary learning algorithms[J]. Electricalamp。這說明我們的改進是非常有效的。算法參數(shù):圖像塊大小,基元組大小,迭代訓練次數(shù),拉格朗日算子,噪聲強度。首先我們先對問題進行簡化,假定基元組D已知,設為DCT基元組。新的模型中問題(1)主要是對稀疏表達系數(shù)進行學習,相較于經(jīng)典稀疏表達模型我們加入了反映像素噪聲可能性的權重向量,之所以做這種處理,是因為如果很小,即像素點是噪聲點的可能性越大,對應的像素點在稀疏表達模型中起到的作用越小;而如果很大,即象素點更可能沒有受到噪聲的影響,因此其對應像素點在稀疏表達模型中的作用更大。但是針對椒鹽噪聲圖像有如下特點:圖像像素點或者完全沒有受到噪聲影響或者受到影響完全變成過亮點或者過暗點。算法參數(shù):圖像塊大小,基元組大小,迭代訓練次數(shù),拉格朗日算子,噪聲強度。 自適應學習基元組優(yōu)化模型從含噪的圖像中選取大小為的圖像塊,其。當我們得到后,我們可以重復迭代,在已經(jīng)去噪圖像上的圖像塊上著手繼續(xù)稀疏編碼階段,等等。 采用DCT基元組優(yōu)化模型假定基元組已知,(26)模型的優(yōu)化求解分為兩個部分,分別要求每個局部塊上的稀疏表達系數(shù)和整體去噪圖像。上式也可表述為 (26)在(25)中,第一項是整體對數(shù)似然,要求之間的處理過的含噪圖像和它的已去噪(未知)圖像X相接近。上述優(yōu)化過程還可以改為 (24)使約束項變?yōu)閼土P項,適當選擇,這兩個問題是等價的。此時,通過這個基元組我們可以用下面的稀疏表達模型來表示這個圖像塊。我們現(xiàn)在學習與研究基于稀疏表達的高斯噪聲圖像模型及其數(shù)值求解算法。通過分析,考慮到圖像像素點或者完全沒有受到噪聲影響或者受到影響很大使得其完全變成過亮點或者過暗點,應用范數(shù)測度,將使得學習到的基元表達系數(shù)受到椒鹽噪聲的嚴重影響,影響去噪精度。對于模型的數(shù)值求解的難點,關鍵是基元組和稀疏表達系數(shù)處理。在本文中我們同樣采用這種思路,利用基于基元組的稀疏和冗余表達研究圖像噪聲模型。我們這里研究的圖像噪聲模型,主要關注的是一種加性噪聲,即在一張圖片中加入一種噪聲,我們假定有一個理想的圖像為,加進一個噪聲,處理后的圖像為:, (11)我們要研究的就是希望能夠設計一個好的算法可以從中消除噪聲,盡可能地恢復為原來的圖像。Dictionary learing。該類算法和模型的基本思想是將原始圖像表達為局部的基元線性組合,并約束線性組合系數(shù)的稀疏性,從而建立解決去噪問題的能量函數(shù),在極小化過程中通過OMP和KSVD算法優(yōu)化該能量函數(shù)。由于高斯噪聲和椒鹽噪聲特性的不同,我們分別對高斯噪聲和椒鹽噪聲建立了模型。結合椒鹽噪聲的特性,我們用更為魯棒的帶權稀疏表達模型,在使用基元組時采用DCT基元組,并通過OMP方法優(yōu)化該稀疏表達模型。60年代末期,圖像處理技術不斷完善,逐漸形成一個新興的學科。例如統(tǒng)計估計、空間自適應濾波器、隨機分析、偏微分方程、變換域的方法、形態(tài)分析、順序統(tǒng)計方法等,都是研究探討這個問題的方向,并延其形成了許多典型的去噪方法,例如我們常見的高斯濾波去噪,均值濾波去噪,中值濾波去噪,邊緣保持濾波去噪。由于模型中第一個和第二個懲罰項中重構誤差使用范數(shù)測度,該范數(shù)能夠很好的建模高斯噪聲,因此利用這個模型能夠很好地去除高斯噪聲。(2)研究如何改進經(jīng)典去噪模型使得模型可以更有效地去除椒鹽噪聲。2 基于稀疏線性表達的高斯噪聲去噪模型本章我們主要研究基于稀疏線性表達的高斯噪聲去噪模型。 局部塊上建立去噪模型首先我們考慮從原圖中取出的一個大小為像素的圖像塊,將塊中的像素點按照從上到下,從左到右的原則排成一個列向量,令其作為列向量。此外,對上述模型我們采用來表示重構誤差會更精確。我們可以做如下處理:假定要取出的局部圖像塊大小為,將一個大小為的窗口放在圖像中按照從上至下,從左至右滑動,滑動距離視需要而定。當然我們還可以考慮通過使用簡單和高效率的KSVD算法自適應地學習得到基元組。得到了所有的稀疏表達系數(shù)后,我們現(xiàn)在可以固定它們的值然后開始求解。然后再固定稀疏表達系數(shù),使用K–SVD算法每次將基元組每列更新一次。但是,對輸出圖像的迭代更新改變了噪音水平,我們在稀疏表達系數(shù)迭代和基元組更新時使用相同的值。改進的基本想法是:在經(jīng)典稀疏表達模型中,通過引入能夠反映像素點噪聲可能性的權重函數(shù),使得經(jīng)典稀疏表達模型中主要使用未受噪聲影響的像素進行學習稀疏表達系數(shù),從而消除椒鹽噪聲點對系數(shù)學習的影響。 (33)其中的為一個反映像素點為噪聲點可能性的函數(shù)。如果是噪聲點可能性越大,則越小,越大,式(33)在極小化過程中第二個懲罰項作用更大,對此項做極小化處理意味著要求與我們學習得到的基元組稀疏表達形式相像。 px(p)y(p)w(p)(c)權重W(b)含噪圖像Y(a)圖像X圖31:圖像X、Y及權重W示意圖圖1直觀展示了上述推導過程中的某些量,表示圖像X中點的灰度值,表示圖像Y中點的灰度值,表示點權重值;表示以點為中心的圖像塊像素點向量表示,同理;表示以點為中心的圖像塊中點的灰度值,同理;=。 (a)加入高斯噪聲lena圖 (b)采用DCT基元組去噪結果 (c)全局基元組去噪結果 (d)自適應基元組去噪結果圖2:對lena圖像(高斯噪聲)采用DCT、全局基元組及自適應基元組去噪結果 高斯噪聲去噪實驗我們對lena和barbara兩個樣例圖片加上高斯噪聲,然后分別使用基于DCT基元組,全局基元組和自適應基元組的經(jīng)典稀疏表達模型對圖片去噪. (a)加入高斯噪聲barbara圖 (b)采用DCT基元組去噪結果 (c)全局基元組去噪結果 (d)自適應基元組去噪結果圖3:對“barbara”圖像加入高斯噪聲并分別采用DCT、全局基元組及自適應基元組去噪結果表41:含高斯噪聲圖像及使用各基元組去噪結果PSNR值比較PSNR(dB)lenabarbara噪聲圖像DCT基元組去噪全局基元組去噪自適應基元組去噪從表41中我們可以看出,對“l(fā)ena”和“barbara”兩張樣例圖片加入的高斯噪聲,使用基于稀疏線性表達的高斯噪聲去噪模型分別采用DCT基元組,全局基元組和自適應基元組對圖像做去噪處理,均可以達到較滿意的去噪效果。實驗表明,超完備DCT基元組,從高質量圖像中的一組圖像塊學習得到的基元組,以及對噪聲圖像本身的圖像塊學習出的自適應基元組,都有非常好的去噪表現(xiàn)。 2) a small dictionary implies a locality of the resulting algorithms, which simplifies the overall image treatment.We next describe possible ways to use such a small dictionary when treating a large image. A heuristic approach is to work on smaller patches of size and tile the results. In doing so, visible artifacts may occur on block boundaries. One could also propose to work on overlapping patches and average the results in order to prevent such blockiness artifacts, as, indeed,practiced in [38]–[40]. As we shall see next, a systematic global approach towards this problem leads to this very option as a core ingredient in an overall algorithm. If our knowledge on the unknown large image X is fully expressed in the fact that every patch in it belongs to the Sparseland model, then the natural generalization of the above MAP estimator is the replacement of (4) with (5)In this expression, the first term is the loglikelihood global force that demands the proximity between the measured image, X,and its denoised (and unknown) version X. Put as a constraint, this penalty would have read , and this reflects the direct relationship between and .The second and the third terms are the image prior that makes sure that in the constructed image, X, every patch of size in every location (thus, the summation by i,j)has a sparse representation with bounded error. Similar conversion has also been practiced by Roth and Black when handling an MRF prior [29].The matrix is an matrix that extracts the (i,j) block from the image. For an image X the summation over i,j includes items, considering all image patches of size in X with overlaps. As to the coefficients , those must be location dependent, so as to ply with a set of constraints of the form .C. Numerical SolutionWhen the underlying dictionary D is assumed known, the proposed penalty term in (5) has two kinds of unknowns: the sparse representations per each location, and the overalloutput image X. Instead of addressing both together, we propose a blockcoordinate minimization algorithm that starts with an initialization X=Y, and then seeks the optimal . In doing so, we get a plete decoupling of the minimization task to many smaller ones, each of the form (6)handling one image patch. Solving this using the orthonormal matching pursuit [21] is easy, gathering one atom at a time, and stopping when the error goes below T. This way,the choice of has been handled implicitly. Thus, this stage works as a sliding windowsparse coding stage, operated on each block of at a time.Given all , we can now fix those and turn to update . Returning to (5), we need to solve