freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

基于人眼視覺特性的醫(yī)學(xué)圖像增強(qiáng)技術(shù)畢業(yè)論文docxdocx(參考版)

2025-08-04 09:25本頁面
  

【正文】 參考文獻(xiàn):[1] 金屬表面防偽圖案的檢測與。這也是阻礙圖像處理技術(shù)發(fā)展的重要原因。本文主要研究人眼的對比靈敏度特性構(gòu)造適合人眼視覺特性的灰度映射函數(shù),同時(shí)應(yīng)用人眼的邊緣敏感性對醫(yī)學(xué)圖像邊緣增強(qiáng)。5. 與人眼視覺的其他相關(guān)特性結(jié)合的醫(yī)學(xué)圖像增強(qiáng)研究。目前還未見這方面類似的報(bào)道。由于不同醫(yī)學(xué)圖像增強(qiáng)方法或者是同一方法不同參數(shù)設(shè)置,增強(qiáng)后的醫(yī)學(xué)圖像局部效果都存在一定的差異。但是對于其它區(qū)域的對比度增強(qiáng)效果不夠明顯,還有待改進(jìn)。3. 基于人眼的對比靈敏度特性的灰度映射函數(shù)的構(gòu)造。這需要作者對不同的圖像進(jìn)行不同的選取過程。本文中對γ值得限定是根據(jù)σ2的值來設(shè)定的。未來的工作中,期望能找出一種方法能夠確切的找出醫(yī)學(xué)圖像中的ROI,從而分別實(shí)現(xiàn)感興趣區(qū)域和其他區(qū)域的增強(qiáng),可能成為未來處理一些病變圖像的發(fā)展方向。 結(jié)合提出的醫(yī)學(xué)圖像增強(qiáng)算法和當(dāng)前醫(yī)學(xué)圖像增強(qiáng)發(fā)展的方向,作者覺得本文的研究工作可以從以下幾點(diǎn)進(jìn)行改進(jìn):1. ROI的提取。 本文主要結(jié)合人眼視覺特性,提出一種新醫(yī)學(xué)圖像增強(qiáng)算法,能夠?qū)崿F(xiàn)較好的醫(yī)學(xué)圖像增強(qiáng),具有一定的先進(jìn)性。5. 將該增強(qiáng)算法應(yīng)用到醫(yī)學(xué)圖像(主要是CT圖像),并實(shí)現(xiàn)了醫(yī)學(xué)圖像增強(qiáng)。4. 提出了本文的增強(qiáng)算法。即:一是運(yùn)用人眼的對比靈敏度特性構(gòu)造一個(gè)新的灰度映射函數(shù),實(shí)現(xiàn)醫(yī)學(xué)圖像對比度的增強(qiáng);二是將拉普拉斯算子引入到分解濾波之中,并在這個(gè)過程中運(yùn)用到人眼的邊緣敏感性和感興趣區(qū)域規(guī)律。主要完成了以下工作:1. 首先介紹了醫(yī)學(xué)圖像的研究背景及研究現(xiàn)狀,介紹了醫(yī)學(xué)圖像的產(chǎn)生與發(fā)展?fàn)顩r、醫(yī)學(xué)圖像的特點(diǎn)、醫(yī)學(xué)圖像增強(qiáng)技術(shù)的研究現(xiàn)狀,重點(diǎn)在于選用合適的醫(yī)學(xué)圖像增強(qiáng)算法對醫(yī)學(xué)圖像進(jìn)行增強(qiáng)。所以,該算法的提出在不久的將來更易于被人們所接受。本文結(jié)合人眼的視覺特性,提出了一種新的醫(yī)學(xué)圖像增強(qiáng)算法,最終實(shí)現(xiàn)了醫(yī)學(xué)圖像的增強(qiáng),得到了對比度大、清晰,細(xì)節(jié)更明顯的圖像。第六章總結(jié)與展望圖像的類型千變?nèi)f化,導(dǎo)致處理圖像方法千差萬別,而圖像質(zhì)量好壞沒有一個(gè)統(tǒng)一的標(biāo)準(zhǔn)來衡量,這要求我們加大對圖像處理的研究。由于醫(yī)學(xué)圖像具有對病灶區(qū)邊緣要求較高、對比度要求高以及對降低噪聲影響要求較高的性質(zhì),我們實(shí)驗(yàn)結(jié)果表明基于人眼的視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法對醫(yī)學(xué)圖像的邊緣增強(qiáng)明顯,且降低了噪聲對醫(yī)學(xué)圖像的影響,更適于人眼接受,實(shí)現(xiàn)了醫(yī)學(xué)圖像的增強(qiáng),更適用于醫(yī)療診斷與治療。實(shí)驗(yàn)一: :a): β1= β2= a) 原始圖像() b)預(yù)處理后圖像 c) 增強(qiáng)算法增強(qiáng)圖像 d) 對比度增強(qiáng)圖像:平均梯度本文增強(qiáng)c)對比度增強(qiáng)d)實(shí)驗(yàn)二: :a): β1= β2= a)原始圖像() b)預(yù)處理后圖像 c) 增強(qiáng)算法增強(qiáng)圖像 d)對比度增強(qiáng)圖像:平均梯度本文增強(qiáng)c)對比度增強(qiáng)d)實(shí)驗(yàn)三: :a): β1= β2= a) 原始圖像() b)預(yù)處理后圖像 c)增強(qiáng)算法增強(qiáng)圖像 d)對比度增強(qiáng)圖像:平均梯度本文增強(qiáng)c)對比度增強(qiáng)d)實(shí)驗(yàn)四::a): β1= β2= a)原始圖像() b)預(yù)處理后圖像 c)增強(qiáng)算法增強(qiáng)圖像 d)對比度增強(qiáng)圖像:平均梯度本文增強(qiáng)c)對比度增強(qiáng)d) 基于人眼視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法是根據(jù)一個(gè)增強(qiáng)函數(shù)實(shí)現(xiàn)醫(yī)學(xué)圖像的增強(qiáng)。  end實(shí)驗(yàn)過程如下,a)代表原始圖像;b)代表預(yù)處理后圖像;c)代表本文增強(qiáng)圖像;d)代表傳統(tǒng)的對比度增強(qiáng)圖像(這里實(shí)現(xiàn)的直方圖均衡化方法)?! VEGRAD=AVEGRAD/((M1)*(N1))?! VEGRAD=sum(sum(diffX+diffY))?! iffX=diffX.*diffX?! iffX(1:M,N)=0?! iffX=imgtempX?! empX(1:M,1:(N1))=img(1:M,2:N)。 %%% save the differential value of Y orient  tempX=zeros(M,N)。 %%% save the gradient value of single pixel  diffX=zeros(M,N)?! M,N]=size(img)。因?yàn)樵趫D像中,某一方向的灰度級變化率大,它的梯度也就大。2. 平均梯度可敏感地反映圖像對微小細(xì)節(jié)反差表達(dá)的能力,可用來評價(jià)圖像的模糊程度。平均梯度越大,圖像層次越多,也就越清晰。當(dāng)圖像的邊界或影線兩側(cè)附近灰度有明顯差異,即灰度變化率大,這種變化率的大小可用來表示圖像清晰度。將得到的h(x,y)、fe(x,y)、β帶入增強(qiáng)函數(shù)gx,y=fe(x,y)+βh(x,y)得到增強(qiáng)圖像g(x,y)。其中,fe(x,y)是處理后圖像f1(x,y)在基于人眼的對比靈敏度特性的灰度映射增強(qiáng)的圖像;h(x,y)是基于不同區(qū)域分解濾波后得到的細(xì)節(jié)圖像;β是一個(gè)權(quán)值,β的值不唯一,在不同的區(qū)域?qū)?yīng)不同的β值,它的值是在分解濾波的過程中得出的。對處理后圖像f1(x,y)進(jìn)行基于人眼視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法增強(qiáng),得到我們需要的增強(qiáng)圖像g(x,y)。對醫(yī)學(xué)圖像f(x,y)進(jìn)行預(yù)處理,得到包含大部分可用信息的處理后圖像f1(x,y)。本章小結(jié): 本章主要介紹了基于人眼的視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法,其中包括:對原始圖像的預(yù)處理過程、基于人眼的對比靈敏度特性的灰度映射函數(shù)的構(gòu)造與分析、分解濾波的實(shí)現(xiàn),從理論上驗(yàn)證了算法的可行性,為實(shí)驗(yàn)結(jié)果的實(shí)現(xiàn)鋪平了道路。在分解濾波的基礎(chǔ)上結(jié)合人眼的邊緣敏感性,可以在大幅度增強(qiáng)醫(yī)學(xué)圖像的邊緣的同時(shí)降低噪聲帶給醫(yī)學(xué)圖像的影響。采用33窗口的局部均值μ和方差σ2分別為:μ=19i=11j=11f1(i,j)σ2=19i=11j=11f1(i,j)μ2根據(jù)σ2的大小設(shè)定兩個(gè)門限值γ1,γ2,則:β= 0(σ2=γ1)β1(γ1σ2=γ2)β2(σ2γ2) 其中,β2?β1。我們認(rèn)為圖像邊緣主要在中頻區(qū)域,而噪聲大多集中在高頻區(qū)域。h(x,y)對應(yīng)的梯度值為h(i,j)則:hi,j=8f1(i,j)f1(i1,j1)+f1(i1,j)+f1(i1,j+1)+f1(i,j1)+f1(i,j+1)+f1(i+1,j1)+f1(i+1,j)+f1(i+1,j+1)其中,f(i,j)是原圖像在(i,j)的像素值。在此基礎(chǔ)上的反銳化掩模不僅可以較好的增強(qiáng)圖像的邊緣,而且可以在區(qū)域分割的基礎(chǔ)上降低噪聲對醫(yī)學(xué)圖像的影響。其中,H(x,y) 基于拉普拉斯算子的分解濾波是在基于區(qū)域分割的分解濾波的基礎(chǔ)上引入拉普拉斯算子。σ2T1的區(qū)域?yàn)榈皖l區(qū)域,一般為圖像的背景,不需要增強(qiáng);T1≤σ2T2 的區(qū)域?yàn)橹蓄l區(qū)域,一般看做圖像的邊緣,希望得到很大的增強(qiáng);σ2≥T2的區(qū)域?yàn)楦哳l區(qū)域,一般認(rèn)為是噪聲,需要較大增強(qiáng)。常用的拉普拉斯算子的模板有:111181111 010141010 121242121 分解濾波的原理 分解濾波首先將圖像分出三個(gè)區(qū)域:低頻的區(qū)域、中頻的邊界區(qū)域、高頻的噪聲區(qū)域,然后對不同的區(qū)域選取不同的增強(qiáng)系數(shù)k。拉普拉斯算子的運(yùn)算是一種各向同性的線性運(yùn)算,是一種基于偏導(dǎo)數(shù)運(yùn)算的線性組合。由此可以分析出,當(dāng)α0且β取一個(gè)較小的負(fù)值時(shí),灰度映射函數(shù)對應(yīng)的函數(shù)曲線是一個(gè)單調(diào)遞增且向上凸的曲線形式,: 由灰度映射函數(shù)的曲線圖可以看出,我們構(gòu)造的灰度映射函數(shù)不僅僅符合人眼的對比靈敏度特性,而且通過這個(gè)灰度映射函數(shù)可以實(shí)現(xiàn)醫(yī)學(xué)圖像對比度的增強(qiáng),在理論上為實(shí)驗(yàn)的順利實(shí)現(xiàn)打下了基礎(chǔ)。0。=(2αβαβ2s)eβs當(dāng)2αβαβ2s0,即:s2β時(shí),t39。對灰度映射函數(shù)二階求導(dǎo),得到:t39。0。由上面對灰度映射函數(shù)的一階導(dǎo)數(shù)與二階導(dǎo)數(shù)分析可知,當(dāng)α0且β取一個(gè)較小的正值時(shí),構(gòu)造的函數(shù)對應(yīng)的函數(shù)曲線是一個(gè)單調(diào)遞增且向下凹的曲線形式,:當(dāng)α0時(shí),對構(gòu)造的灰度映射函數(shù)一階求導(dǎo),得到t39。0。=(2αβ+αβ2s)eβs當(dāng)2αβ+αβ2s0,即:s2β時(shí),t39。對灰度映射函數(shù)二階求導(dǎo),得到:t39。0。映射函數(shù):t=αs*exp?(βs) 當(dāng)α0時(shí),對灰度映射函數(shù)一階求導(dǎo),得到:t39。得到我們所需要的處理后的圖像f1(x,y),: 原始圖像 處理后圖像 人眼的對比靈敏度函數(shù)為:Af=(+)exp()f 根據(jù)這個(gè)對比靈敏度函數(shù)構(gòu)造一個(gè)灰度映射函數(shù)t=Ts,因?yàn)檫@個(gè)灰度映射函數(shù)是在人眼的對比靈敏度的基礎(chǔ)上夠造出來的,符合人眼的對比度特性,且通過對這個(gè)灰度映射函數(shù)的分析,將這個(gè)灰度映射函數(shù)用于醫(yī)學(xué)圖像的對比度增強(qiáng),能夠得到適合人眼對比靈敏度特性的增強(qiáng)圖像。(找到并記錄面積最大的輪廓)}(尋找到面積最大的輪廓,為循環(huán)結(jié)束時(shí)的area_max_contour)}Return area_max_contour。(獲得當(dāng)前輪廓面積) If(contour_area_temp contour_area_max) {Contour_area_max = coutour_area_temp。 c=ch_next)。(為面積指針賦初值為0,為最大輪廓面積賦初值為0); For(c=contour。 {CvSeq * area_max_contour=0。在Opencv中運(yùn)用函數(shù)cvContourArea實(shí)現(xiàn)。 利用Opencv實(shí)現(xiàn)二值化醫(yī)學(xué)圖像最大面積閉合輪廓的計(jì)算。根據(jù)這個(gè)最佳閾值T39。設(shè)Ni是灰度值為i的像素?cái)?shù),圖像f(x,y)總的像素為 N=iNi ,各灰度級出現(xiàn)的頻率為P(i)=Ni/N。最大類間方差法(也稱為大津法)是由日本學(xué)者大津于1979年提出的,是一種自適應(yīng)的閾值確定方法,是在判決分析或最小二乘法原理的基礎(chǔ)上推導(dǎo)出來的,簡稱OTSU。它的好處主要有兩方面:一是去除了可能引入了噪聲的不重要部分,降低噪聲對醫(yī)學(xué)圖像質(zhì)量的影響;二是減小了不重要部分的信息對分解濾波的影響,有利于分解濾波的正常實(shí)現(xiàn)。根據(jù)不同區(qū)域設(shè)置不同 k值:k=α1 σ2T1α2 T1≤σ2α2 σ2?T1T2 對于高頻信號h(x,y),使用下式求得:hx,y=1+φfx,ym(x,y)mx,y=f(x,y)*H(x,y)帶入下式gx,y=fx,y+k*h(x,y)得到分解濾波增強(qiáng)圖像。這里根據(jù)局部方差法對圖像進(jìn)行劃分,一個(gè)33窗口的局部方差法如下:μ=19i=11j=11f(x,y)σ2=19i=11j=11fi,jμ2根據(jù)σ2的值,可以將圖像分成三個(gè)區(qū)域。C0部分的總概率為:P0=i=fminTP(i) 其均值為 : μ0=i=fminTiP(i)/P0 C1部分的總概率為: P1=i=T+1fmaxP(i) 其均值為: μ1=i=T+1fmaxiP(i)/P1 圖像f(x,y)的均值為: μ=i=fminfmaxiP(i)=P0μ0+P1μ1 則區(qū)域間的方差為:σ2(T)=P0(T)μTμ0T2+P1(T)μ(T)μ1(T)2 當(dāng)σ2(T)達(dá)到最大時(shí),可以認(rèn)為是2個(gè)區(qū)域的最佳分離狀態(tài),由此可以確定最佳閾值T'。及與人眼視覺特性的醫(yī)學(xué)圖像增強(qiáng)方法用到的基礎(chǔ)方法:基于大津法的閾值二值化:把醫(yī)學(xué)圖像當(dāng)做只存在目標(biāo)和背景2個(gè)區(qū)域,設(shè)圖像f(x, y)的像素按灰度級用閾值T分為C0和C1兩部分,則:C0={f1 (x,y)|fmin?f(x,y)?T}C1=f2(x,y)|Tf(x,y)?fmax其中,fmin,fmax分別為圖像f(x,y)中灰度最小值和最大值。其過程分為兩大板塊:一是對處理后圖像f1(x,y)基于人眼的對比靈敏度特性構(gòu)造一個(gè)灰度映射函數(shù)t=Ts,對處理后圖像f1(x,y)進(jìn)行對比度的增強(qiáng),得到圖像fe(x,y);二是對處理圖像后f1(x,y)進(jìn)行分解濾波得到所需要的細(xì)節(jié)圖像h(x,y),并在不同的區(qū)域獲得不同的權(quán)值β。其對應(yīng)的增強(qiáng)函數(shù)為:gx,y=fe(x,y)+βh(x,y)。其過程為:首先對醫(yī)學(xué)圖像f(x,y)進(jìn)行基于大津法的閾值二值化;然后將二值化后的圖像計(jì)算出最大面積閉合輪廓,與原圖像做運(yùn)算,得到處理后圖像f1(x,y)。第四章基于人眼視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法 基于人眼視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法的框架 : 基于人眼的視覺特性的醫(yī)學(xué)圖像增強(qiáng)算法描述:一、 首先給出一幅醫(yī)學(xué)CT圖像f(x,y)。:本章小結(jié): 本章主要介紹了人眼視覺系統(tǒng)概述、人眼視覺感知概述、人眼視覺的特性綜括以及醫(yī)學(xué)圖像增強(qiáng)算法中用到的人眼的視覺特性。我們可以用時(shí)空可分離的部分線性組合來近似表示
點(diǎn)擊復(fù)制文檔內(nèi)容
數(shù)學(xué)相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1