freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

數(shù)字圖像處理實驗報告-基于matlab-閱讀頁

2025-07-13 14:15本頁面
  

【正文】 認的量化矩陣進行量化和反量化,計算原圖像與重建圖像之間的均方根誤差RMSE、并顯示誤差圖像。39。subplot(231)。title(39。173。188。241。)。F=F128。subplot(232)。title(39。)。n=8。subplot(233)。title([39。,num2str(DCTch),39。])。imhist(uint8(abs(e)))。差值直方圖,RMSE=39。scale=4。subplot(235)。title([39。,num2str(scale),39。])。imshow(uint8(abs(err)),[])。量化誤差圖像,RMSE=39。2. function [I,e,rmse1]=ZigIDCT(oldbuf,dctfre,DCTch,n)%oldbuf:原始圖像數(shù)據(jù)%dctfre:DCT系數(shù)矩陣%DCTch:每個分塊中需要保留的DCT系數(shù)個數(shù)%n:分塊的大小%e:原圖像與保留部分DCT系數(shù)后的重建圖像之間的誤差矩陣% 按ZigZag掃描順序,根據(jù)DCTch參數(shù),只保留64個% DCT系數(shù)中的前DCTch個系數(shù),對修改后的DCT系數(shù)用逆DCT變換重建圖像,得到DCT變% 換的壓縮圖像。zigzag = [ 1 2 6 7 15 16 28 29 3 5 8 14 17 27 30 43 4 9 13 18 26 31 42 44 10 12 19 25 32 41 45 54 11 20 24 33 40 46 53 55 21 23 34 39 47 52 56 61 22 35 38 48 51 57 60 62 36 37 49 50 58 59 63 64]。 %根據(jù)當前DCTch值得到“Z”字掃描的邏輯值,mask為logic類型%對修改后的DCT系數(shù)用逆DCT變換重建圖像,得到DCT變換的壓縮圖像D=dctmtx(n)。P1*(x.*P2)*P339。,maskbuf,D)。 %e:原圖像與保留部分DCT系數(shù)后的重建圖像之間的誤差矩陣I=I+128。endfunction dctfre = DctBlock(oldbuf,n) %分塊DCT函數(shù):根據(jù)給定的n值,計算原圖像的nn塊的DCT系數(shù),并轉(zhuǎn)換為可視頻譜圖以便觀察 % oldbuf 原始圖像數(shù)據(jù) % n 分塊的大小 % dctfre DCT系數(shù)矩陣D=dctmtx(n)。P1*x*P239。)。為D的轉(zhuǎn)置end4. function [newbuf,e,rmse2]=QuanIQuan(oldbuf,dctfre,n,scale)%量化和反量化函數(shù):根據(jù)給定的默認JPEG量化表,%對每個nn塊的DCT系數(shù)進行量化和反量化,顯示量化誤差圖像及其直方圖。量化系數(shù)z= [16 11 10 16 24 40 51 61 12 12 14 19 26 58 60 55 14 13 16 24 40 57 69 56 14 17 22 29 51 87 80 62 18 22 37 56 68 109 103 77 24 35 55 64 81 104 113 92 49 64 78 87 103 121 120 101 72 92 95 98 112 100 103 99]。round(x./P1)39。 %量化 IQvalue=blkproc(Qvalue,[n n],39。,scale*z)。 newbuf=blkproc(IQvalue,[n n],39。,D39。 e=newbufoldbuf。 %求均方根誤差 newbuf=newbuf+128。 e=oldbuf.^2。end【輸出圖像】實驗8:運動估計【實驗目的】【實驗內(nèi)容】1)編寫全搜索算法函數(shù),將運動矢量疊加到當前幀上并顯示輸出;2)顯示輸出預測幀、殘差幀和重建圖像,計算預測幀的PSNR。39。 %定義參考幀imgP=imread(39。)。imshow(imgI)。參考幀39。subplot(232)。title(39。)。imgP=double(imgP)。 % 塊尺寸為16*16p=7。 %基于塊的全搜索算法imgMV(motionVect,imgP,blk_center)。 %根據(jù)運動矢量計算預測幀,并傳輸殘差幀psnr=imgPSNR(imgP,imgComp)。imshow(uint8(imgComp))。預測幀,PSNR=39。 imgErr=imgPimgComp。 %標定,顯示更好效果subplot(235)。title(39。)。 %根據(jù)運動矢量指明的位置及殘差幀重建圖像subplot(236)。title(39。)。blk_center=zeros(2,row*col/(mbSize^2))。 %定義每個宏塊運動矢量costs=ones(2*p+1,2*p+1)*65537。 %搜索的點數(shù)之和mbCount=1。 %參考幀搜索框起始行 ref_blk_col=j+n。 end %否則計算該點SAD值 costs(m+p+1,n+p+1)=costSAD(imgP(i:i+mbSize1,j:j+mbSize1),imgI(ref_blk_row:ref_blk_row+mbSize1,ref_blk_col:ref_blk_col+mbSize1))。 end end blk_center(1,mbCount) = i+ mbSize/21。 %記錄中心點列坐標 [minc,dx,dy]=minCost(costs)。 %垂直運動矢量 motionVect(2,mbCount)=dyp1。 costs=ones(2*p+1,2*p+1)*65537。 end3. function [imgComp] = motionComp(imgI, motionVect, mbSize)%求預測幀的函數(shù):由給定的運動矢量進行運動補償計算預測幀%imgI:參考幀%motionVect:MV(dx為垂直分量,dy為水平分量)%mbSize:MB尺寸%imgComp:運動補償后的圖像[row,col]=size(imgI)。for i = 1:mbSize:rowmbSize+1 for j = 1:mbSize:colmbSize+1 ref_blk_row=i+motionVect(1,mbCount)。 %參考幀搜索塊起始列 imgComp(i:i+mbSize1,j:j+mbSize1)=imgI(ref_blk_row:ref_blk_row+mbSize1,ref_blk_col:ref_blk_col+mbSize1)。 endendend4. function [minc,dx,dy] = minCost(costs)%求具有最小SAD值的函數(shù):找出具有最小代價的塊的下標%costs:包含當前宏塊所有運動估計誤差代價的SAD矩陣%dx:MV的垂直分量%dy:MV的水平分量[row,col]=size(costs)。dx=1。for i=1:row for j=1:col if(costs(i,j)minc) minc=costs(i,j)。 dy=j。 endfunction imgMV(motionVect,imgP,blk_center)subplot(233)。title(39。)。%ix=blk_center(2, : )。%mu=motionVect(2, : )。red39。hold onend7. function psnr = imgPSNR(imgP, imgComp)% 計算運動補償圖像的峰值信噪比% Input% imgP : 原始圖像% imgComp : 補償圖像% Ouput% psnr : 峰值信噪比[M,N]=size(imgP)。psnr=10*log10(255^2/MSE)。[M,N]=size(F)。for x=1:M for y=1:N fm(x,y)=F(x,y)m1。Fm=double(fm)。 endendcal=uint8(
點擊復制文檔內(nèi)容
醫(yī)療健康相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1