freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

無人駕駛系統(tǒng)中復(fù)雜動態(tài)環(huán)境下的顯著性目標(biāo)的識別-預(yù)覽頁

2025-06-20 22:51 上一頁面

下一頁面
 

【正文】 CVidCapDlg::OnBnClickedTestOpen(){ CFileDialog dlgFile(TRUE)。 ().lpstrFile = (c_cbBuffSize)。 if(()!=IDOK) { ()。 delete image。 AfxMessageBox(s)。 ()。接著,判斷DoModal()是否成功建立向?qū)В绻晒⑾驅(qū)?,IDOK就返回結(jié)束或刪除的地址。 保存圖像在Cximage 類庫和DirectShow的基礎(chǔ)上實(shí)現(xiàn)圖像的提取。 const int c_cMaxFiles = 100。 |= OFN_EXPLORER | OFN_EXTENSIONDIFFERENT。 imageSave(fileName,FileType)。然后獲取要打開文件的名字和圖像的最大尺寸,將執(zhí)行打開圖像功能的標(biāo)記和圖像文件的名字貯存起來。最后重繪圖像,并釋放緩沖存儲器的數(shù)據(jù)4 基于目標(biāo)空間分布特性和局部復(fù)雜度的顯著模型 亮度顯著圖通過對大量顯著目標(biāo)的分析發(fā)現(xiàn)如果某個域能夠引起人類的注意,那么其像素值與其周邊的鄰域存在很大的差異[13]。 顯而易見,在二維和三維空間中的歐式距離其實(shí)就是兩點(diǎn)之間的距離,二維的公式是,三維的公式是,歐氏距離可以看作信號與信號之間的相似程度,它們之間的距離越近,信號與信號就越相似,就越容易相互干擾,他們之間的誤碼率就越高。最終的亮度顯著圖為,根據(jù)上述亮度顯著圖形成的原理所編寫的程序代碼如下,void GetRectAverageValue(CxImage *img,int x1,int y1,int x2,int y2,int *numR,int *numG,int *numB){ int x,y,b。 *numR = *numG = *numB = 0。 for(x=x1。 *numB += *(p+2)。 *numR /= num。從主函數(shù)中傳入所處理圖像的左上角的坐標(biāo)值、右下角的坐標(biāo)值和基本色素RGB的值。最后計(jì)算整個圖像的像素值,從而求得圖像基本色素的平均值。 w=imageGetWidth()。 int x1,y1,x2,y2,numR,numG,numB。 yh。 t = wh/2。 i++) { x1 = xt/2。 y1 = yt/2。 GetRectAverageValue(image,x1,y1,x2,y2,amp。 r+=numR。 } r /= 3。 int R,G,B。 B = 。 x0=w/2。 { if(yy0) n=cos((double)2*y/x)。 if(xw/4amp。 d*=Wcenter。 ReDraw()。用d = sqrt(((Rr)*(Rr)+(Gg)*(Gg)+(Bb)*(Bb))/)求得該圖像的初始顯著值,由于圖像的中央更容易引起人的眼的關(guān)注,需要對求得顯著值進(jìn)行修正。(a) 輸入圖像(b) 對應(yīng)的亮度顯著圖 亮度顯著圖示意圖 顏色顯著圖和亮度一樣,顏色也是彩色圖像的重要信息,如果要構(gòu)造一個基于顏色特征的顯著性檢測模型,首先必須提取圖像的顏色主分量,然后以顏色主分量為中心進(jìn)行聚類,最后依據(jù)顯著目標(biāo)是顯眼的、緊湊的和完整的特點(diǎn)來進(jìn)行顯著性檢測。(a) a分量直方圖(b) b分量直方圖 顏色主分量直方圖 Lab顏色空間對于Lab顏色空間大家都不陌生,它是一種顏色模型,是在依照1931年國際照明委員會(CIE)制定的顏色度量國際標(biāo)準(zhǔn)為基礎(chǔ),與1976年經(jīng)修訂并被最終被命名為CIE Lab。通常 L的取值空間為0100(純黑純白)、a的取值空間為+127128(洋紅綠)、b的取值空間為+127128(黃藍(lán))。L、a、b三個通道都是灰度通道,在這三個通道圖像中只有L 值是變化的,而a、b值在三個通道中到處是零。的高斯函數(shù)是傅里葉變換的特征函數(shù)。(1)空間緊湊性空間緊湊性指顏色分量的空間分布,相對擴(kuò)散程度是由類內(nèi)方差決定的[15]。因此,將類內(nèi)方差歸一化使得最大的值為0,而最小的的值為1,同理,歸一化使顏色分量的空間緊密性為為;(2)同質(zhì)性同質(zhì)性指局部區(qū)域顏色分量的相似度,反映區(qū)域的一致性,顏色分量同質(zhì)性定義為[15],,其中,分別是指顏色分量的像數(shù)點(diǎn)的分量和分量的平均值,是用來表示顏色分量的質(zhì)心[15]。(a)原圖像(b)顏色顯著圖 顏色顯著圖示意圖 方向顯著圖首先通過低通濾波和在水平和垂直方向上采樣得到原始圖像的高斯金字塔(層數(shù)為L),再根據(jù)方向的空間分布和局部復(fù)雜度計(jì)算每層的顯著圖,把每層的顯著圖放大到輸入的原始圖像大小并且累加得到最終的方向顯著圖[13]。像素塊的全局顯著度為;熵是用來統(tǒng)計(jì)局部鄰域內(nèi)的信號復(fù)雜度或不可預(yù)測性的,即不確定性。因此,本文設(shè)計(jì)的融合策略如下:(1)面積增強(qiáng)因子。設(shè)置一個動態(tài)門限T,像素值大于T的點(diǎn)即判為顯著點(diǎn),即,其中,表示特征顯著圖的灰度級,表示灰度值在特征顯著圖中發(fā)生的概率;(2)空間分布因子。 融合顯著圖5 結(jié) 論同Itti模型等其他算法相比較,本文算法能夠在一直雜亂背景影響的基礎(chǔ)上比較準(zhǔn)確和全面地檢查到顯著區(qū)域。根據(jù)這種檢測模型來檢測本文所采用的算法和Itti模型等其他算法的的查準(zhǔn)率、查全率和的對比結(jié)果,本文提出算法在查準(zhǔn)率、查全率和都好于其它種算法,正表明了本文算法思路的合理性。本文模型也存在很多的不足之處,該方法還不能準(zhǔn)確地將顯著目標(biāo)選擇出來,這是由于沒有考慮目標(biāo)的邊緣特性。 Applic,2008,(17):265289[17] Mohammad Osiur Rahman, Fouzia Asharf Mousumi, Edgar Scavino,. Real Time Road Sign Recognition System Using Artificial Neural Networks for Bengali Textual Information Box[J]. European Journal of Scientific Research,2009,25(3):478478[18] Radhakrishna Achanta, Sheila Hemami, Francisco Estrada,. Frequencytuned Salient Region Detection[R].IEEE International Conference on Computer Vision and Pattern Recognition, Miami Beach, Florida, June 2025, 2009[19] MingMing Cheng, Guo Xin Zhang,Niloy J. Mitra,et..al. Global Contrast based Salient Region Detection[J]. IEEE : 409416[20] [N].中國理論雜志電子出版
點(diǎn)擊復(fù)制文檔內(nèi)容
公司管理相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1