freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

機器人室內(nèi)定位技術(shù)說明書(編輯修改稿)

2025-09-01 08:28 本頁面
 

【文章內(nèi)容簡介】 下的幫助進行注意力轉(zhuǎn)移。 這個框架的結(jié)構(gòu),對于計算機視覺計算技術(shù)而言,提供了大量的并行方法,我們可以通過快速選取出一組圖片中感興趣的點來分析更復雜和更消耗時間的物體識別過程。Saliency模型:程序輸入是一張靜態(tài)的彩色圖片,通常采用640*480的圖片,通過利用高斯金字塔構(gòu)建9種不同的空間尺度,對輸入圖像進行低通過濾和二次采樣,生成從1:1到1:256這8個幅度的橫向和縱向的圖像縮小因素。每一個特征都是通過計算一組線性的“centersurround”運算。類似于視覺接受域:典型的視覺神經(jīng)元對視野中心的區(qū)域一小塊區(qū)域特別敏感,而刺激更廣泛的外圍區(qū)域則會抑制神經(jīng)元的反應。對局部不連續(xù)空間敏感的這樣一種結(jié)構(gòu),特別適合用于檢測明顯與周圍不同的局部特征,因此被用作模擬視網(wǎng)膜、外側(cè)膝狀體和初級視皮層的運算法則。Centersurround 在實現(xiàn)中會有從精細到粗獷的不同尺度。中心分別取每個像素取c為2倍、3倍、4倍,外圍則是每個像素對應s對應s = c + δ,δ取3或4。兩張圖的跨尺度區(qū)分是通過修改精細尺度和點對點做減法獲取的。通過使c和δ兩方面,可以獲取真正的中心區(qū)域和周圍區(qū)域的多尺度特征提取。 提取早期視覺特征模型研究的特征分為三種,分別為明暗特征,色彩特征和方向特征。r,g,b分別代表輸入圖像的紅色、綠色和藍色,圖像的亮度通道I通過I=(r+g+b)/3計算得到的。I用于創(chuàng)建高斯金字塔I(σ), 其中σ取0到8的整數(shù)。r,g,b通道通過計算I進行正規(guī)化,將色彩從亮度中解耦。然而由于色彩變換在亮度特別低的時候是無法感知的,因此是不顯著的,因此正規(guī)化僅僅作用于I大于整張圖片亮度最大值十分之一的部位。4個調(diào)和后的色彩通道分別為紅色通道R = r (g + b)/2,綠色通道G = g (r + b)/2,藍色通道B = b (r + g)/2和黃色通道Y = (r + g)/2 |r g|/2 b, 通過這4個通道,由此,我們可以創(chuàng)建R(σ), G(σ), B(σ), and Y(σ)四個高斯金字塔。前面定義的centersurroun d差值通過中心的精細比例c和外圍的粗糙比例s的差值產(chǎn)生了特征圖。第一組特征圖考慮的是亮度的對比,哺乳動物是通過神經(jīng)元對暗中心區(qū)域和亮外圍區(qū)域或亮中心區(qū)域作用于暗外圍區(qū)域的效果進行分別的。這兩種類型的敏感是用6組亮度圖I(c,s)同時計算的,c分別取2,3,4,s = c + δ,δ分別取3或4:第二組特征圖與前面類似,是為色彩通道構(gòu)建的,在人類的視覺皮層中是通過一種稱為“雙色對比”的系統(tǒng)來處理色彩的:在感受野中部的神經(jīng)元會被一種顏色(例如紅色)刺激產(chǎn)生興奮而被另一種顏色(例如綠色)抑制。反之對外圍的神經(jīng)元也成立。這種空間色彩的對比在人腦視覺感受皮層中存在紅/綠、綠/紅、藍/黃和黃/藍4組對比。因此,通過創(chuàng)建模型中的RG(c,s)特征圖可以同時模擬紅/綠和綠/紅兩種對比,BY(c,s)則可以模擬藍/黃和黃/藍兩種對比:第三組特征圖是局部方向特征圖,通過Gabor金字塔作用于亮度圖I產(chǎn)生方向顯著圖O(σ,θ ),σ取0到8的正整數(shù)來表示比例,θ是表示的方向,分別取0176。,45176。,90176。和135176。Gabor過濾是余弦光柵和2D高斯包絡的乘積,結(jié)果近似于初級視皮層感受野對方向的敏感辨識程度。方向特征圖O(c, s, θ),表示了中心和周圍尺度的方向?qū)Ρ取?綜上所述,共通過計算生成了42張?zhí)卣鲌D,其中包括6張亮度圖,12張顏色圖和24張方向圖。 顯著圖(The Saliency Map)顯著圖用于通過常量表示一個區(qū)域的顯著性。顯著圖與特征圖結(jié)合起來,以動態(tài)神經(jīng)網(wǎng)絡為模型提供了自低向上的構(gòu)建特征圖的方法。在結(jié)合不同的特征圖時,由于各張?zhí)卣鲌D之間有著不同的值域,且提取方式不同,因此數(shù)值上不具有可比性。另外由于要結(jié)合所有的42張圖,因此出現(xiàn)在少數(shù)幾張圖中幾個位置的視覺顯著可能會被噪聲或者其他較為不顯著的物體遮擋。由于缺少自頂向下的監(jiān)督,我們提出一種對圖進行正規(guī)化的方法,用N(.)來表示。通過正規(guī)化可以達到的效果為,增強只有少量顯著點的顯著圖,削弱顯著點較多的顯著圖,步驟如下:[0..M],以消除振幅的差別。,并計算所有局部極大值的平均值m,乘上(Mm)^2只有局部極大值才會被計算,這樣正規(guī)化就可以忽略同質(zhì)的區(qū)域。比較整張圖的極大值和平均值可以看出最活躍的部位和平均值的區(qū)別。當這個差別較大的時候,最活躍的區(qū)域就會較為明顯,若這個差別較小,則這張圖就會被抑制。正規(guī)化方法的生物學解釋在于,它簡單地重現(xiàn)了外側(cè)皮層的抑制機制,相鄰的類似特征會通過一種特殊的物理鏈接相互抑制。特征圖分別被合并到尺度為4的三張顯著圖,分別為亮度圖I,顏色圖C和方向圖O。計算方法如公式所示,其中跨尺度的加法是由將每幅圖降尺度到尺度四再進行像素對像素的加法:對于方向而言,首先根據(jù)給定的角度和六張?zhí)卣鲌D生成中間步驟的四張圖,接著整合成一張方向特征圖。創(chuàng)建三張單獨的通道圖I,C,O和他們各自的正規(guī)化是基于假設:類似的特征會為了顯著而激烈競爭,然而不同的特性對于顯著圖會有各自的表現(xiàn)。三張圖片經(jīng)過正規(guī)化后取平均值即可得到最終的saliency圖。在任意時刻,saliency圖的最大值定義了整張圖片最顯著的位置,也就是注意力焦點所在的位置(FOA)。我們可以簡單地認為,圖片中最活躍的區(qū)域就是模型關(guān)注的下一個焦點。然而,在一個神經(jīng)元可行的實現(xiàn)中,我們利用比例為4的2D 積聚觸發(fā)模型對saliency圖進行建模。模型中的這些神經(jīng)元有一個電容可以將突觸輸入的電量聚集起來進行充電,一個漏電導和一個電壓閾值。當電壓達到了這個閾值,就會生成一個觸發(fā)原型, 并且電容的電量會減少到0。尺寸為4的saliency圖會輸入到一個2D的贏家通吃(WTA)神經(jīng)網(wǎng)絡,不同單元之間的突觸交互可以保證最活躍的區(qū)域被
點擊復制文檔內(nèi)容
公司管理相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1