【正文】
W images are captured by a vertical scanning system. is the color image of the object。 j ( pj )∑δ pk ω kj k (8) Where tpj is ideal output and opj is real output. Color sensor is calibrated by the BP Neural Network mentioned above and the input an output are selected as the 3D coordinates of the calibration points and their corresponding 2D pixel coordinates as shows. Xw Yw Zw Input Layer … Hidden Layers Xf Yf Output Layer Laser Bamp。兩者的方法都不需要預(yù)先設(shè)置相機(jī)的內(nèi)在和外部參數(shù),如比例因子和圖像中心的空間,但點(diǎn)坐標(biāo)和其對(duì)應(yīng)的像素坐標(biāo)的數(shù)量卻是不夠的,為了保證高精度,仍需要多次的采樣。 雙層(不考慮輸入層) BP神經(jīng)網(wǎng)絡(luò)的六個(gè)節(jié)點(diǎn)的隱藏層采用校準(zhǔn)顏色傳感器。所以,該方法如上所述能夠?qū)崿F(xiàn)三維信息和其相應(yīng)的顏色信息之間的相互匹配。 該光平面將與相交對(duì)象產(chǎn)生光的條紋。在向前的方向時(shí),各層的行為僅影響下一層,并且如果輸出不理想,過程中會(huì)變成向后方向,它沿著連接路徑和返 回錯(cuò)誤信號(hào)通過修改重量發(fā)送回輸入層。每一層都包含一個(gè)或多個(gè)節(jié)點(diǎn),每個(gè)層的輸出只與下一層的輸入端連接,并沒有與別的任何層有節(jié)點(diǎn)的輸入和輸出關(guān)系。 理論上,參數(shù) M11到參數(shù) M34都可以通過 6個(gè)點(diǎn)來確定。不過多數(shù)的方法都因?yàn)橄鄼C(jī)過于復(fù)雜,從而使得模型總是需要被設(shè)置、許多照相機(jī)的內(nèi)在和外部參數(shù)需要進(jìn)行運(yùn)算,很有可能會(huì)造成一個(gè)不穩(wěn)定的求解過程?;谠撔?zhǔn)結(jié)果,真實(shí)的物體被測(cè)量并且獲得的三維色點(diǎn)云, 可以真實(shí)生動(dòng)的展現(xiàn)實(shí)物對(duì)象。 關(guān)鍵詞: 3D顏色傳感器 。但實(shí)際上在許多應(yīng)用中,光是在圖像空間中的點(diǎn)的坐標(biāo)和它們的像素坐標(biāo)之間的映射關(guān)系的運(yùn)算已經(jīng)是足夠的,照相機(jī)的許多內(nèi)部和外部參數(shù)往往有多余的嫌疑。然而在實(shí)際應(yīng)用中, M34卻是一個(gè)需要幾十個(gè)點(diǎn)構(gòu)建超定方程來減少誤差的特殊項(xiàng)。一個(gè)標(biāo)準(zhǔn)的網(wǎng)絡(luò)是由一個(gè)輸入層,一個(gè)或多個(gè)的隱藏層和一個(gè)輸出層構(gòu) 建而成的。重復(fù)此過程,直到誤差滿足需求為止。該測(cè)量過程被掃描的光條紋的物體上的過程中,并記錄在輪廓信息由 3D傳感器。 基于上述理論,共面和非共面的校準(zhǔn)點(diǎn)可分別使用敏通公司制造的 MTV0360和 73X11HP來校準(zhǔn)和現(xiàn)實(shí)黑白 CCD和彩色 CCD 的分別。校準(zhǔn)點(diǎn)和檢測(cè)點(diǎn)的數(shù)目本別是 60和 48,前者在 x方向上的平均絕對(duì)誤差為 ,后者在 y方向上平均3rd International Symposium on Instrumentation Science and Technology Aug. 18~22, 2020, Xi’an. China 1807 絕對(duì)誤差為 。另外,在使用線性區(qū)分標(biāo)定的情況下,數(shù)量和形式的分區(qū) 應(yīng)該由實(shí)際應(yīng)用確定,而圖像可以由其他方式來劃分,如同心圓或矩形等。W CCD Object Color CCD BP Neural Network model adopted by color sensor Schematic diagram of 3D color sensor Information matching process As shows, 3D sensor is posed of Bamp。 is the 3D point cloud calculated by the transformation matrixes and the image series。W and color CCD and 30 Bamp。 j ( pj ) (7) δ pj = f 39。 從理論分析上述的實(shí)驗(yàn)結(jié)果顯示,該基于攝像機(jī)標(biāo)定的匹配技術(shù)在一定程度上是可行的,而且也有令人滿意的精度和效果。發(fā)現(xiàn)四個(gè)圖像被捕獲的平均相對(duì)誤差僅為 %??梢詮恼娌噬珗D像得到 RGB 的像素值。 如圖 2所示,三維傳感器是由黑白 /彩色 CCD和能夠上下移動(dòng)的線結(jié)構(gòu)激光光線組合成。過程中定義了向前和向后兩個(gè)方向。 BP神經(jīng)網(wǎng)絡(luò)標(biāo)定技術(shù) BP 神經(jīng)網(wǎng)絡(luò)是單向傳輸?shù)亩鄬尤斯ど窠?jīng)網(wǎng)絡(luò)。由此,可將方程( 1)可以擴(kuò)展為下面的等式。為此,許多的校準(zhǔn)技術(shù)被提了出來比如如直接線性變換法,滿量程非線性優(yōu)化法,兩階段法等[4,5]。標(biāo)定實(shí)驗(yàn)結(jié)果表明,采用線性分區(qū)標(biāo)定的 3D傳感器其平均測(cè)量相對(duì)誤差為 %,而利用 BP神經(jīng)網(wǎng)絡(luò)標(biāo)定的顏色傳感器的測(cè)試精度可以達(dá)到 。攝像機(jī)標(biāo)定,信息匹配,線性分區(qū)標(biāo)定, BP神經(jīng)網(wǎng)絡(luò),色點(diǎn)云 獲得一個(gè)實(shí)物的 3D坐標(biāo)和顏色信息是一種純數(shù)字化的研究。基于上述的理由,提出了可以 通過分 別適用于線性區(qū)分標(biāo)定的 3D 傳感器和 BP 神經(jīng)網(wǎng)絡(luò)法的顏色傳感器,來校準(zhǔn)三維( 3D)坐標(biāo)與顏色傳感器測(cè)量的顏色信息之間的匹配關(guān)系。因此,當(dāng)點(diǎn)的數(shù)量為 N, 2N 時(shí),方程可以用如公式 (3)所示的構(gòu)建在矩陣 M基礎(chǔ)的最小二乘法來得到,并表示。 對(duì)于輸入節(jié)點(diǎn)來說,它們的輸出量是和它們的輸入量相等的。在向后方向中,重量由如下公式 (6)所示。水平方向和深度坐標(biāo)由三維傳感器被記錄和垂直坐標(biāo)將是從精確的機(jī)械掃描方式得到的,并且顏色傳感器將記錄的顏色信息對(duì)象。圖像捕獲板以 640 480 的分辨率采樣 Bamp。 對(duì)粘貼黃色,紅色和綠色的紙真實(shí)三維彩色實(shí)物進(jìn)行基于黑白 CCD 和彩色 CCD 垂直掃描 系統(tǒng)所捕獲的實(shí)驗(yàn)結(jié)果。這種方法,在每一個(gè)分區(qū)的線性,甚至其他非線性校準(zhǔn)都是可以使用的。W CCD and linestructured laser light and moves up and down, color CCD is color sensor. The light plane will intersect with the object and generate a light stripe. The measuring process is the process of scanning the light stripe on the object and record the contour information by 3D sensor. The horizontal and depth coordinate are recorded by 3D sensor and vertical coordinate will be got from a precise mechanical scanning system, and color sensor will record the color information of the object. The matching between 3D coordinate and its color information can be realized by the following process. Transformation matrixes of different partitions will be got from the calibration of 3D sensor, which can translate the light stripe information on the Bamp。 is the 3D color point cloud obtained from color sensor calibration and information matching process. It can represent the 3D and color information of the object truly and vividly. Color image of the object 3D point cloud of the object 3D color point cloud of the object 4. CONCLUSION From the theory analysis and experimental results mentioned above,