freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

畢業(yè)設(shè)計-工業(yè)機器人視覺伺服-wenkub

2023-06-17 16:11:14 本頁面
 

【正文】 hen move”模型本身并不具有實際意義,但卻為機器人視覺伺服的研究奠定了基礎(chǔ)。 近年來,隨著圖像處理器件和計算機性 能的不斷提高,機器人視覺技術(shù)也取得了長足的進步,視覺伺服獲得了迅猛的發(fā)展。 (1)眼固定型 :攝像機固定在機器人空間中某個位置,如正上方或斜側(cè)方等,具有固定的圖像分辨率,并可同 時獲得機械 臂及其工作環(huán)境的全局圖像信息,便于將視覺系統(tǒng)集成到控制中。但是,攝像機的運動容易造成圖像模糊,給圖像特征的準確提取帶來一定的困難。 (1)單閉環(huán)系統(tǒng)( direct visual servoing) (見圖 11):取消了關(guān)節(jié)伺服控制器和關(guān)節(jié)位置反饋回路,其功能由視覺伺服控制器取代。 圖 11 單閉環(huán)視覺伺服系統(tǒng) (2)雙閉環(huán)系統(tǒng)( look and move) (見圖 12):其中內(nèi)環(huán)為關(guān)節(jié)伺服控制,可實現(xiàn)高速率采樣,通過關(guān)節(jié)位置反饋來穩(wěn)定機器人,從而獲得近似線性的機器人對象特征。本文所討論的機器人系統(tǒng)也采用這種控制方式。該方式的控制精度在很大程度依賴于目標位姿的估計精度,但位姿估計與手眼系統(tǒng)參數(shù)標定密切相關(guān),因此要保證這一估計過程的準確度是十分困難的。 3)將位姿估計問題從機器人視覺控制器設(shè)計問題中分離出來,首先根 據(jù)從各種傳感器得到的信息計算出目標相對于機器人末端執(zhí)行器的位姿,然后在此基礎(chǔ)上進行機器人控制器的設(shè)計。 2)對系統(tǒng)標定誤差敏感。對于抓取靜止目標的任務(wù),該誤差僅是機械手圖像特征的函數(shù);若是跟蹤運動目標,誤差同時還是運動目標圖像特征的函數(shù)。許多機器人視覺伺服系統(tǒng)利用了這個優(yōu)點,例如將之應(yīng)用于圖像平面軌跡跟蹤 【 7】 。 3)跟蹤過程中圖像雅可比矩陣可能存在奇異值,使系統(tǒng)不穩(wěn)定。 這種伺服結(jié)構(gòu)的主要不足之處是: 1)需要在線實時計算圖像間的單應(yīng)性矩陣并對其進行分解,算法復(fù)雜、計算量比較大。文獻 【 10】通過數(shù)學分析與仿真研究指出 :對于固定安裝的攝象機系統(tǒng),基于位置與基于圖象的控制方式具有相同的跟蹤結(jié)果。 早期視覺伺服中用到的多是簡單的局部幾何特征 ,如點、線、圓圈、矩形、區(qū)域面積等以及它們的組合特征。于是全局圖像特征開始被應(yīng)用于視覺控制,常用的全局特征有特征向量、幾何矩、傅立葉描述 等。如特征點、線段、面積、質(zhì)心和高階矩等等。換句話說目標位姿的變化和圖像特征的變化要滿足一一映射。其中手眼關(guān)系的標定精度對系統(tǒng)最終控制性能的影響尤為明顯。由于以下原因,這種基于標定的機器人視覺伺 服方法受到了很大限制: (1)由于多種因素的影響,即使理論上精度很高的標定算法在實際中也難以得到控制和系統(tǒng)性能所要求的模型; (2)系統(tǒng)的標定結(jié)果只有在標定條件成立時才有效。 無標定方法是人們在研究機器人視覺伺服過程中,為了克服基于標定方法的弊端而提出的。根據(jù)所使用的描述系統(tǒng)非線性模型以及解決未建模動態(tài)的方法的不同,現(xiàn)有無標定視覺伺服的研究方法大致可分為以下三類:基于圖像雅可比矩陣的方法,神經(jīng)網(wǎng)絡(luò)擬合手眼關(guān)系方法和 ADRC 系統(tǒng)未建模動態(tài)補償方法。神經(jīng)網(wǎng)絡(luò)能夠比較準確的擬合機器人手眼之間的非線性映射關(guān)系,但它的缺點是必須進行大量的樣本學習,并不能顯示出其相對于傳統(tǒng)有標定方法的優(yōu)越性。動態(tài)任務(wù)環(huán)境對手眼系統(tǒng)的視覺處理速度,算法的效率等提出了更高的要求,目前這方面的研究還處于起步階段。分析了圖像雅可比矩陣的定義 、 特點 ,攝像機模型,機器人模型 以及其在 MATLAB 環(huán)境下基于眼在手和眼固定 兩種配置 的仿真。 第四章介紹了機器人視覺伺服實驗系統(tǒng),給出了整個系統(tǒng)的結(jié)構(gòu)及工作流程,逐一分析了各個子系統(tǒng)的功能以及具體的設(shè)計實現(xiàn) ,并給出實驗結(jié)果。 其定義如下: rrJf i ?? ?? )( ? ?? ? ? ?? ? ? ?1111f r f rrr mfrJ i rf r f rkkrr mmn???????????????????????????? ? 式中, mfR? 為圖像特征參數(shù)矢量, nrR? 為機械手在任務(wù)空間中坐標參數(shù)。對于這樣的系統(tǒng),我們可以建立如下的微分映射關(guān)系: rr J q?? 式中, pqR? 為 p 自由度機器人關(guān)節(jié)運動速度向量,與其對應(yīng)的機器人任務(wù)空間速度為 r 。 下面具體說明眼在手和眼固定情況下的圖像雅 可 比矩陣: 眼在手攝像機觀察二維運動的圖像雅克比矩陣 假定一個 6DOF 機器人手眼系統(tǒng),機器人末端執(zhí)行器相對于攝像機坐標系作旋轉(zhuǎn)運動 []c x y zw w w?? 和平移運動 []c x y zT T T T? 。定義 手爪 在機器人基坐標系的 x , y 坐標為機器人運動空間坐標 ( ) [ ( ) ( ) ]g g g Tbbp t x t y t? ,同時定義手爪在固定攝像機圖像平 面的投影位置為系統(tǒng)的圖像特征空間 ( ) [ ( ) ( ) ]gTggf t u t v t? 。為方便起見,將其寫成齊次變換形式: ???????????????????????????????????101000000001 zyxffyxz cccc (23) 根據(jù) p 點在像素坐標系坐標 ),( vu 與圖像坐標系坐標 ),( yx 的關(guān)系: 西安理工大學本科生畢業(yè)設(shè)計(論文) 13 ?????????????????????????????????????11001001100yxvdyudxvu 式 (23)可以寫為 ?????????????????????????????????????????????????????????????????????????111100100 000012100zyxMzyxMMzyxtRvuvuzwwwwwwwwwTyxc (24) 其中, dxfX ??, dyfy ??, dx , dy 是圖像中任意一個像素在 x , y 軸上的實際物理尺寸, ),( 00 vu 是原點 1O 在 u , v 坐標系中的坐標。 機器人模型 機器人有運動學和動力學 [14]。在末端執(zhí)行器的廣義運動速度X? 為已知的情況下,各關(guān)節(jié)運動速度可由下式給出: XJq q ?? ?? ?)( (27) 白蕾:工業(yè)機器人視覺伺服 14 其中, ?)(qJ 為機器人雅可比矩陣的廣義逆。 視覺控制器的設(shè)計 根據(jù)機器人和視覺系統(tǒng)的性能及具體任務(wù)的復(fù)雜性不同,視覺控制器的設(shè)計方法也不同,典型的設(shè)計方法有經(jīng)典 PID 控 制器、狀態(tài)空間方法和任務(wù)函數(shù)法。對于基于圖像的視覺伺服控制系統(tǒng),誤差信號是在圖像空間表示的,而機器人的控制輸入要求是在笛卡兒空間或關(guān)節(jié)空間,因此控制器的作用方式有兩種,第一種 是 直接在圖像平面設(shè)計視覺控制器,然后將得到的控制量乘以圖像雅可比矩陣的逆,從而得到笛卡兒空間中的控制量 (即相對位姿增量 ),或乘以圖像雅可比矩陣的逆再乘以機器人雅可比矩陣從而得到 關(guān)節(jié)空間中的控制量 (即關(guān)節(jié)速度 )。圖中,“ fkine”,“ jacob”, “ ijacob”,“相機模型”以及“圖像雅可比矩陣”等模塊都是由Matlab Function 模塊調(diào)用相關(guān)的“ .m”函數(shù)然后創(chuàng)建 Subsystem(子 系統(tǒng))而形成的。 P控制器的參數(shù)為 K=。 仿真結(jié)果如下圖所示: 215 220 225 230245250255260265270275眼固定圖像平面手爪定位曲線y方向 單位:像素x 方向 單位:像素機器人手爪運動軌跡目標點 圖 23 手爪在圖像平面上的運動軌跡 (眼固定 ) 白蕾:工業(yè)機器人視覺伺服 16 0 5 10 15 20 25050100150200250300350圖像平面定位誤差曲線圖像平面誤差 單位:像素 單位:采樣時刻 圖 24 圖像平面 定位 誤差曲線 (眼固定 ) 0 5 10 15 20 25 2 5 0 2 0 0 1 5 0 1 0 0 5 0050100150200250x,y方向跟蹤誤差 單位:像素 單位:采樣時刻x 方向定位誤差y 方向定位誤差 圖 25 x, y方向 定位 誤差(眼固定) 眼在手 (見圖 26) 圖 26 眼在手模型 仿真參數(shù)設(shè)置如下:攝像機的內(nèi)參數(shù)為 [8e3 80e3 80e3 256 256]。 實驗最后的得到的誤差為 E=( pixel)。而眼在手 機器人運動過程中,可能會發(fā)生圖像特征遮蓋現(xiàn)象,觀察靈活性差。 Kalman 濾波是kalman()于 1960年提出的從與被提取信號有關(guān)的觀測量中通過算法估計出所需信號的一種濾波算法,是一種最優(yōu)估計方法。 Kalman 意義下的濾波問題實際上就是相當于誤差方差最小的狀態(tài)估計。 西安理工大學本科生畢業(yè)設(shè)計(論文) 19 設(shè)隨機線性離散系統(tǒng)采用如下狀態(tài)方程表示為: ( 1) ( ) ( )x k Ax k k?? ? ? (31) ( ) ( ) ( )y k Cx k v k?? (32) 式中, nxR? 為系統(tǒng)的狀態(tài)向量, myR? 是系統(tǒng)的觀測序列, ? 是 n 維系統(tǒng)過程噪聲序列, v 是 m 維觀測噪聲序列,矩陣 A 是系統(tǒng)的 nn? 維狀態(tài)轉(zhuǎn)移矩陣, C 是 mn? 維噪聲輸入矩陣。而且這種方法經(jīng)過修正后,還可用來進行狀態(tài)空間參數(shù)模型參數(shù)的估計。仿真時間為 3s,原始信號及帶有噪聲的原始信號、原始信號及濾波后的信號和誤差協(xié)方差的變化分別如圖所示 : 0 0 . 5 1 1 . 5 2 2 . 5 3 0 . 200 . 20 . 40 . 60 . 811 . 21 . 4t im e ( s )yideal signal。在應(yīng)用此矩陣建立圖像反饋控制器時,為保證控制性能,有必要對其進行實時的辨識。 由雅可比矩陣的定義 ,有 ( 1 ) ( ) ( ) ( )g g ggf k f k J k p k? ? ? ?? (39) 白蕾:工業(yè)機器人視覺伺服 22 寫成如下狀態(tài)方程: ( 1) ( ) ( )x k x k k?? ? ? ( ) ( 1 ) ( ) ( ) ( ) ( )ggy k f k f k C k x k v k? ? ? ? ? ? 其中 ()k? , ()vk 分別為狀態(tài)噪聲和圖像觀察噪聲,假定為高斯白噪聲。 ?(0)x 采用如下如下方法獲得: 在初始位置任意給定兩步線性無關(guān)的試探運動 12,ggpp??,而在固定攝像機中觀察到手爪相應(yīng)的圖像特征變化為 12,ggff??,從而獲得初始 J 矩陣的估計值為: 11 2 1 2? ( 0 ) [ ] [ ]g g g ggJ f f p p ?? ? ? ? ? (315) 然后用 ?(0)gJ 構(gòu)成 ?(0)x 。外環(huán)為視覺控制器,以較低的采樣速率完成關(guān)節(jié)角設(shè)定。 仿真模型如下圖所示: 圖 36 基于 kalman 濾波的機器人眼固定模型 在固定目標定位實驗中, Kalman 濾波估計算法中的 R? 、 vR ,分別取為 , ,P矩陣的初始值可取 5(0) 10 mnPI? ( sI 意為 s 維單位陣 )。實驗最后的得到的誤差為 E=( pixel)。圖 41 所示的系統(tǒng)中CCD 攝像頭固定 在 機器人斜上方,可同時觀察目標和手爪運動。其中視覺控制量是根據(jù)視覺信息處理子系統(tǒng)得到的圖象反饋信息計算得到的。其主要參數(shù)如表 41 所示,其中 6 個軸的定義如圖 42所示。 BscImov():在指定的坐標系中實現(xiàn)增量式運動。 白蕾:工業(yè)機器人視覺伺服 28 MOTOMANCOM32 軟件提供的通信協(xié)議有兩種: RS232C 或 TCP/IP。與坐標系相對
點擊復(fù)制文檔內(nèi)容
畢業(yè)設(shè)計相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1