freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

kinectopenni學(xué)習(xí)筆記之6(獲取人體骨架并在qt中顯示)(存儲(chǔ)版)

  

【正文】 return true。 vectorCSkeletonItem* skeletons。 //將深度圖像格式歸一化到0~255 int idx = 0。 //距離越近,越不透明 } else { p_depth_argb[idx++] = 0。user_generator = ()。 i users_num。 //調(diào)用該函數(shù)后boundingRect()函數(shù)就會(huì)一直在更新,所以paint()函數(shù)也在不斷變化 skeletons[counter1]setVisible(true)。int main(int argc, char **argv){ COpenNI openni。 CKinectReader kinect_reader(openni, scene)。 (650, 540)。 } else skeletons[counter1]user_id = user_id[i]。skeleton_capability = ()。 //往item中設(shè)置深度數(shù)據(jù) depth_itemsetPixmap(QPixmap::fromImage( QImage(p_depth_argb, (), () , QImage::Format_ARGB32)))。 //綠色分量 p_depth_argb[idx++] = 255*fscale。 i size。 QGraphicsPixmapItem *depth_item。 p_depth_argb = new uchar[4*()*()]。 (depth_item)。 i 15。 i 14。 } if(joints_project[i].X ()) { (joints_project[i].X)。 // int connections[15][2]。 joints_realworld[14] = getSkeletonPos(XN_SKEL_RIGHT_FOOT)。 joints_realworld[6] = getSkeletonPos(XN_SKEL_RIGHT_SHOULDER)。 connections[13][1] = 14。 connections[9][1] = 10。 connections[5][1] = 6。 connections[1][1] = 2。 XnMapOutputMode xmode。skeleton, XnUserID user, XnCalibrationStatus calibration_error, void *p_cookie) { if(calibration_error == XN_CALIBRATION_STATUS_OK) { (user)。 GestureGenerator gesture_generator。 } //得到色彩圖像的node ImageGeneratoramp。 } bool Start() { status = ()。 if(CheckError(Can39。 if(CheckError(Create gesture generator error!)) { return false。 if(CheckError(Create image generator error!)) { return false。class COpenNI{public: ~COpenNI() { ()?! KinectReader類(lèi)的更新:  該類(lèi)是在前面的文章Kinect+OpenNI學(xué)習(xí)筆記之3(獲取kinect的數(shù)據(jù)并在Qt中顯示的類(lèi)的設(shè)計(jì))中 對(duì)應(yīng)類(lèi)的更新,前面博文中的該類(lèi)只是完成了深度圖像和顏色圖像的顯示,而在本實(shí)驗(yàn)中,需要完成顯示骨架節(jié)點(diǎn)之間的連線圖,因此該類(lèi)需要繼續(xù)更新。具體該類(lèi)的全部代碼參加本文后面的代碼部分?! ”緦?shí)驗(yàn)的程序分為3個(gè)類(lèi)和一個(gè)主函數(shù),其中2個(gè)類(lèi)的基本部分在前面的文章中已有介紹,只需要更新其部分功能。如果程序開(kāi)發(fā)者用代碼實(shí)現(xiàn)該過(guò)程則可以參考hersey的文章透過(guò)OpenNI / NITE 分析人體骨架(上)和透過(guò)OpenNI / NITE 分析人體骨架(下),作者在這2篇文章詳細(xì)介紹了老版本的人體骨架的OpenNI實(shí)現(xiàn)?! ?shí)驗(yàn)說(shuō)明  在老版本的OpenNI中,要對(duì)人進(jìn)行骨架追蹤,需要人先擺出PSI的姿勢(shì),然后系統(tǒng)根據(jù)該姿勢(shì)進(jìn)行骨骼校正,待校正完成后才進(jìn)行骨骼的跟蹤,其流程圖可以參考下面的圖:    由圖可以看出,其完成骨骼跟蹤主要分為3個(gè)部分,首先需檢測(cè)到人體,然后需要固定的PSI姿勢(shì)來(lái)對(duì)人體的姿勢(shì)進(jìn)行校正,待姿勢(shì)校正完成后,才能進(jìn)行人體骨骼的追蹤。第1個(gè)參數(shù)表示轉(zhuǎn)換坐標(biāo)點(diǎn)的個(gè)數(shù),第2個(gè)參數(shù)表示真實(shí)坐標(biāo)系中的坐標(biāo),第3個(gè)參數(shù)表示投影坐標(biāo)系下的坐標(biāo)。另外,由于色彩節(jié)點(diǎn),深度節(jié)點(diǎn),以及人體檢測(cè)節(jié)點(diǎn)都是私有變量,如果該類(lèi)的對(duì)象需要獲取該變量的話不方便,因此在共有函數(shù)部分分別設(shè)置了3 個(gè)共有函數(shù)來(lái)獲取這3個(gè)變量。本文是參考的heresy文章不用校正姿勢(shì)的NITE ,heresy在設(shè)計(jì)該類(lèi)的構(gòu)造函數(shù)時(shí),設(shè)計(jì)了個(gè)15*2的連接表,個(gè)人感覺(jué)設(shè)置為14*2比較合理,因?yàn)?5個(gè)點(diǎn)剛好由14條線可以連接起來(lái),并不是heresy所說(shuō)的15條線,其實(shí)它有2條線是重合的。using namespace std。 //產(chǎn)生顏色node status = (context)。 } //產(chǎn)生手勢(shì)node status = (context)。 } //視角校正 status = ().SetViewPoint(image_generator)。 return true。 return true。 ImageMetaData image_metadata。 } //完成骨骼校正的回調(diào)函數(shù) static void XN_CALLBACK_TYPE CBCalibrationComplete(SkeletonCapability amp。 UserGenerator user_generator。
點(diǎn)擊復(fù)制文檔內(nèi)容
環(huán)評(píng)公示相關(guān)推薦
文庫(kù)吧 www.dybbs8.com
備案圖鄂ICP備17016276號(hào)-1