freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

一文讀懂卷積神經(jīng)網(wǎng)絡cnn(參考版)

2024-08-15 23:29本頁面
  

【正文】 。論文中就是以該全連接層作為圖像的表示。如下圖所示,該結(jié)構(gòu)與ImageNet的具體參數(shù)類似,所以只解釋一下不同的部分吧。DeepID網(wǎng)絡結(jié)構(gòu)DeepID網(wǎng)絡結(jié)構(gòu)是香港中文大學的Sun Yi開發(fā)出來用來學習人臉特征的卷積神經(jīng)網(wǎng)絡。第一層全連接:4096維,將第五層maxpooling的輸出連接成為一個一維向量,作為該層的輸入。第五層卷積:33的卷積核256個,兩個GPU上個128個。第四層卷積:33的卷積核384個,兩個GPU各192個。第三層卷積:與上一層是全連接,3*3的卷積核384個。第二層卷積:33卷積核256個,每個GPU上128個。上圖模型的基本參數(shù)為:輸入:224224大小的圖片,3通道第一層卷積:55大小的卷積核96個,每個GPU上48個。數(shù)據(jù)并行是指在不同的GPU上,模型結(jié)構(gòu)相同,但將訓練數(shù)據(jù)進行切分,分別訓練得到不同的模型,然后再將模型進行融合。需要注意的是,該模型采用了2GPU并行結(jié)構(gòu),即第5卷積層都是將模型參數(shù)分為2部分進行訓練的??梢姡疃葘W習的提升空間還很巨大。本文截取2010年Alex Krizhevsky的CNN結(jié)構(gòu)進行說明,該結(jié)構(gòu)在2010年取得冠軍,%。 多層卷積在實際應用中,往往使用多層卷積,然后再使用全連接層進行訓練,多層卷積的目的是一層卷積學到的特征往往是局部的,層數(shù)越高,學到的特征就越全局化。這種聚合的操作就叫做池化 (pooling),有時也稱為平均池化或者最大池化 (取決于計算池化的方法)。因此,為了描述大的圖像,一個很自然的想法就是對不同位置的特征進行聚合統(tǒng)計,例如,人們可以計算圖像一個區(qū)域上的某個特定特征的平均值 (或最大值)。學習一個擁有超過 3 百萬特征輸入的分類器十分不便,并且容易出現(xiàn)過擬合 (overfitting)。理論上講,人們可以用所有提取得到的特征去訓練分類器,例如 softmax 分類器,但這樣做面臨計算量的挑戰(zhàn)。所以,在上圖由4個通道卷積得到2個通道的過程中,參數(shù)的數(shù)目為4222個,其中4表示4個通道,第一個2表示生成2個通道,最后的22表示卷積核大小。下圖展示了在四個通道上的卷積操作,有兩個卷積核,生成兩個通道。如下圖所示,下圖
點擊復制文檔內(nèi)容
高考資料相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1