freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

卷積神經(jīng)網(wǎng)絡(luò)劉海波(編輯修改稿)

2025-07-06 23:10 本頁面
 

【文章內(nèi)容簡介】 征的順序也會影響最后的分類性能。同時,圖像預(yù)處理的好壞也會影響到提取的特征。 手寫數(shù)字識別Michael Nielsen提供了一個關(guān)于深度學(xué)習(xí)和CNN的在線電子書,并且提供了手寫數(shù)字識別的例子程序,可以在GitHub上下載到。該程序使用Python和Numpy, 可以很方便地設(shè)計不同結(jié)構(gòu)的CNN用于手寫數(shù)字識別,并且使用了一個叫做Theano的機器學(xué)習(xí)庫來實現(xiàn)后向傳播算法和隨機梯度下降法,以求解CNN的各個參數(shù)。Theano可以在GPU上運行,因此可大大縮短訓(xùn)練過程所需要的時間。作為一個開始的例子,可以試著創(chuàng)建一個僅包含一個隱藏層的神經(jīng)網(wǎng)絡(luò),代碼如下:from __future__ import absolute_importfrom __future__ import print_functionfrom import Sequentialfrom import Dense, Dropout, Activation, Flattenfrom import PReLUfrom import Convolution2D, MaxPooling2Dfrom import SGD, Adadelta, Adagradfrom import np_utils, generic_utilsfrom import rangeimport randomimport osfrom PIL import Imageimport numpy as npdef load_data(): data = ((42000,1,28,28),dtype=float32) label = ((42000,),dtype=uint8) imgs = (F:/mnist) num = len(imgs) for i in range(num): img = (F:/mnist/+imgs[i]) arr = (img,dtype=float32) data[i,:,:,:] = arr label[i] = int(imgs[i].split(39。.39。)[0]) return data,labeldata, label = load_data()label = (label, 10)model = Sequential()(Dropout())(Convolution2D(4,5,5,border_mode=39。valid39。,input_shape=[3:])) (Activation(39。tanh39。))(Convolution2D(8, 3, 3, border_mode=39。valid39。))(Activation(39。tanh39。))(MaxPooling2D(pool_size=(2, 2)))(Convolution2D(16, 3, 3, border_mode=39。valid39。)) (Activation(39。tanh39。))(MaxPooling2D(pool_size=(2, 2)))(Flatten())(Dense(128, init=39。normal39。))(Activation(39。tanh39。))(Dense(10, init=39。normal39。))(Activation(39。softmax39。))sgd=SGD(lr=,decay=1e6,momentum=,nesterov=True)(loss=39。categorical_crossentropy39。, optimizer=sgd,class_mode=categorical)(data,label,batch_size=100,nb_epoch=10,shuffle=True,verbose=1,show_accuracy=True,validation_split=)%。如果想進(jìn)一步提高準(zhǔn)確率,還可以從以下幾方面考慮:。比如Rectifed Linear Units函數(shù):。Relu函數(shù)相比于sigmoid函數(shù)的優(yōu)勢主要是使訓(xùn)練過程更加快速。Deep Learning因為參數(shù)多而需要大量的訓(xùn)練數(shù)據(jù),如果訓(xùn)練數(shù)據(jù)少可能無法訓(xùn)練出有效的神經(jīng)網(wǎng)絡(luò)。通??梢酝ㄟ^一些算法在已有的訓(xùn)練數(shù)據(jù)的基礎(chǔ)上產(chǎn)生大量的相似的數(shù)據(jù)用于訓(xùn)練。例如可以將每一個圖像平移一個像素,向上平移,向下平移,向左平移和向右平移都可以。 ImageNet圖像分類Alex Krizhevsky等人2012年的文章“ImageNet classification with deep convolutional neural networks”對ImageNet的一個子數(shù)據(jù)集進(jìn)行了分類。ImageNet一共包含1500萬張有標(biāo)記的高分辨率圖像,包含22,000個種類。這些圖像是從網(wǎng)絡(luò)上搜集的并且由人工進(jìn)行標(biāo)記。從2010年開始,有一個ImageNet的圖像識別競賽叫做ILSVRC(ImageNet LargeScale Visual Recognition Challenge)。 ILSVRC使用了ImageNet中的1000種圖像,每一種大約包含1000個圖像??偣灿?20萬張訓(xùn)練圖像,5萬張驗證圖像(validation images)和15萬張測試圖像(testing images)。%的錯誤率,%。這篇文章中使用了7個隱藏層,前5個是卷積層(有些使用了m
點擊復(fù)制文檔內(nèi)容
教學(xué)教案相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1