freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

qccnn量子類神經(jīng)網(wǎng)路架構(gòu)-wenkub

2023-04-24 11:16:32 本頁面
 

【正文】 de correlation類神經(jīng)網(wǎng)路,簡稱為QCCNN。同樣地,當(dāng)相關(guān)值增加緩慢時,第二階段學(xué)習(xí)程序便中止,並且把此隱藏神經(jīng)元的權(quán)重凍結(jié)。而我們只要再對 CCNN 類神經(jīng)網(wǎng)路的自動建構(gòu)演算法做些修改的話,我們也可以將量子搜尋學(xué)習(xí)法則的第一個缺點(diǎn)也減到最低的程度。它不像倒傳遞類神經(jīng)網(wǎng)路是同時訓(xùn)練整個類神經(jīng)網(wǎng)路的權(quán)重值,它是可以依需求自動地動態(tài)建構(gòu)出多階層(multilayer)的類神經(jīng)網(wǎng)路,所以它比倒傳遞類神經(jīng)網(wǎng)路具有快速的學(xué)習(xí)速率,它可以自己決定自己的網(wǎng)路大小及架構(gòu),而且當(dāng)訓(xùn)練樣本集合改變時,它不需重新再建構(gòu)一個全新的網(wǎng)路架構(gòu),它可以以先前的網(wǎng)路架構(gòu)為基礎(chǔ),再繼續(xù)增建已訓(xùn)練過的類神經(jīng)網(wǎng)路架構(gòu)。所以,我們或許也可以將傳統(tǒng)的解決方法應(yīng)用到量子類神經(jīng)網(wǎng)路中,並解決上述的缺點(diǎn)。另外,對於量子搜尋學(xué)習(xí)法則來說,大的架構(gòu)也是需要較多的訓(xùn)練時間及相當(dāng)龐大的空間複雜度(如第二點(diǎn)所述),所以,太大的類神經(jīng)網(wǎng)路架構(gòu)是不妥當(dāng)?shù)?;然而,太小的架?gòu)則會有訓(xùn)練不足或無法訓(xùn)練的現(xiàn)象產(chǎn)生,它的訓(xùn)練過程可能都無法收斂,所以訓(xùn)練程序是無法結(jié)束,只能靠人為中止它,另外,這樣的類神經(jīng)網(wǎng)路的分類品質(zhì)必定也不高,所以,小架構(gòu)的類神經(jīng)網(wǎng)路也是不妥當(dāng)?shù)?。第二,?dāng)量子搜尋學(xué)習(xí)法則在尋找一組權(quán)重向量時,我們所需花費(fèi)的空間複雜度(space plexity)是指數(shù)成長的(例如,若要搜尋nbits的資料空間,則所需的空間複雜度為),這對於較複雜的問題或架構(gòu)較大的量子類神經(jīng)網(wǎng)路將會是不可行的。若訓(xùn)練樣本集合中含有若干的錯誤樣本,或訓(xùn)練樣本含有雜訊時,過渡訓(xùn)練的發(fā)生那就勢必會發(fā)生,因為我們很可能需要一個較大的量子類神經(jīng)網(wǎng)路才有機(jī)會將這些有問題的訓(xùn)練樣本百分之百地分類成功,而訓(xùn)練完的量子類神經(jīng)網(wǎng)路不僅記憶正確的樣本,同時也將錯誤的樣本留在記憶中,這對分類未知樣本會造成極嚴(yán)重的錯誤,所以讓全數(shù)的訓(xùn)練樣本百分之百分類成功的oracle call是很不恰當(dāng)?shù)摹T贜個未排序過的資料中搜尋出給定的資料,若以傳統(tǒng)搜尋演算法需要 次比較,而量子搜尋演算法 次比較。他們也成功地將量子搜尋學(xué)習(xí)法則應(yīng)用在若干的實際問題上,例如,他們已經(jīng)成功地利用量子搜尋學(xué)習(xí)法則解決了 XOR 問題、iris 分類問題、lenses 分類問題及 hayesroth 問題上。這也是我們目前發(fā)現(xiàn)最可行的量子學(xué)習(xí)法則。我們發(fā)現(xiàn)這是一個確實可行且合乎量子理論的量子學(xué)習(xí)法則。目前已提出的量子類神經(jīng)網(wǎng)路類似於傳統(tǒng)類神經(jīng)網(wǎng)路的論述有,其它的模型則與傳統(tǒng)類神經(jīng)網(wǎng)路差異極大,例如,quantum dot 類神經(jīng)網(wǎng)路。如果量子電腦在未來果真的成為事實,那目前科學(xué)界上有若干難解或不可能解的問題都將可能不再是難題了(例如,密碼問題)!另外,量子電腦的量子平行處理能力對於類神經(jīng)網(wǎng)路也將帶來革命性的突破,因為類神經(jīng)網(wǎng)路的平行處理特性得以藉由量子平行計算技術(shù)而完全發(fā)揮。從初步的實驗數(shù)據(jù)顯示,我們提出的QCCNN及其新學(xué)習(xí)法則確實更有效率、更可行。但從研究中,我們發(fā)現(xiàn)到多數(shù)的模型只是個構(gòu)想,並沒有提出明確而完整的量子學(xué)習(xí)法則;只有少數(shù)模型有提出量子學(xué)習(xí)法則,但是我們也發(fā)現(xiàn)到這些學(xué)習(xí)法則是不可行的,因為它們都不能真正的符合量子理論。而從目前已被提出的量子類神經(jīng)網(wǎng)路的學(xué)習(xí)法則中,我們發(fā)現(xiàn)到Dan Ventura 和 Tony Martinez 提出的以量子搜尋演算法(quantum search algorithm)為基礎(chǔ)的學(xué)習(xí)法則是最可行的(在論文中,我們將稱此學(xué)習(xí)法則為量子搜尋學(xué)習(xí)法則);但這個量子學(xué)習(xí)法則卻仍存在若干個缺陷,使得這個學(xué)習(xí)演算法仍有改進(jìn)之處。關(guān)鍵字:cascade correlation 類神經(jīng)網(wǎng)路、量子類神經(jīng)網(wǎng)路、量子搜尋演算法、錯誤嘗試法。而以量子理論為基礎(chǔ)的類神經(jīng)網(wǎng)路則稱為量子類神經(jīng)網(wǎng)路(QNN, quantum neural networks)。而這些被提出的量子類神經(jīng)網(wǎng)路模型多數(shù)是不實用或跟本無法應(yīng)用量子技術(shù)實做。貳、量子搜尋學(xué)習(xí)法則傳統(tǒng)類神經(jīng)網(wǎng)路都是藉由調(diào)整權(quán)重值來達(dá)到學(xué)習(xí)的目的,但是這種方式似乎是不適用於量子類神經(jīng)網(wǎng)路;而要訓(xùn)練量子類神經(jīng)網(wǎng)路的另一個可行的方法是從所有可能的權(quán)重向量集合中,找出一組權(quán)重向量能使所有的訓(xùn)練樣本能被正確地分類。他們利用量子搜尋演算法從所有可能的權(quán)重集合中找出一組權(quán)重,這組權(quán)重需可以成功且正確地分類所有的訓(xùn)練樣本,而它便是訓(xùn)練完成後所得到的最後權(quán)重。而且從實驗的數(shù)據(jù)上來看,這個學(xué)習(xí)法則是確實可行的,而且效能也是相當(dāng)不錯。Grover的量子搜尋演算法利用一個稱為"quantum oracle call"黑盒子,和一個稱為"inversion about average"量子運(yùn)算子,來逐步增大給定資料的狀態(tài)被測量到的機(jī)率。作者Ricks和Ventura為了解決這個缺陷,他們將量子搜尋演算法中的oracle call做了些許的修改,將oracle call改為不再需要全數(shù)訓(xùn)練樣本被正確分類,而將oracle call設(shè)定成訓(xùn)練樣本正確分類率低於100%(例如,95%)。作者也提出了片斷權(quán)重學(xué)習(xí)法則(piecewise weight learning rule)來改善此缺陷,它是以隨機(jī)選取某個神經(jīng)元來訓(xùn)練其權(quán)重(其它神經(jīng)元的權(quán)重則凝結(jié)不動),所以每個神經(jīng)元的權(quán)重分開獨(dú)立訓(xùn)練,而不在將整個量子類神經(jīng)網(wǎng)路的所有權(quán)重同時訓(xùn)練。在他們的實驗中,他們顯示出他們的量子搜尋學(xué)習(xí)法則的效能,但他們卻沒有告訴我們,實驗中所採用的類神經(jīng)網(wǎng)路大小是如何制定的。從這些已被提出的傳統(tǒng)類神經(jīng)網(wǎng)路演算法中,
點(diǎn)擊復(fù)制文檔內(nèi)容
公司管理相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖片鄂ICP備17016276號-1