freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)基礎(chǔ)ppt課件-資料下載頁

2025-01-05 15:34本頁面
  

【正文】 56 57 ? 所以,在最大特征值的特征向量方向上存在最大的二階導(dǎo)數(shù)。事實上:在每個特征向量方向的二階導(dǎo)數(shù)都等于相應(yīng)的特征值。在其他方向上二階導(dǎo)數(shù)等于特征值的加權(quán)平均值。特征向量方向上的相應(yīng)特征值即是在該方向上的二階導(dǎo)數(shù)。 58 現(xiàn)將二次函數(shù)的一些特點小結(jié)如下: 1)如果赫森矩陣的所有特征值為正,則函數(shù)有一個強極小點 2)如果赫森矩陣的所有特征值為負,則函數(shù)有一個強極大點 3)如果赫森矩陣的特征值有正有負,則函數(shù)有一個鞍點。 4)如果赫森矩陣的所有特征值為非負,但某些特征值為零,則函數(shù)要么有一個弱極小點,要么沒有駐點。 5)如果赫森矩陣的所有特征值為非正,但某些特征值為零,則函數(shù)要么有一個弱極大點,要么沒有駐點 59 性能優(yōu)化 ? 討論三類優(yōu)化算法:最速下降法、牛頓法以及共扼梯度法。這些算法將用于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練 ? 所有將要討論的算法都是迭代的。首先,給定一個初始猜測值,然后按照等式: 60 最速下降法 61 ? 下降方向 滿足上式的任意向量稱為一個下降方向。如果沿此方向取足夠小的步長,函數(shù)一定遞減。這帶來了另一個問題:最速下降的方向在哪里 ?(即在什么方向上函數(shù)遞減速度最快 ?)這種情況發(fā)生于下式為最大的負數(shù)時: ? (設(shè)長度不變,只改變方向。 )這是梯度和方向向量之間的內(nèi)積。當(dāng)方向向量與梯度反向時,該內(nèi)積為負,而絕對值最大。 (見關(guān)于方向?qū)?shù)的討論。 )所以最速下降方向的向量: 62 ? 最速下降法:迭代中使用此式得最速下降的方法。 對最速下降法,有兩個用來確定學(xué)習(xí)速度的常見方法。第一個方法是基于 的性能指數(shù) F(x)每次迭代最小化,即沿下列方向?qū)崿F(xiàn)最小化: 63
點擊復(fù)制文檔內(nèi)容
教學(xué)課件相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1