【正文】
? BTF: 得到 dWi, dBi ? BLF: 更新 Wi, Bi ? 的問題 ? object, 所含內(nèi)容 ? b. , , cell型數(shù)據(jù) ? c. 訓(xùn)練算法及參數(shù) : . 二 . 各種訓(xùn)練方法比較 : 1. LM算法的一些注意事項 : TRAINLM 由于速度很快所以是默認的算法 , 但是很消耗內(nèi)存 . ? 原因 :儲存一個 s by m的 Jacobi 矩陣 , 當樣本數(shù)目 s很大的時候?qū)е潞馁M內(nèi)存過多 . ? 解決方案 : ? Bogdan M. Wilamowski 的 ? An Algorithm for Fast Convergence in Training Neural Networks ? ? Levenberg – Marquadt算法主要解決非線性最小二乘問題 . ? 使用 trainlm時如果有 “ outofmemory” 錯誤提示的時候應(yīng)采用如下步驟 : ? (1) 通過設(shè)置 來減少對內(nèi)存的需求 .設(shè)置mem_reduc 為 2, 再重新訓(xùn)練一次 . 如果仍然出現(xiàn)內(nèi)存不足的情況增加 mem_reduc的值 , 由于 a significant putational overhead is associated with puting the Jacobian in submatrices但是運行時間也會隨之增加 . ? 參數(shù)意義如下 : ? If mem_reduc is set to 1, then the full Jacobian is omputed, and no memory reduction is achieved. If mem_reduc is set to 2, then only half of the Jacobian will be puted at one time. This saves half of the memory used by the calculation of the full Jacobian. ? (2) Use TRAINBFG, which is slower but more memory efficient than TRAINLM. ? (3) Use TRAINRP which is slower but more memory efficient than TRAINBFG. Acronym Algorithm trainlm LevenbergMarquardt trainbfg BFGS QuasiNewton trainrp Resilient Backpropagation trainscg Scaled Conjugate Gradient