【正文】
ented in Section 4. 2. LMS based algorithms Let us de?ne the input signal vector Tk NkxkxkxX )]1()1()([ ???? ?and vector of weighting coef?cients as TNk kWkWkWW )]()()([ 110 ?? ?.The weighting coef?cients vector should be calculated according to: }{21 kkkk XeEWW ???? ( 1) where 181。作為 正在研究中的濾波器 算法比較標(biāo)準(zhǔn) , 我們采取偏 差 和加權(quán)系數(shù)之間的方差比。這些參數(shù)的選擇主要是基于一種算法質(zhì)量 的權(quán)衡 中所提到 的適應(yīng)性能。根據(jù) ( 1)中 不同的預(yù)期值估計在, 我們可以得出 一種 各 種 形 式 的 自 適 應(yīng) 算 法 的 定 義 : LMS ? ?? ?kkkk XeXeE ? , ? ? ? ?? ?? ? ?? ???? ki ikikikk aXeaaXeEG L M S 0 10,1, ? ? ? ?? ?kkkk es ig nXXeESA ? ,[1,2,5,8] . 變步長 LMS 算法和基本 LMS 算法 具有相同的形式,但在適應(yīng) 過程中步長 μ( k) 是 變化 的 [6, 7]。 因此,如果噪聲方差為常數(shù)或是 緩慢變 化的 , 2? 為某一特定的基于 LMS時間不變的算法。,GLMS: q ≡ a,SA:q ≡ 181。 由于我們 對 有關(guān)信息 ? ?? ?qkWbias i , 沒有先驗 知識,我們將使用一種特定的統(tǒng)計學(xué)方法得到的標(biāo)準(zhǔn) ,即自適應(yīng)算法選擇的 q 值問題。因此,檢查了一 對 新的 加權(quán) 系數(shù),或者,如果 ??kDi 是最后一對, 只選擇具有最小方差 的 算法 。對于標(biāo)準(zhǔn)的 LMS 算法在穩(wěn)定狀態(tài), 2n? 和 2q? 是相關(guān)的。 未知的系統(tǒng)有四個時間不變系數(shù), 而且 FIR 濾波器的 N = 4。也就是說,如果 CA 選擇,那么 在 k 次迭代中,加權(quán)系數(shù)向量 PW ,然后 根據(jù)每一個獨立的 算法計算出 加權(quán)系數(shù) 在( k +1) 次迭代: ? ?kkpk XeEWW ?21 ??? ( 9) 圖 1快速平均算法 圖 2 快速平均算法 在前面的示例應(yīng)用 中,圖 1( b)顯示了這種改進(jìn)。 圖 2( a)顯示了每個算法的 AMSD 特點。這對 VS AMSD是 AMSD = ,而 在 CA( CoLMS) 中 AMSD = 。 。圖 2( b)顯示,特別是 在 突然改變了算法的比較 之后 , 我們 可以觀察 到 CA 的有利特性, AMSD。在仿真 中, 組合 濾波器組 由 3 個 不同的 SA 自適應(yīng)濾波器 步驟 組成 ,即自適應(yīng)濾波器 Q = {μ , μ /2, μ /8}。在這里, CA 將通過增加 計算量 與并行 LMS 算法都得到改善,同時 還認(rèn)為,在穩(wěn)定狀態(tài) 下 , CA 不 能 理想 的接近小步長的 LMS 算法, 原因是該方法的統(tǒng)計 特性。 組合自適應(yīng)濾波器舉例 考慮由兩個不同步驟的 LMS 算法相結(jié)合的系統(tǒng)鑒定。需要注意的是 ,只 有未知值 (6)的差異。根據(jù)( 4),( 5)和取舍的標(biāo)準(zhǔn), 如果下式成立那么將會減少這個檢查: ? ? ? ? ? ?qlqmlimi qkWqkW ??? ??? 2, ( 6) 當(dāng) Qqq lm ?, 和以下關(guān)系成立: Qqq hqlqhqmh ????? ,: 222 ??? 如果沒有 ??kDi 相交(大偏差)選擇具有最大的方差的值算法。 置信區(qū)間的定義 ? ? ]9,4[,qkWi ? ? ? ? ? ?? ?qiqii qkWkqkWkD ??? 2,2, ??? ( 5) 接著,從( 4) 式到 ( 5) 式 我們認(rèn)為只要 ? ?? ? qi qkWb ia s ???, ? ? ? ?kDkW ii ?*關(guān)于獨立 q, 這意味著, 對于 小偏差,置信區(qū)間 對 同一的 LMS 的算 法 是 不同 的 ,而對 同一的 LMS 的算法 則 相交 。讓 ? ?qkWi , 是 以基本 LMS 算法 為基礎(chǔ)的 第 i 個加權(quán)系數(shù), 在瞬間選擇參數(shù) q和 系數(shù) k。 定義加權(quán) 錯位系數(shù), [1–3], *kkk WWV ?? 。}是預(yù)期值的估計 。 每一種基于 LMS 的 算法都至少 有 一個參數(shù) 在 適應(yīng)過程 ( LMS 算法 和 符號算法 ,加強和 GLMS 平滑系數(shù),各種參數(shù)對 變步長 LMS 算法的影響 ) 中 被 預(yù)先 定義。 μ = . The optimal vectors is generated according to the presented model with ?Z? ,and with κ = 2. In the first 30 iterations the variance was estimated according to (7), and CA takes the coefficients of SA with μ (SA1). Figure 2(a) shows the AMSD characteristics for each algorithm. In steady state the CA does not ideally follow the SA3 with μ /8, because of the nonstationary problem nature and a relatively small difference between the coefficient variances of the SA2 and SA3. However,this does not affect the overall performance of the proposed algorithm. AMSD for each considered algorithm was: AMSD = (SA1,μ ), AMSD = (SA2,μ /2), AMSD = (SA3, μ /8) and AMSD = (Comb). (b) Comparison with VS LMS algorithm [6]: In this simulation we take the improved CA (9) from , and pare its performance with the VS LMS algorithm [6], in the case of abrupt changes of optimal vector. Since the considered VS LMS algorithm[6] updates its step size for each weighting coefficient individually, the parison of these two algorithms is meaningful. All the parameters for the improved CA are the same as in . For the VS LMS algorithm [6], the relevant parameter values are the counter of sign change m0 = 11,and the counter of sign continuity m1 = 7. Figure 2(b)shows the AMSD for the pared algorithms, where one can observe the favorable properties of the CA, especially after the abrupt changes. Note that abrupt changes are generated by multiplying all the system coefficients by ?1 at the 2020th iteration (Fig. 2(b)). The AMSD for the VS LMS was AMSD = , while its value for the CA (CoLMS) was AMSD = . For a plete parison of these algorithms we consider now their calculation plexity, expressed by the respective increase in number of operations with respect to the LMS algorithm. The CA increases the number of requres operations for N additions and N IF the VS LMS algorithm, the respective increase is: 3N multiplications, N additions, and at least 2N IF decisions. These values show the advantage of the CA with respect to the calculation plexity. 6. Conclusion Combination of the LMS based algorithms, which results in an adaptive system that takes the favorable properties of these algorithms in tracking parameter variations, is the course of adaptation procedure it chooses better algorithms, al