freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

基于vq的大學生語音識別算法研究畢業(yè)論文-預覽頁

2025-07-13 12:41 上一頁面

下一頁面
 

【正文】 圖23 矢量量化器原理框圖 矢量量化器的設計關鍵是編碼器的設計,而譯碼器僅是一個簡單的查表過程。常用的失真測度主要有均方誤差失真測度(即歐氏距離)、加權的均方誤差失真測度、板倉齋藤似然比距離、似然比失真測度等,在語音信號處理中常被應用于語音波形的矢量量化、線性預測參數矢量量化和孤立詞識別的矢量量化中。在分析語音信號時,它按照預測誤差能量(方均值)最小準則,得到模型的預測系數。日本學者板倉等人提出了這種失真測度。為此,可以采用如下定義的失真測度: (28)式中,、輸入信號矢量和碼書重構矢量的歸一化能量; g(x)專用函數,定義為 g(x)作用:當兩矢量的能量接近時,忽略能量差異引起的影響;當兩矢量的能量相差較大時,進行線性加權;當能量差超過門限時,則為某固定值。所謂矢量量化器的最佳設計就是從大量的輸入信號樣本中訓練出一個較好的碼本,基于一定的條件下使失真最小。 最佳劃分類似于標量量化中量化區(qū)間的劃分過程,對給定的碼書,找出所有碼書矢量的最佳區(qū)域邊界,尋找最佳劃分以使其平均失真最小。形心就是該區(qū)域空間的幾何中心,這些形心就組成了最佳碼書中的碼字。LBG算法因其嚴密的理論、簡便的應用和良好的設計效果,從而得到了廣泛的應用,常被作為許多新型碼書設計算法改進的基礎算法。利用訓練序列建立碼書的LBG算法的步驟如下。 第四步 利用公式(32)計算這時劃分的各個胞腔的形心,由這N個新形構成新的碼書,并置n=n+1,返回第二步再進行計算,直到得到所要求的碼書為止。其優(yōu)點是無需初始化計算,大大節(jié)約了計算時間;另外,由于初始碼書是從訓練序列中選出來得,所以不存在空胞腔的問題。本設計中語音信息選取的時間相對較短,是一個相對平穩(wěn)的序列,所以使用隨機選取法選取初始碼書具有可行性。用分裂法形成的初始碼書的性能較好,然而計算工作量比較大,同時隨著馬書中碼字的增加計算量也會迅速增加。 空胞腔問題及處理方法空胞腔是指在最佳劃分階段,某個胞腔的訓練矢量數目為0。該方法由于利用兩個小胞腔代替了1個大胞腔,減小了量化失真,量化器的總失真也減小了,因此性能也得到了提升。隨著語音信號處理學科的飛速發(fā)展,MATLAB及其強大的功能廣泛應用于數字信號處理、數值圖像處理、仿真、自動控制、小波分析、神經網絡等等。(3) 通過利用MATLAB編程對語音信號進行處理。考慮到輸入數據有正值有負值,失真測度采用歐氏距離均方誤差失真測度。圖41 輸入語音與碼書波形圖 圖42 程序運行結果初始碼書圖43 程序運行時間、平均失真與相對失真圖44 碼書樣本個數與循環(huán)次數圖45 程序運行結果最終碼書 LBG算法物理概念清晰易懂、理論算法結構嚴密,而且容易實現,同時還可作為其他碼書設計技術中對初始碼書優(yōu)化的附加步驟。從本實驗程序的運行結果圖43可看出,每次的迭代總能減少(或者至少保持)平均失真,所以LBG算法是一種下降算法,并且由圖42和圖45的程序運行結果比對可看出,每次迭代通常產生的只是碼書的局部變化,也就是說一旦選定LBG算法的初始碼書,通過該算法得到的是局部最優(yōu)碼書。表41 LBG算法改變數據量仿真結果采樣頻率8000Hz8000Hz8000Hz8000Hz8000Hz8000Hz語音長度20s20s20s20s20s20s樣本個數1005001000150020002500碼字個數84080120160200碼字維數777777量化壓縮比失真門限循環(huán)次數51719355589平均失真相對失真運算時間數據結果分析: 以上不同數據量的仿真均采用同一段語音輸入,保持碼字維數,使訓練序列輸入樣本大小分別為100、500、1000、1500、2000、2500,則碼字個數隨之改變?yōu)?0、1160、200,才能使量化壓縮比保持不變。表42 LBG算法改變量化壓縮比仿真結果采樣頻率8000Hz8000Hz8000Hz8000Hz8000Hz8000Hz語音長度20s20s20s20s20s20s樣本個數100010001000100010001000碼字個數510152050100碼字維數777777量化壓縮比200100502010失真門限循環(huán)次數91718242736平均失真相對失真運算時間數據結果分析:以上不同量化壓縮比的仿真均采用同一段語音輸入,保持訓練序列輸入樣本大小為1000、碼字維數,使量化壓縮比分別為200、100、50、10,則碼書中碼字個數隨之改變?yōu)?250、100。表43 LBG算法改變碼書維數的仿真結果采樣頻率8000Hz8000Hz8000Hz8000Hz8000Hz8000Hz語音長度20s20s20s20s20s20s樣本個數100010001000100010001000碼字個數161616161616碼字維數24681012量化壓縮比失真門限循環(huán)次數72132282217平均失真相對失真運算時間數據結果分析:以上不同碼書維數的仿真均采用同一段語音輸入,保持訓練序列輸入樣本大小為1000、使碼書維數分別為12。表44 LBG算法改變失真門限的仿真結果采樣頻率8000Hz8000Hz8000Hz8000Hz8000Hz8000Hz語音長度20s20s20s20s20s20s樣本個數100010001000100010001000碼字大小161616161616碼字維數777777量化壓縮比失真門限循環(huán)次數71416202020平均失真相對失真運算時間數據結果分析:以上不同失真門限的仿真均采用同一段語音輸入,保持訓練序列輸入樣本大小為1000、碼字維數,、。通過MATLAB系統(tǒng)仿真數據結果我們可看出,LBG算法是一種下降算法,在每次迭代的過程中平均失真具有單調不增特性(或者大小至少保持不變),故可改進任何訓練序列的初始碼書生成最佳碼書;在每次迭代的最佳劃分階段,需要從碼書中搜索與訓練矢量最相近的碼字,因而需要大量的計算和存儲空間;每次迭代通常產生的只是碼書的局部變化,也就是說一旦選定LBG算法的初始碼書,通過該算法得到的是局部最優(yōu)碼書。(3)LBG算法中在只改變碼書維數的情況下,碼書維數越大,循環(huán)次數總體呈現遞減趨勢,相對失真減小,運算量(時間)隨著循環(huán)次數的變化而變化,總體基本上呈現遞減趨勢。矢量量化是具有良好性能的模型訓練和模式匹配的技術之一。(2) 分析了最佳矢量量化器設計的兩個條件最佳劃分和最佳碼書,以及在碼書選定過程中所存在的空胞腔和隨機選擇法中的非典型矢量及其處理問題,同時設計了矢量量化器的LBG算法的實現,及流程圖的標注。47(2)。在本文中,提出使用的算法稱為改進的K均值LBG算法,取得了良好的碼本。矢量量化(VQ)是語音編碼,圖像編碼,語音識別,語音合成和說話人識別中使用的最基本的和最成功的技術[,1986]。在各種學科中VQ技術也被稱為數據聚類方法。在硬聚類中每一個數據點獲得的數據屬于不相交的分割,而每一個數據點具有一定的概率是屬于具有各分區(qū)的軟聚類的分區(qū)中的一個。矢量量化技術的性能取決于代表矢量的碼本的良好的存在。第3節(jié)闡述LBG算法。2 矢量量化數據壓縮的主要目標是減少比特率的傳輸或存儲數據,同時保持必要的數據的保真度。該子集C被稱為碼本,它的元素被稱為碼字、碼向量、向量復制、原型或設計樣品。無論是經典的K均值算法還是LBG算法都屬于類近鄰量化。在語音處理中使用的指標是閔可夫斯基度量[J. S. Pan et ]。失真度量只是一種滿足相異測量的正定屬性。為了避免計算分類,平方歐氏度量采用歐氏度量的模式匹配來代替。在語音識別中,加權倒譜失真,可用于平衡不同的說話者識別器的性能。一個量化器的性能總是限定輸入矢量和最后再現的載體,其中E表示期望算子之間的平均失真。它限制了編碼實時傳輸的保真度。給定一個代碼字和測試向量X的k維空間,平方歐幾里德度量的畸變可以表示為如下: 其中和有三種方式產生并設計一個好的碼本,即隨機法,成對最近鄰聚類和分割方法。這種算法要么是基于一個已知的概率模型或是一個長訓練序列的數據。在LBG算法中,從所有訓練數據的應用分裂過程中產生初始質心。因此,GLA算法是一個分裂的聚類方法。初始化是碼本估算的重要一步。這里δ是一個小固定攝動標量。如果是近鄰于,將放入分區(qū)集合。否則,請轉到步驟2。它是一種眾所周知的迭代過程用于解決聚類問題。在訓練過程結束的最后一個載體結合時。步驟2:對于每個訓練數據向量,如果,分配向分區(qū)集合。也有K均值算法的各種限制。該算法進行分類或基于屬性/功能集成到組的K個組對象。在實踐中,數迭代通常比點的數量要少得多。步驟2:計算質心的編號。步驟6:更新該重心,直到有一個在聚類質心沒有改變,終止程序,否則轉到步驟1??倲祿齑笮∈?160句話的1600樣本被用于訓練和剩余樣本用于測試10個英文數字1到9號的測試和和0被采樣頻率為8000 Hz。相比K均值算法和LBG算法,該提出修改的K均值LBG算法所給出最小的失真度量,提高了系統(tǒng)的性能。它被用來有效地提高語音識別系統(tǒng)的性能。T Technical Journal,.Wiploa J. G. , Rabiner L. R. [1985], “A Modified KMeans Clustering Algorithm for Use in Isolated Word Recognition”, IEEE Transactions on Acoustics, Speech and Signal Processing, Vol. 33 , pp. 587594.Arindam Banerjee, Srujana Merugu, Inderjit S. Dhillon, Joydeep Ghosh [2005], “Clustering with Bregman Divergences”, Journal of Machine Learning Research, Vol. 6, pp. 1705–1749.J. S. Pan, F. R. McInnes and M. A. Jack [1996], “Bound for Minkowski metric or quadratic metric applied to codeword search”, IEEProceedings on Vision Image and Signal Processing, Vol. 143, No. 1, pp. 67–71.Marcel R. Ackermann, Johannes Blomer, Christian Sohler [2010], “Clustering for Metric and Nonmetric Distance Measures”, ACM Transactions on Algorithms, Vol. 6, No. 4, Article 59, pp. 126.ShihMing Pan, KuoSheng Cheng [2007], An evolutionbased tabu search approach to codebook design, Pattern Recognition, Vol. 40, No. 2, pp. 476491.ChinChen Chang, YuChiang Li, JunBin Yeh [2006], Fast codebook search algorithms based on treestructured vector quantization, Pattern Recognition Letters, Vol. 27, No. 10, pp. 10771086.Buzo, A. H. Gray, R. M. Gray, J. D. Markel [1980], “Speech coding based upon vector quantization”, IEEE Transactions on Acoustics, Speech and Signal Processing, Vol. 28, No. 5, pp. 562–574.Y. Linde, A.
點擊復制文檔內容
教學教案相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1