freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

強背景噪聲環(huán)境下語音增強算法的研究及應用畢業(yè)論文(完整版)

2024-07-28 01:36上一頁面

下一頁面
  

【正文】 算法研究 本章引論人們在說話過程中,不可避免地存在很多間歇和停頓,因此語音是不連續(xù)的媒介。 白噪聲干擾下(INSNR=5dB)本文算法和MS算法性能比較 babble噪聲干擾下(INSNR=5dB)本文算法和MS算法性能比較,輸入信噪比由15dB迅速下降為5dB時,本文快速估計算法和MS算法性能比較。把代入式( 320 ) 計算新的時頻變化因子。當噪聲功率突然增大時,噪聲幀的功率譜必然會大于功率譜最小值,這樣根據式(318)得到的關于語音存在概率的判定勢必會有較大誤差,這部分功率比較大的噪聲很容易誤判為語音。當語音不存在時,帶噪語音功率譜應等于或接近于式(317)所得的功率譜最小值。由長時信噪比計算得到: ( 316 )其中,為幀長??梢钥闯?,(60幀)以上的延時,而且存在著對噪聲過估計的情況,容易造成對微弱語音信號的抑制。 最小統(tǒng)計(MS)算法測試結果將標準語音庫的語音材料與NOISEX92噪聲庫的噪聲材料根據SNR合成作為測試材料。為減少延時,將長窗分成個子窗,每個子窗長為。下面簡要介紹方法。 簡單的直接噪聲統(tǒng)計特性估計簡單的直接噪聲統(tǒng)計特性估計方法如下: ( 32 )其在形式上與基于語音激活檢測的噪聲統(tǒng)計特性估計方法在噪聲幀的處理相同,只是通常設置為一個接近1的數(shù)值,并且在語音增強的全過程進行更新。當語音誤判為噪聲時,必然使得噪聲統(tǒng)計特性的估計失真,進而在語音增強處理中造成對語音的損傷,在低信噪比時,甚至會出現(xiàn)切音現(xiàn)象,這將極大地降低增強語音的可懂度。本章剩余章節(jié)按照如下方式組織:;;;最后是本章小結。 本章小結本章對語音增強的相關算法做了全面論述,尤其對基于短時譜幅度估計的語音增強算法做了詳細分析,指出了各種算法的優(yōu)缺點。此時,合流超幾何函數(shù)可以近似為: ( 236 )代入式(235),得到 ( 237 )與式(226)中維納濾波法增益式比較,可以看出此時與維納濾波法相同。這兩種估計準則都存在一定的缺陷:最大似然準則完全放棄了對語音頻譜的分布假設;維納濾波法將最小均方誤差準則應用于時域波形估計,但對人耳來說,頻譜分量的幅度才是最重要的。當然,此時引起的失真也可能會增大。如果不給定的分布,則此時的最大似然估計式可以用如下方法求得:由于 ( 216 )通過積分消去后,有 ( 217 )其中,為第0階修正貝塞爾函數(shù),令 ( 218 )則解方程后就可以得到的估計式。 一般形式的譜相減法的結構框圖FFT變換后有 ( 25 )由此可得: ( 26 )由于與相互獨立,而近似滿足零均值的高斯分布,所以: ( 27 )對于一個分析幀內的短時平穩(wěn)過程,則有: ( 28 )其中為無語音時的統(tǒng)計平均值,由此可得原始語音的估計值: ( 29 )其中為增強后語音信號譜幅度。相應的頻域表示為 ( 24 )其中,分別為,和的傅里葉變換系數(shù)。此類算法運算量相對較小,適用信噪比范圍比較大,并且易于實時處理,因而得到廣泛應用。 語音的全極點生成模型Lim和Oppenheim[8]采用了MAP準則來估計聲道的全極點參數(shù)。同時對兩個語音進行梳狀濾波的主要問題是:存在另一個人說話干擾時,如何跟蹤并準確估計出講話者的基音。當延時與周期一致時,這個平均過程將使周期性分量得到加強,而會使其他非周期性分量或與語音信號周期不同的其他周期性分量受到抑制。因而,采集到的噪聲必須經過自適應濾波,以得到盡可能接近于帶噪語音中的噪聲。本章剩余章節(jié)將按照如下方式組織:;;;最后是本章小結。 本章小結本章首先介紹了語音增強在語音處理系統(tǒng)中的作用,指出了選題背景和選題意義,并給出了加性噪聲情況下的帶噪語音模型,闡述了與語音增強密切相關的語音和噪聲的主要特性、人耳的感知特性以及背景噪聲對語音的影響。 論文研究工作基于單麥克的語音增強一直是各種語音增強方法中研究的熱點,相關理論也相對成熟。此類算法運算量相對較小,適用信噪比范圍比較大,并且易于實時處理,因此得到廣泛應用,譜減法、維納濾波法以及MMSE 法等方法都屬于此類。因此,要結合語音特性、人耳感知特性及噪聲特性,根據實際情況選用合適的語音增強方法。統(tǒng)計方法中最典型的是隱馬爾可夫模型(HMM一Hiddnen Markov Mdel)方法,它既是語音識別的主要方法,也可以以概率方式將語音增強問題納入其模型框架[13]。1978年,Lim和Oppoenheim[8]提出了語音增強的維納濾波算法。掩蔽的程度是聲音強度與頻率的二元函數(shù),對頻率臨近分量的掩蔽程度大于對頻差大的分量的掩蔽;5)語音短時譜中的共振峰對語音的感知十分重要,特別是第二共振峰比第一共振峰更為重要,因此對語音信號進行一定程度的高通濾波不會對可懂度造成影響;6)人耳在兩人以上的講話環(huán)境中有能力分辨出需要聆聽的聲音。目前的語音增強主要是針對這種噪聲的處理。加性噪聲大致上有:周期性噪聲、脈沖噪聲、寬帶噪聲和同聲道其它語音的干擾等。在高斯模型假設下,傅立葉展開系數(shù)被認為是獨立的高斯隨機變量,均值為0,方差時變。2)語音大體上可以分為清音和濁音兩大類。這個帶噪語音模型將作為本文語音增強分析的基礎。但目前的識別系統(tǒng)大都是在安靜環(huán)境中工作的,在噪聲環(huán)境中尤其是強噪聲環(huán)境,語音識別系統(tǒng)的識別率將受到嚴重影響。其中,語音增強是語音數(shù)字信號處理系統(tǒng)進入實用階段的重要環(huán)節(jié)。語言是人類交流的重要手段,它自然方便,準確高效。首先, 提出了一種快速估計噪聲統(tǒng)計特性的算法,減小了噪聲估計的跟蹤延時,在一定程度上改善了噪聲過估計的現(xiàn)象,因而能夠在低輸入信噪比以及非平穩(wěn)噪聲干擾環(huán)境下快速準確地跟蹤噪聲特性。密級:內部★ 2 年強背景噪聲環(huán)境下語音增強算法的研究及應用Research and Application of Speech Enhancement in Strong Noise Environment(申請清華大學工學碩士學位論文)培 養(yǎng) 單 位:學 科:研 究 生:指 導 教 師:關于學位論文使用授權的說明本人完全了解清華大學有關保留、使用學位論文的規(guī)定,即:清華大學擁有在著作權法規(guī)定范圍內學位論文的使用權,其中包括:(1)已獲學位的研究生必須按學校規(guī)定提交學位論文,學校可以采用影印、縮印或其他復制手段保存研究生上交的學位論文;(2)為教學和科研目的,學??梢詫⒐_的學位論文作為資料在圖書館、資料室等場所供校內師生閱讀,或在校園網上供校內師生瀏覽部分內容;(3)根據《中華人民共和國學位條例暫行實施辦法》,向國家圖書館報送可以公開的學位論文。根據對短時譜幅度估計算法進行分析,指出了影響其性能的關鍵技術:噪聲統(tǒng)計特性的估計、語音激活檢測算法、先驗信噪比估計、增益函數(shù)的修正等,為算法改進指明了研究方向。關鍵詞:語音增強 非平穩(wěn)噪聲 短時譜幅度估計 噪聲估計 語音激活檢測 先驗信噪比II Abstract AbstractIn voice munications, speech signals can be contaminated by various noises inevitably, which affects the munication quality. Furthermore, noise interference degrades the performance of speech processing systems, such as low bitrate vocoder and speech recognition. Speech enhancement is an effective preprocessing method to reduce the disturbance of noise.Among the speech enhancement techniques, the methods based on ShortTime Spectral Amplitude(STSA) estimation have been well investigated and brought into wide use. In this dissertation, a lot of research work has been done to improve the performance of STSA estimation against the environments of low SignaltoNoise Ratio(SNR) input and nonstationary noise. The proposed robust approach of speech enhancement has been implemented on the TMS320C55x DSP platform. According to the analysis of the STSAbased speech enhancement algorithm, the key techniques are summarized, including the estimation of noise statistic characteristics, voice activity detection(VAD) algorithm, the estimation of a priori SNR, and the modification of gain function,etc.Firstly, a fast estimation method of noise statistic characteristics is proposed. The method decreases the adaptation time of tracking noise, avoids the overestimation phenomenon to some extent, thus can track the noise characteristics with higher accuracy and less time in low SNR input and nonstationary noise environments.Secondly, a voice activity detector based on Gaussian model and Uniformly Most Powerful(UMP) test is designed. Because of detection threshold related to the noise estimation, the algorithm provides higher detection perfomance, especially in nonstationary noise environments. Furthermore, utilizing the spectral information of DFT in the VAD algorithm, the dual tone multiple frequency(DTMF) signal detector and generator are realized conveniently.Thirdly,to balance the stability and the tracking ability in the estimation of a priori SNR, the feedback factor of a priori SNR estimation is optimally adjusted and the estimation result is limited above an adaptive threshold related to long time statistic information. Moreover, the softdecision modified gain function is obtained by introducing speech presence probability to a priori SNR and a priori SNR. These methods effectively eliminate the“musical” noise and make the enhanced speech smooth, natural and acceptable.Finally, The algorithm mentioned above has been implemented in both C language and assembler language on the PC and TMS320C55 DSP hardware platform. Both simulation experiments and realtime tests show that the improved speech enhancement algorithm is effective in suppressing background noise and increasing the SNR without apparently impairing the intelligibility of speech .The perfomance is significantly enhanced
點擊復制文檔內容
數(shù)學相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1