freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內(nèi)容

情感語音信號中共振峰參數(shù)的提取方法畢業(yè)論文(留存版)

2025-11-01 12:48上一頁面

下一頁面
  

【正文】 “ 情感不強烈 ” 兩大類 ; 部分研究只關(guān)注于用戶的情感狀態(tài)是 “ 正常 ” 還是 “ 不正常 ”; 還有的研究只注重用戶的某些負面情感,如 “ 挫敗 ” 、 “ 厭煩 ” 、 “ 僧惡 ” 等等 。引導型情感語音通常通過文字對說話者進行引導, 6 即通過說話人朗讀帶有一定感情色彩的文本,獲得所需要的情感語句。由于一件樂器的結(jié)構(gòu)是穩(wěn)定的,因此在一件樂器發(fā)出的所有 音調(diào) 中,不論 基頻 如何,都會表現(xiàn)出相同的共振峰值,只不過其顯著性有強有弱罷了。這時會產(chǎn)生共振峰合并現(xiàn)象,而探討一種理想的能對共振峰合并進行識別的共振峰提取算法存在很多實際困難。盡管其精度由于存在一 定的逼近誤差而有所降低,但去除了激勵分量的影響。而且,不屬于共振峰的額外極點容易排除掉,因為其帶寬比共振峰帶寬要大得多。 同類文章提取方法比較 基于提取語音信號中的共振峰有多種方法,有很多采取其他共振峰提取方法的同類論文。因為倒譜運用對數(shù)運算和二次變換將基音諧波和聲道的頻譜包絡分離開來。由 h(n)經(jīng) DFT 得到的 H(K)就是聲道的離散譜 曲線,由于它去除了激勵引起的諧波動,因此能更精確地得到共振峰參數(shù)。同時提高情感語音表達的自然度,擴大情感語料的涉及范圍,并且盡可能的使語音庫涵蓋多個語種。 其次我要感謝在論文研究期間一起討論,互相學習的同組同學,是他們讓我看到了自己的不足,也讓我在討論中得到了進步。 ( 3) 重點介紹倒譜法以及倒譜法提取語音信號中共振峰的原理與具體過程,并實現(xiàn)運用倒譜法實現(xiàn)共振峰的提取。選擇最普遍的極零模型來描述聲道響應 x(n),其 z 變換的形式為: ? ? ? ?? ? ? ?? ?? ?? ??? ???????iipkpkkkmkmkkkzdzczbzaAzX1 111 11001111)( () 經(jīng)過傅立葉變換、取對數(shù)和逆傅立葉變換后可以得到其復倒譜: ???????????????? ?? ?? ???? ?0 01 11 1)0()0()0(ln)(?mkpknknkpkmknknknndnbnnancnAnxi i () 對于倒譜可以只考慮它的幅度特性,可以看出,它是一個衰減序列,且衰減的速度n1快。采用了優(yōu)化動態(tài)搜索的算法,提高了運算速度。 求根法求取共振峰的優(yōu)點在于通過對預測多項式系數(shù)的分解可以精確地確定共振峰的中心頻率和帶寬。 具體過程是:設:ijii erz ??為第一個根,則其共軛值 ijii erz ???也是一個根。這樣,由 h(n)經(jīng) DFT 得到的 H(k),就是聲道的離散譜曲線,用 H(k)代替直接 DFT 的頻譜,因為去除了激勵引起的 諧波波動,所以可以更精確地得到共振峰參數(shù)。甚至在采用線性預測方法時,也并非沒有虛假峰值。共振峰信息包含在頻率包絡之中,因此共振峰參數(shù)提取的關(guān)鍵是估計自然語音頻譜包絡,一般認為譜包絡中的最大值就是共振峰 [1]。 表演型情感語音是指情感表現(xiàn)力較強的演員模仿不同情感朗誦指定語句獲得的情感語料。 美國心理學家 Eckman 提出了六種基本情緒 [16]: 憤怒、恐懼、悲傷、驚訝、高興和厭惡。 ,并利用這種方法提取情感 語音中的共振峰。將韻律特征分解為純語音的特征和純情感的特征,并將后者運用于語音情感識別,用多層 感知器對六種情感進行識別,得到平均 %的識別率 [12]。 國際情感語音識別發(fā)展現(xiàn)狀 目前,關(guān)于情感的研究正處在不斷的深入之中,語音的情感識別因為涉及到不同語種之間的差異,發(fā)展也不盡相同。語音情感識別是語音識別的一個重要的分支,而語音識別則是數(shù)字信號處理技術(shù)與語音學的交叉學科,它和心理學、計算機科學、認知科學、 語言學、人工智能和模式識別等學科緊密聯(lián)系。共振峰頻率是反映聲道諧振特性的重要特征,它代表了發(fā)音信息的最直接的來源。人在語音感知中也利用了共振峰信息。 原始數(shù)據(jù): 1:共振峰研究意義 隨著多模態(tài)人機交互技術(shù)的發(fā)展,新型人機交互模式的應用前景更加廣闊。 ( 4)求根法提取共振峰:找出多項式復根 的過程通常采用牛頓 — 拉夫遜 ( NewtonRaphson) 算法。 Formant parameters。共振峰作為情感特征信息的非韻律特征參數(shù),我們研究提取它的方法對包含在語音信號中的情感信息分析和處理是極其有意義的 [1][2]。首次將語音的聲學信息、詞匯和語義信息結(jié)合,并將模糊推論系統(tǒng)用于識別系統(tǒng),初步試驗結(jié)果表明,結(jié)合這三種信息進行語音信號的情感識別要比單純使用聲學信息識別率平均提 高了%[9]。 ( 1)虛假峰值 ( 2)共振峰合并 ( 3)高音調(diào)語音 。 第五章重點介紹了倒譜法提取共振峰的過程。 情感語音數(shù)據(jù)庫 要對語音進行情感識別,情感語音數(shù)據(jù)庫的建立是基礎。 語音情感識別系統(tǒng) 預 處 理 特 征 提 取情 感 語 音 輸 入模 式 匹 配模 板 庫參 考 模 式識 別 結(jié) 果 輸 出 圖 21 典型語音情感識別系統(tǒng)的框圖 語音情感識別系統(tǒng)與語音識別系統(tǒng)類似,分為 語音情感語句預處理、特征參數(shù)提取和模式匹配三個部分。 共振峰參數(shù)的研究意義 漢語普通話發(fā)音中情感特征信息的特征參數(shù)主要包括發(fā)音持續(xù)時間、振幅能量、 基音 頻率和共振峰頻率等。在這樣的語音中,線性預測包絡峰值趨向于離開真實位置,而朝著最接近的諧波峰位移動。另外也可以采用拋物線內(nèi)插技術(shù),解決頻率分辨率較低的情況下的共振峰頻率值的求取。設 0)0(? ?h ,將兩邊同時對 z1求導,得 ??????????? ??????????????????1111 )(11lo gnnipiiznhzzaz () 13 得到 ???????????????? piiipiiinnzaziaznhn111111)( () 有 ? ? ??? ??? ????? ???? ? ????????? ? 1 11 111 n iin npi ii ziaznhnza () 令式左右兩邊 z 的各次冪前系數(shù)分別相等得到: ?????????????????????????piiniinpninhaninhpninhanianhah1111)(?)1()(?1)(?)1()(?)1(? () 按照上式可直接從預測系數(shù) {ai}求得倒譜 )(?nh 。并結(jié)合理論分析和實驗結(jié)果表明,采用相 頻特性與對數(shù)幅 頻特性同樣能夠提取語音信號共振峰。在英語中,倒譜 Cepstrum是將譜 Spectrum中前四個字母倒置后得到的,因為 )(? ?jeX 一般為復數(shù),故稱 )(?nx 為復倒譜。圖 51 為共振峰提取框圖,圖 52為共振峰提取流程圖 [23]。 24 參考文獻 [1] 胡航 . 語音信號處理 [M]. 哈爾濱 : 哈爾濱工業(yè)大學出版社 , 2020: 113116. [2] 張剛 , 張雪英 , 馬建芬 . 語音處理與編碼 [M]. 北京 , 兵器工業(yè)出版社 , 2020. [3] Rosalind W Picard. Affective puting[J], Minds and Machines, 1999, 9:443447. [4] Cowie R and Cornelius R. Describing the emotional stares that are expressed in Speech[J], HumanComputer Studies, 2020, 40:53. [5] D Ververidis and C Kotropoulos, Emotional speech recognition:Resources, features and methods[J], Speech Communication, 2020, 48(9):11621181. [6] Cowie, , , MeMahon, , , ’:An Instrument for Recording Perceived Emotion in Real Time. In ISCA Workshop on Speech and Emotion, Belfast 2020. [7] Cowie, , and hearers are people:Reflections on Speech deterioration as a consequence of acquired deafness in Profound Deafness and Speech Communication. London, 1995. [8] , , statistical analysis of the signal and prosodic signs of emotion in Proc. 4th Int. Conf. Spoken Language , PA, 1996:19891992. [9] Fernandez, Computational Model for the Automatic Recognition of Affect in Media Arts and Science, February 2020. [10] Ang J, Dhillon R, KruPSki A, Shriberg E, Stoleke automatic detection of annoyance and frustration in humanputer dialog[C], IPIC on spoken Language Processing, Denver, 2020, 3:20372040. [11] 趙力 , 蔣春輝 , 鄒采榮 . 語音信號中的情感特征分析和識別的研究 [N]. 電子學報 , 2020, 4:606609. [12] DanNingJiang, Lian Hong Cai. Classifying Emotion in Chinese Speech by Deposing Prosodic Signal Processing , 15:3236. [13] TSangLong Pao, YuTe Chen, JunHeng Yeh. Emotion Recognition From Mandarin Speech , 2020:301304. [14] 付麗琴 , 王玉寶 , 王長江 . 基于多特征向量的語音情感識別 [M]. 計算機科學 , 2020, 36(6):231134. [15] Wang Qing, Xie Bo and Chen Gencai. Emotion recognition of speech in mandarin based on neural work[C]. The 1st Chinese Conference on Affective Computing and Intelligent Interaction(ACIf03), , Beijing, 2020. 25 [16] Ekman, Argument for Basic Emotions. Cognition and Emotion, 1992, 6:169200. [17] Plutchik, General Psychoevolutionary Theory of Emotion. In Emotion:Theory, Research, and Experience, 1980, l:333. [18] Shaver, , , ’Connor, Knowledge:Further Exploration of a Prototype Approach. Journal of Personality and Social Psychology, 1987, 52(6):10611086. [19] 謝波 , 普通話語音情感識別關(guān)鍵技術(shù) [D], 博士論文 , 浙江大學 , 2020. [20] . Emotion:A psychoevolutionary synthesis[M]. New York Harper and Row, 1980. [21] M. Lee, J. van. Santen, B. Mobius and J. Olive. Formant Tracking Using ContextDependent Phonemic
點擊復制文檔內(nèi)容
公司管理相關(guān)推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1