freepeople性欧美熟妇, 色戒完整版无删减158分钟hd, 无码精品国产vα在线观看DVD, 丰满少妇伦精品无码专区在线观看,艾栗栗与纹身男宾馆3p50分钟,国产AV片在线观看,黑人与美女高潮,18岁女RAPPERDISSSUBS,国产手机在机看影片

正文內容

spce061a單片機的機器人設計-資料下載頁

2025-06-29 19:39本頁面
  

【正文】 rket presence for language learning has increased dramatically in recent years (Aist,1999; Eskenazi,1999; Hinks,2003).Early ASRbased software programs adopted templatebased recognition systems which perform pattern matching using dynamic programming or other time normalization techniques (Dalby amp。 KewleyPort,1999).These programs include Talk to Me (Auralog,1995),the Tell Me More Series (Auralog,2000),TriplePlay Plus (Mackey amp。 Choi,1998),New Dynamic English (DynEd,1997),English Discoveries (Edusoft,1998),and See it,Hear It,SAY IT! (CPI,1997).Most of these programs do not provide any feedback on pronunciation accuracy beyond simply indicating which written dialogue choice the user has made,based on the closest pattern match.Learners are not told the accuracy of their pronunciation.In particular,Neri,et al. (2002) criticizes the graphical wave forms presented in products such as Talk to Me and Tell Me More because they look flashy to buyers,but do not give meaningful feedback to users.The 2000 version of Talk to Me has incorporated more of the features that Hinks (2003),for example,believes are useful to learners:u A visual signal allows learners to pare their intonation to that of the model speaker.u The learners39。 pronunciation accuracy is scored on a scale of seven (the higher the better).u Words whose pronunciation fails to be recognized are highlighted. 改進型智能機器人的語音識別方法語音識別概述最近,由于其重大的理論意義和實用價值,語音識別已經受到越來越多的關注。到現在為止,多數的語音識別是基于傳統(tǒng)的線性系統(tǒng)理論,例如隱馬爾可夫模型和動態(tài)時間規(guī)整技術。隨著語音識別的深度研究,研究者發(fā)現,語音信號是一個復雜的非線性過程,如果語音識別研究想要獲得突破,那么就必須引進非線性系統(tǒng)理論方法。最近,隨著非線性系統(tǒng)理論的發(fā)展,如人工神經網絡,混沌與分形,可能應用這些理論到語音識別中。因此,本文的研究是在神經網絡和混沌與分形理論的基礎上介紹了語音識別的過程。語音識別可以劃分為獨立發(fā)聲式和非獨立發(fā)聲式兩種。非獨立發(fā)聲式是指發(fā)音模式是由單個人來進行訓練,其對訓練人命令的識別速度很快,但它對與其他人的指令識別速度很慢,或者不能識別。獨立發(fā)聲式是指其發(fā)音模式是由不同年齡,不同性別,不同地域的人來進行訓練,它能識別一個群體的指令。一般地,由于用戶不需要操作訓練,獨立發(fā)聲式系統(tǒng)得到了更廣泛的應用。 所以,在獨立發(fā)聲式系統(tǒng)中,從語音信號中提取語音特征是語音識別系統(tǒng)的一個基本問題。語音識別包括訓練和識別,我們可以把它看做一種模式化的識別任務。通常地,語音信號可以看作為一段通過隱馬爾可夫模型來表征的時間序列。通過這些特征提取,語音信號被轉化為特征向量并把它作為一種意見,在訓練程序中,這些意見將反饋到HMM的模型參數估計中。這些參數包括意見和他們響應狀態(tài)所對應的概率密度函數,狀態(tài)間的轉移概率,等等。經過參數估計以后,這個已訓練模式就可以應用到識別任務當中。輸入信號將會被確認為造成詞,其精確度是可以評估的。3.理論與方法從語音信號中進行獨立揚聲器的特征提取是語音識別系統(tǒng)中的一個基本問題。解決這個問題的最流行方法是應用線性預測倒譜系數和Mel頻率倒譜系數。這兩種方法都是基于一種假設的線形程序,該假設認為說話者所擁有的語音特性是由于聲道共振造成的。這些信號特征構成了語音信號最基本的光譜結構。然而,在語音信號中,這些非線形信息不容易被當前的特征提取邏輯方法所提取,所以我們使用分型維數來測量非線形語音擾動。本文利用傳統(tǒng)的LPCC和非線性多尺度分形維數特征提取研究并實現語音識別系統(tǒng)。3.3 改進的特征提取方法考慮到LPCC語音信號和分形維數在表達上各自的優(yōu)點,我們把它們二者混合到信號的特取中,即分形維數表表征語音時間波形圖的自相似性,周期性,隨機性,同時,LPCC特性在高語音質量和高識別速度上做得很好。由于人工神經網絡的非線性,自適應性,強大的自學能力這些明顯的優(yōu)點,它的優(yōu)良分類和輸入輸出響應能力都使它非常適合解決語音識別問題。由于人工神經網絡的輸入碼的數量是固定的,因此,現在是進行正規(guī)化的特征參數輸入到前神經網絡[9],在我們的實驗中,LPCC和每個樣本的分形維數需要分別地通過時間規(guī)整化的網絡,LPCC是一個4幀數據(LPCC1,LPCC2,LPCC3,LPCC4,每個參數都是14維的),分形維數被模范化為12維數據,(FD1,FD2,…FD12,每一個參數都是一維),以便于每個樣本的特征向量有4*14+12*1=68D維,該命令就是前56個維數是LPCC,剩下的12個維數是分形維數。因而,這樣的一個特征向量可以表征語音信號的線形和非線性特征。4.自動語音識別的結構和特征自動語音識別是一項尖端技術,它允許一臺計算機,甚至是一臺手持掌上電腦(邁爾斯,2000)來識別那些需要朗讀或者任何錄音設備發(fā)音的詞匯。自動語音識別技術的最終目的是讓那些不論詞匯量,背景噪音,說話者變音的人直白地說出的單詞能夠達到100%的準確率(CSLU,2002)。然而,大多數的自動語音識別工程師都承認這樣一個現狀,即對于一個大的語音詞匯單位,當前的準確度水平仍然低于90%。舉一個例子,Dragon39。s Naturally Speaking或者IBM公司,闡述了取決于口音,背景噪音,說話方式的基線識別的準確性僅僅為60%至80%(Ehsani amp。 Knodt,1998)。更多的能超越以上兩個的昂貴的系統(tǒng)有Subarashii (Bernstein,et al.,1999),EduSpeak (Franco,etal.,2001),Phonepass (Hinks,2001),ISLE Project (Menzel,et al.,2001) and RAD (CSLU,2003)。語音識別的準確性將有望改善。在自動語音識別產品中的幾種語音識別方式中,隱馬爾可夫模型(HMM)被認為是最主要的算法,并且被證明在處理大詞匯語音時是最高效的(Ehsani amp。 Knodt,1998)。詳細說明隱馬爾可夫模型如何工作超出了本文的范圍,但可以在任何關于語言處理的文章中找到。其中最好的是Jurafsky amp。 Martin (2000) and Hosom,Cole,and Fanty (2003)。簡而言之,隱馬爾可夫模型計算輸入接收信號和包含于一個擁有數以百計的本土音素錄音的數據庫的匹配可能性(Hinks,2003,p.5)。也就是說,一臺基于隱馬爾可夫模型的語音識別器可以計算輸入一個發(fā)音的音素可以和一個基于概率論相應的模型達到的達到的接近度。高性能就意味著優(yōu)良的發(fā)音,低性能就意味著劣質的發(fā)音(Larocca,et al.,1991)。雖然語音識別已被普遍用于商業(yè)聽寫和獲取特殊需要等目的,近年來,語言學習的市場占有率急劇增加(Aist,1999;Eskenazi,1999;Hinks,2003)。早期的基于自動語音識別的軟件程序采用基于模板的識別系統(tǒng),其使用動態(tài)規(guī)劃執(zhí)行模式匹配或其他時間規(guī)范化技術(Dalbyamp。KewleyPort,1999).這些程序包括Talk to Me (Auralog,1995),the Tell Me More Series (Auralog,2000),TriplePlay Plus (Mackey amp。 Choi,1998),New Dynamic English (DynEd,1997),English Discoveries (Edusoft,1998),and See it,Hear It,SAY IT! (CPI,1997)。這些程序的大多數都不會提供任何反饋給超出簡單說明的發(fā)音準確率,這個基于最接近模式匹配說明是由用戶提出書面對話選擇的。學習者不會被告之他們發(fā)音的準確率。特別是內里,(2002年)評論例如Talk to Me和Tell Me More等作品中的波形圖,因為他們期待浮華的買家,而不會提供有意義的反饋給用戶。Talk to Me 2002年的版本已經包含了更多Hinks(2003)的特性,比如,信任對于學習者來說是非常有用的:u 一個視覺信號可以讓學習者把他們的語調同模型揚聲器發(fā)出的語調進行對比。u 學習者發(fā)音的準確度通常以數字7來度量(越高越好)u 那些發(fā)音失真的詞語會被識別出來并被明顯地標注 致 謝大學四年所收獲的不僅僅是愈加豐厚的知識,更重要的是在閱讀、實踐中所培養(yǎng)的思維方式、表達能力和廣闊視野。經過半個學期的忙碌和工作,本次畢業(yè)設計已經接近尾聲,作為一個本科生的畢業(yè)設計,由于經驗的匱乏,難免有許多考慮不周全的地方,如果沒有導師的督促指導,以及一起工作的同學們的支持,想要完成這個設計是難以想象的。在這里首先要感謝鄭心武老師。本課題在選題及研究過程中得到鄭老師的悉心指導。鄭老師多次詢問研究進程,并為我指點迷津,幫助我開拓研究思路,精心點撥、熱忱鼓勵。鄭老師一絲不茍的作風,嚴謹求實的態(tài)度,踏踏實實的精神,不僅授我以文,而且教我做人,雖歷時幾月,卻給以終生受益無窮之道。鄭老師不僅在學業(yè)上給我以精心指導,同時還在思想、生活上給我以無微不至的關懷,在此謹向鄭老師致以誠摯的謝意和崇高的敬意。同時還感謝四年來幫助和教育過我的孫志雄老師、韓建文老師、雷紅老師、石煥玉老師、鄭澤龍老師、于洪老師、林雄老師、張福金老師、黃飛老師……一路走來,從你們的身上我收獲無數,卻無以回報,謹此一并表達我的謝意。在此,我還要感謝在一起愉快的度過大學四年的同學。四年時光,匆匆地流逝了.相聚不知珍惜,別離才顯情。從遙遠的家鄉(xiāng)來到這個陌生的城市里,四年了,仿佛就在昨天。四年里,我們相處融洽,相互關心。只是今后大家就難得再相聚在一起,各奔前程,請大家珍重。我們在一起的日子,我永遠記著的!最后要感謝的是我的父母,他們不僅培養(yǎng)了我對中國傳統(tǒng)文化的濃厚興趣,讓我在漫長的人生旅途中使心靈有了虔敬的歸依,而且也為我能夠順利的完成畢業(yè)論文提供了巨大的支持與幫助。在未來的日子里,我會更加努力的學習和工作,不辜負父母對我的殷殷期望!我一定會好好孝敬和報答他們!在論文即將完成之際,我的心情無法平靜,從開始進入課題到論文的順利完成,有多少可敬的師長、同學、朋友給了我無言的幫助,在這里請接受我誠摯的
點擊復制文檔內容
環(huán)評公示相關推薦
文庫吧 www.dybbs8.com
備案圖鄂ICP備17016276號-1