1 / 19
文档名称:

自动化外文文献英文文献外文翻译改进型智能机器人的语音识别方法.pdf

格式:pdf   大小:2,324KB   页数:19页
下载后只包含 1 个 PDF 格式的文档,没有任何的图纸或源代码,查看文件列表

如果您已付费下载过本站文档,您可以点这里二次下载

分享

预览

自动化外文文献英文文献外文翻译改进型智能机器人的语音识别方法.pdf

上传人:1781111**** 2024/4/29 文件大小:2.27 MB

下载得到文件列表

自动化外文文献英文文献外文翻译改进型智能机器人的语音识别方法.pdf

相关文档

文档介绍

文档介绍:该【自动化外文文献英文文献外文翻译改进型智能机器人的语音识别方法 】是由【1781111****】上传分享,文档一共【19】页,该文档可以免费在线阅读,需要了解更多关于【自动化外文文献英文文献外文翻译改进型智能机器人的语音识别方法 】的内容,可以使用淘豆网的站内搜索功能,选择自己适合的文档,以下文字是截取该文章内的部分文字,如需要获得完整电子版,请下载此文档到您的设备,方便您编辑和打印。:......附件1:外文资料翻译译文改进型智能机器人的语音识别方法2、语音识别概述最近,由于其重大的理论意义和实用价值,语音识别已经受到越来越多的关注。到现在为止,多数的语音识别是基于传统的线性系统理论,例如隐马尔可夫模型和动态时间规整技术。随着语音识别的深度研究,研究者发现,语音信号是一个复杂的非线性过程,如果语音识别研究想要获得突破,那么就必须引进非线性系统理论方法。最近,随着非线性系统理论的发展,如人工神经网络,混沌与分形,可能应用这些理论到语音识别中。因此,本文的研究是在神经网络和混沌与分形理论的基础上介绍了语音识别的过程。语音识别可以划分为独立发声式和非独立发声式两种。非独立发声式是指发音模式是由单个人来进行训练,其对训练人命令的识别速度很快,但它对与其他人的指令识别速度很慢,或者不能识别。独立发声式是指其发音模式是由不同年龄,不同性别,不同地域的人来进行训练,它能识别一个群体的指令。一般地,由于用户不需要操作训练,独立发声式系统得到了更广泛的应用。所以,在独立发声式系统中,从语音信号中提取语音特征是语音识别系统的一个基本问题。语音识别包括训练和识别,我们可以把它看做一种模式化的识别任务。通常地,语音信号可以看作为一段通过隐马尔可夫模型来表征的时间序列。通过这些特征提取,语音信号被转化为特征向量并把它作为一种意见,在训练程序中,这些意见将反馈到HMM的模型参数估计中。这些参数包括意见和他们响应状态所对应的概率密度函数,状态间的转移概率,等等。经过参数估计以后,这个已训练模式就可以应用到识别任务当中。输入信号将会被确认为造成词,其精确度是可以评估的。整个过程如图一所示。1/19:......图1语音识别系统的模块图3、理论与方法从语音信号中进行独立扬声器的特征提取是语音识别系统中的一个基本问题。解决这个问题的最流行方法是应用线性预测倒谱系数和Mel频率倒谱系数。这两种方法都是基于一种假设的线形程序,该假设认为说话者所拥有的语音特性是由于声道共振造成的。这些信号特征构成了语音信号最基本的光谱结构。然而,在语音信号中,这些非线形信息不容易被当前的特征提取逻辑方法所提取,所以我们使用分型维数来测量非线形语音扰动。和非线性多尺度分形维数特征提取研究并实现语音识别系统。,它是关于毗邻语音样本间特征联系的参数。线形预分析正式基于以下几个概念建立起来的,即一个语音样本可以通过一些以前的样本的线形组合来快速地估计,根据真实语音样本在确切的分析框架(短时间的)和预测样本之间的差别的最小平方原则,最后会确认出唯一的一组预测系数。LPC可以用来估计语音信号的倒谱。在语音信号的短时倒谱分析中,这是一种特殊的处理方法。信道模型的系统函数可以通过如下的线形预分析来得到:其中p代表线形预测命令,,(k=1,2,……,p)代表预测参数,脉冲响应用h(n)来表示,假设h(n)的倒谱是。那么(1)式可以扩展为(2)式:将(1)带入(2),两边同时,(2)变成(3)。就获得了方程(4):2/19:......那么可以通过来获得。(5),命令。参数以前,我们应该对语音信号进行预加重,帧处理,加工和终端窗口检测等,所以,中文命令字“前进”的端点检测如图2所示,接下来,断点检测后的中文命令字“前进”的参数波形如图3所示。图2中文命令字“前进”的端点检测3/19:......图3断点检测后的中文命令字“前进”,也是对自我的结构相似性的测量。分形分维测量是[6-7]。从测量的角度来看,分形维数从整数扩展到了分数,打破了一般集拓扑学方面被整数分形维数的限制,分数大多是在欧几里得几何尺寸的延伸。有许多关于分形维数的定义,例如相似维度,豪斯多夫维度,信息维度,相关维度,容积维度,计盒维度等等,其中,豪斯多夫维度是最古老同时也是最重要的,它的定义如[3]所示:其中,,中文命令词“向前”的语音波形和分形维数波形如图4所示。4/19:......图4端点检测后,中文命令词“向前”,我们把它们二者混合到信号的特取中,即分形维数表表征语音时间波形图的自相似性,周期性,随机性,同时,特性在高语音质量和高识别速度上做得很好。由于人工神经网络的非线性,自适应性,强大的自学能力这些明显的优点,它的优良分类和输入输出响应能力都使它非常适合解决语音识别问题。由于人工神经网络的输入码的数量是固定的,因此,现在是进行正规化的特征参数输入到前神经网络[9],在我们的实验中,和每个样本的分形维数需要分别地通过时间规整化的网络,是一个4帧数据(1,2,3,4,每个参数都是14维的),分形维数被模化为12维数据,(FD1,FD2,…FD12,每一个参数都是一维),以便于每个样本的特征向量有4*14+12*1=68-D维,该命令就是前56,剩下的12个维数是分形维数。因而,这样的一个特征向量可以表征语音信号的线形和非线性特征。5/19:......自动语音识别的结构和特征自动语音识别是一项尖端技术,它允许一台计算机,甚至是一台手持掌上电脑(迈尔斯,2000)来识别那些需要朗读或者任何录音设备发音的词汇。自动语音识别技术的最终目的是让那些不论词汇量,背景噪音,说话者变音的人直白地说出的单词能够达到100%的准确率(CSLU,2002)。然而,大多数的自动语音识别工程师都承认这样一个现状,即对于一个大的语音词汇单位,当前的准确度水平仍然低于90%。举一个例子,Dragon'sNaturallySpeaking或者IBM公司,阐述了取决于口音,背景噪音,说话方式的基线识别的准确性仅仅为60%至80%(Ehsani&Knodt,1998)。更多的能超越以上两个的昂贵的系统有Subarashii(Bernstein,etal.,1999),EduSpeak(Franco,etal.,2001),Phonepass(Hinks,2001),ISLEProject(Menzel,etal.,2001)andRAD(CSLU,2003)。语音识别的准确性将有望改善。在自动语音识别产品中的几种语音识别方式中,隐马尔可夫模型(HMM)被认为是最主要的算法,并且被证明在处理大词汇语音时是最高效的(Ehsani&Knodt,1998)。详细说明隐马尔可夫模型如何工作超出了本文的围,但可以在任何关于语言处理的文章中找到。其中最好的是Jurafsky&Martin(2000)andHosom,Cole,andFanty(2003)。简而言之,隐马尔可夫模型计算输入接收信号和包含于一个拥有数以百计的本土音素录音的数据库的匹配可能性(Hinks,2003,)。也就是说,一台基于隐马尔可夫模型的语音识别器可以计算输入一个发音的音素可以和一个基于概率论相应的模型达到的达到的接近度。高性能就意味着优良的发音,低性能就意味着劣质的发音(a,etal.,1991)。虽然语音识别已被普遍用于商业听写和获取特殊需要等目的,近年来,语言学****的市场占有率急剧增加(Aist,1999;Eskenazi,1999;Hinks,2003)。早期的基于自动语音识别的软件程序采用基于模板的识别系统,其使用动态规划执行模式匹配或其他时间规化技术(Dalby&Kewley-Port,1999).这些程序包括TalktoMe(Auralog,1995),theTellMeMoreSeries(Auralog,2000),Triple-PlayPlus(Mackey&Choi,1998),NewDynamicEnglish(DynEd,1997),EnglishDiscoveries(Edusoft,1998),andSeeit,HearIt,SAYIT!(CPI,1997)。这些程序的大多数都不会提供任何反馈给超出简单说明的发音准确率,这个基于最接近模式匹配说明是由用户提出书面对话选择的。学****者不会被告之他们发音的准确率。特别是6/19:......里,(2002年)评论例如TalktoMe和TellMeMore等作品中的波形图,因为他们期待浮华的买家,而不会提供有意义的反馈给用户。TalktoMe2002年的版本已经包含了更多Hinks(2003)的特性,比如,信任对于学****者来说是非常有用的:★一个视觉信号可以让学****者把他们的语调同模型扬声器发出的语调进行对比。★学****者发音的准确度通常以数字7来度量(越高越好)★那些发音失真的词语会被识别出来并被明显地标注。附件2:外文原文(复印件)Improvedspeechrecognitionmethodforintelligentrobot2、OverviewofspeechrecognitionSpeechrecognitionhasreceivedmoreandmoreattentionrecentlyduetotheimportanttheoreticalmeaningandpracticalvalue[5].Uptonow,mostspeechrecognitionisbasedonconventionallinearsystemtheory,suchasHiddenMarkovModel(HMM)andDynamicTimeWarping(DTW).Withthedeepstudyofspeechrecognition,,nonlinear-,withthedevelopmentofnonlinea-systemtheoriessuchasartificialworks(ANN),chaosandfractal,itispossibletoapply7/19:......,,theidentificationrateofthetrainingperson?sordersishigh,whileothers’ordersisinlowidentificationrateorcan’,sexandregion,itcanidentifyagroupofpersons’,speakerindependentsystemismorewidelyused,,,speechsignalcanbeviewedasatimesequenceandcharacterizedbythepowerfulhiddenMarkovmodel(HMM).Throughthefeatureextraction,,:......Theseparametersincludeprobabilitydensityfunctionfortheobservationsandtheircorrespondingstates,transitionprobabilitybetweenthestates,,()andMel-FrequencyCepstralCo-efficient().,thenon-linearinformationinspeechsignalsisnoteasily9/19:.....-(LPC),-timeandpredictivesample,-:.....prepresentslinearpredictionorder,ak,(k=1,2,…,p)representspredictioncoefficient,Impulseresponseisrepresentedbyh(n).Supposecepstrumofh(n)isrepresentedby,then(1)canbeexpandedas(2).Thecepstrumcoefficientcalculatedinthewayof(5)is,:.....speechsignalpre-emphasis,framingprocessing,c.,sothemandword“Forward”,next,mandword“Forward”:.....,andalsoameasuringonself-[6-7].Fromtheviewpointofmeasuring,fractaldimensionisextendedfromintegertofraction,breakingthelimitofthegeneraltopologysetdimensionbeingintegerFractaldimension,fractionmostly,,eg.,similardimension,Hausdoffdimension,inforationdimension,correlation13/19:.....imension,box-c.,where,Hausdoffdimensionisoldestandalsomostimportant,foranysets,itisdefinedas[3].Where,M£(F)denoteshowmanyunit£,theBox-Countingdimension(DB)of,F,isobtainedbypartitioningtheplanewithsquaresgridsofside£,andthenumberofsquaresthatintersecttheplane(N(£))andisdefinedas[8].mandword“Forward”,wemixbothtobethefeaturesignal,thatis,fractaldimensiondenotestheself2similarity,periodicityandrandomnessofspeechtimewaveshape,meanwhilefeatureisgoodforspeechqualityandhighonidentification14/19:.....DuetoANN′snonlinearity,self-adaptability,robustandself-learningsuchobviousadvantages,,thereforetimeregularizationiscarriedouttothefeatureparameterbeforework[9].Inourexperiments,andfractaldimensionofeachsampleareneedtogetthroughthenetworkoftimeregularizationseparately,is4-framedata(1,2,3,4,eachframeparameteris14-D),15/19:......fractaldimensionisregularizedtobe12-framedata(FD1,FD2,…,FD12,eachframeparameteris1-D),sothatthefeaturevectorofeachsamplehas4*14+1*12=68-D,theorderis,,,:......ahand-heldPDA(Myers,2000)toidentifywordsthatarereadaloudorspokenintoanysound-%accuracywithallwordsthatareintelligiblyspokenbyanypersonregardlessofvocabularysize,backgroundnoise,orspeakervariables(CSLU,2002).However,uracylevelforalargevocabularyunitofspeech(.,thesentence)remainslessthan90%.Dragon'sNaturallySpeakingorIBM'sViaVoice,forexample,uracyofonly60%to80%,ent,backgroundnoise,typeofutterance,etc.(Ehsani&Knodt,1998).MoreexpensivesystemsthatarereportedtooutperformthesetwoareSubarashii(Bernstein,etal.,1999),EduSpeak(Franco,etal.,2001),Phonepass(Hinks,2001),ISLEProject(Menzel,etal.,2001)andRAD(CSLU,2003).,bothimplementedandproposed,theHiddenMarkovModel(HMM)isoneofthemostdominantalgorithmsandhasproventobeaneffectivemethodofdealingwithlargeunitsofspeech(Ehsani&Knodt,1998).DetaileddescriptionsofhowtheHHMmodelworksgobeyondthescopeofthispaperandcanbefoundinanytextconcernedwithlanguageprocessing;amongthebestareJurafsky17/19:......&Martin(2000)andHosom,Cole,andFanty(2003).Putsimply,putestheprobablematchbetweentheinputitreceivesandphonemescontainedinadatabaseofhundredsofnativespeakerrecordings(Hinks,2003,).Thatis,aspeechrecognizerbasedputeshowclosethephonemesofaspokeninputaretoacorrespondingmodel,;lowlikelihoodrepresentspoorpronunciation(a,etal.,1991).monlyusedforsuchpurposesasbusinessessibility,itsmarketpresenceforlanguagelearninghasincreaseddramaticallyinrecentyears(Aist,1999;Eskenazi,1999;Hinks,2003).EarlyASR-basedsoftwareprogramsadoptedtemplate-basedrecognitionsystemswhichperformpatternmatchingusingdynamicprogrammingorothertimenormalizationtechniques(Dalby&Kewley-Port,1999).TheseprogramsincludeTalktoMe(Auralog,1995),theTellMeMoreSeries(Auralog,2000),Triple-PlayPlus(Mackey&Choi,1998),NewDynamicEnglish(DynEd,1997),EnglishDiscover