欢迎来到课桌文档! | 帮助中心 课桌文档-建筑工程资料库
课桌文档
全部分类
  • 党建之窗>
  • 感悟体会>
  • 百家争鸣>
  • 教育整顿>
  • 文笔提升>
  • 热门分类>
  • 计划总结>
  • 致辞演讲>
  • 在线阅读>
  • ImageVerifierCode 换一换
    首页 课桌文档 > 资源分类 > DOC文档下载  

    实验报告-基于GMM-HMM的语音识别.doc

    • 资源ID:23218       资源大小:386.20KB        全文页数:13页
    • 资源格式: DOC        下载积分:10金币
    快捷下载 游客一键下载
    会员登录下载
    三方登录下载: 微信开放平台登录 QQ登录  
    下载资源需要10金币
    邮箱/手机:
    温馨提示:
    用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP免费专享
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    实验报告-基于GMM-HMM的语音识别.doc

    目录基于GMM-HMM的语音识别1一、马尔科夫初步概念理解2(一)两个重要的图2(二)问题:马尔科夫的开始状态如何确定?3二、马尔科夫的三种问题,以与解法3(一)解码,3解法一:最大似然路径3解法二 : Viterbi algorithm3(二)A,B,根据骰子掷出的结果,求出掷出这个结果的概率模型检验5解法一:穷举5解法二:前向算法5(三)知道骰子状态有几种,不知道A,知道B,观察到很屡次投骰子的结果可见状态链,我想反推出A。5三、HMM算法使用条件5(一)隐性状态的转移必须满足马尔可夫性5(二)隐性状态必须能够大概被估计。5四、EM算法GMM高斯混合模型。6(一)单高斯分布模型GSM7(三)样本分类情况下的GMM8(四)样本分类未知情况下的GMM8五、HMM-GMM模型在语音识别中的应用10(一)语言识别的过程10(二)其中HMM与GMM的作用11六、实验结果11(一)代码阅读以与注释11(二)实验结果比照11(三)与DTW结果比照12(四)实验感想与收获12(五)困难与改良12一、 马尔科夫初步概念理解(一) 两个重要的图(二) 问题:马尔科夫的开始状态如何确定?二、 马尔科夫的三种问题,以与解法(一) 解码,A,B隐含状态的数量以与转换概率以与B,根据掷骰子掷出的结果可见状态链,想知道每次掷出来的都是哪种骰子隐含状态链解法一:最大似然路径Ø 根本思想:求一串骰子序列,这串骰子序列产生观测结果的概率最大Ø 算法:穷举解法二 : Viterbi algorithm,求出每次掷出的骰子分别是某种骰子的概率Ø 根本思想:Ø 算法: 类似于动态规划;:(二) A,B,根据骰子掷出的结果,求出掷出这个结果的概率模型检验解法一:穷举Ø 思想:穷举所有骰子序列,计算每个骰子序列对应的概率,然后把这些概率相加Ø 算法:呵呵解法二:前向算法Ø 根本思想:结果递推,有点像动态规划,就是一步一步往后算,通过前向算法,算出概率加和,其中要用到A和B(三) 知道骰子状态有几种,不知道A,知道B,观察到很屡次投骰子的结果可见状态链,我想反推出A。三、 HMM算法使用条件但是使用HMM进展建模的问题,必须满足以下条件,(一) 隐性状态的转移必须满足马尔可夫性。(状态转移的马尔可夫性:一个状态只与前一个状态有关)(二) 隐性状态必须能够大概被估计。在满足条件的情况下,确定问题中的隐性状态是什么,隐性状态的表现可能又有哪些.HMM适用于的问题在于,真正的状态(隐态)难以被估计,而状态与状态之间又存在联系。四、 EM算法GMM高斯混合模型。聚类的方法有很多种,k-means要数最简单的一种聚类方法了,其大致思想就是把数据分为多个堆,每个堆就是一类。每个堆都有一个聚类中心学习的结果就是获得这k个聚类中心,这个中心就是这个类中所有数据的均值,而这个堆中所有的点到该类的聚类中心都小于到其他类的聚类中心分类的过程就是将未知数据对这k个聚类中心进展比拟的过程,离谁近就是谁。其实k-means算的上最直观、最方便理解的一种聚类方式了,原那么就是把最像的数据分在一起,而“像这个定义由我们来完成,比如说欧式距离的最小,等等。想对k-means的具体算法过程了解的话,请看这里。而在这篇博文里,我要介绍的是另外一种比拟流行的聚类方法-GMMGaussian Mixture Model。   GMM和k-means其实是十分相似的,区别仅仅在于对GMM来说,我们引入了概率。说到这里,我想先补充一点东西。统计学习的模型有两种,一种是概率模型,一种是非概率模型。所谓概率模型,就是指我们要学习的模型的形式是P(Y|X),这样在分类的过程中,我们通过未知数据X可以获得Y取值的一个概率分布,也就是训练后模型得到的输出不是一个具体的值,而是一系列值的概率对应于分类问题来说,就是对应于各个不同的类的概率,然后我们可以选取概率最大的那个类作为判决对象算软分类soft assignment。而非概率模型,就是指我们学习的模型是一个决策函数Y=f(X),输入数据X是多少就可以投影得到唯一的一个Y,就是判决结果算硬分类hard assignment。回到GMM,学习的过程就是训练出几个概率分布,所谓混合高斯模型就是指对样本的概率密度分布进展估计,而估计的模型是几个高斯模型加权之和具体是几个要在模型训练前建立好。每个高斯模型就代表了一个类一个Cluster。对样本中的数据分别在几个高斯模型上投影,就会分别得到在各个类上的概率。然后我们可以选取概率最大的类所为判决结果。  得到概率有什么好处呢?我们知道人很聪明,就是在于我们会用各种不同的模型对观察到的事物和现象做判决和分析。当你在路上发现一条狗的时候,你可能光看外形好似邻居家的狗,又更像一点点女朋友家的狗,你很难判断,所以从外形上看,用软分类的方法,是女朋友家的狗概率51%,是邻居家的狗的概率是49%,属于一个易混淆的区域,这时你可以再用其它方法进展区分到底是谁家的狗。而如果是硬分类的话,你所判断的就是女朋友家的狗,没有“多像这个概念,所以不方便多模型的融合。(一) 单高斯分布模型GSM多维变量X服从高斯分布时,它的概率密度函数PDF为:x是维度为d的列向量,u是模型期望,是模型方差。在实际应用中u通常用样本均值来代替,通常用样本方差来代替。很容易判断一个样x本是否属于类别C。因为每个类别都有自己的u和,把x代入1式,当概率大于一定阈值时我们就认为x属于C类。从几何上讲,单高斯分布模型在二维空间应该近似于椭圆,在三维空间上近似于椭球。遗憾的是在很多分类问题中,属于同一类别的样本点并不满足“椭圆分布的特性。这就引入了高斯混合模型。(二) 高斯混合模型GMMGMM认为数据是从几个GSM中生成出来的,混合高斯模型的定义为:     其中K为模型的个数,k为第k个高斯的权重,那么为第k个高斯的概率密度函数,其均值为k,方差为k。我们对此概率密度的估计就是要求k、k和k各个变量。当求出的表达式后,求和式的各项的结果就分别代表样本x属于各个类的概率。K需要事先确定好,就像K-means中的K一样。k是权值因子,表示在所有样本中,k类占的权重。其中的任意一个高斯分布N(x;uk,k)叫作这个模型的一个component。这里有个问题,为什么我们要假设数据是由假设干个高斯分布组合而成的,而不假设是其他分布呢?实际上不管是什么分布,只K取得足够大,这个# Mixture Model就会变得足够复杂,就可以用来逼近任意连续的概率密度分布。只是因为高斯函数具有良好的计算性能,所GMM被广泛地应用。GMM是一种聚类算法,每个component就是一个聚类中心。即在只有样本点,不知道样本分类含有隐含变量的情况下,计算出模型参数,u和-这显然可以用EM算法来求解。再用训练好的模型去差异样本所属的分类,方法是:step1随机选择K个component中的一个被选中的概率是k;step2把样本代入刚选好的component,判断是否属于这个类别,如果不属于那么回到step1。(三) 样本分类情况下的GMM当每个样本所属分类时,GMM的参数非常好确定,直接利用Maximum Likelihood。设样本容量为N,属于K个分类的样本数量分别是N1,N2,.,Nk,属于第k个分类的样本集合是L(k)。(四) 样本分类未知情况下的GMM在做参数估计的时候,常采用的方法是最大似然。最大似然法就是使样本点在估计的概率密度函数上的概率值最大。由于概率值一般都很小,N很大的时候这个连乘的结果非常小,容易造成浮点数下溢。所以我们通常取log,将目标改写成:     也就是最大化log-likelyhood function,完整形式那么为:   一般用来做参数估计的时候,我们都是通过对待求变量进展求导来求极值,在上式中,log函数中又有求和,你想用求导的方法算的话方程组将会非常复杂,所以我们不好考虑用该方法求解没有闭合解。可以采用的求解方法是EM算法将求解分为两步:第一步是假设我们知道各个高斯模型的参数可以初始化一个,或者基于上一步迭代结果,去估计每个高斯模型的权值;第二步是基于估计的权值,回过头再去确定高斯模型的参数。重复这两个步骤,直到波动很小,近似达到极值注意这里是个极值不是最值,EM算法会陷入局部最优。具体表达如下:     1、对于第i个样本xi来说,它由第k个model生成的概率为:     在这一步,我们假设高斯模型的参数和是的由上一步迭代而来或由初始值决定。  E step     M step   3、重复上述两步骤直到算法收敛这个算法一定是收敛的,至于具体的证明请回溯到EM算法中去,而我也没有具体关注,以后补上。五、 HMM-GMM模型在语音识别中的应用(一) 语言识别的过程语音识别问题就是将一段语音信号转换为文字序列的过程. 在个问题里面隐性状态就是: 语音信号对应的文字序列而显性的状态就是: 语音信号.HMM模型的学习(Learning): 语音识别的模型学习和上文过观察骰子序列建立起一个最有可能的模型不同.语音识别的HMM模型学习有两个步骤:1. 统计文字的发音概率,建立隐性表现概率矩阵2. 统计字词之间的转换概率(这个步骤并不需要考虑到语音,可以直接统计字词之间的转移概率即可)语音模型的估计(Evaluation): 计算"是十四,"四十四"等等的概率,比拟得出最有可能出现的文字序列.(二) 其中HMM与GMM的作用其中HMM模型如同一根线,从前向后,模拟了人类的发音过程,将其分化为各个状态。而GMM如同线上的一颗颗珠子,以概率的形式描述了每个状态容参考文献:blogs./zhangchaoyang/articles/2624882.html六、 实验结果(一) 代码阅读以与注释 请参见.m文件,作业中提交的.m文件都是经过阅读注释的。(二) 实验结果比照由于跑着实在太费机子了,期间还跑停机两次,于是实验结果不多HMM13689.0996.3697.27HMM23893.8198.7198.83HMM33994.2598.8799.16发射数为七的数据因为掉电没有了。但是可以清楚的看到随着发射数的增加,识别率明显增加,但是增加的值越来越下,识别率增长的速率随发射数和迭代数的增加而增加而根据“过拟合原理,如果发射数持续递增,识别率会在到达某个顶点之后下降。(三) 与DTW结果比照总体上来说HMM的性能要比DTW好很多,在模型方面HMM采用了GMM模型,那么可识别围比DTW更好;HMM把孤立语音分为几个不同的状态同一训练,这就与DTW分不同模版匹配差不多,但是HMM明显更方便。在识别方面DTW用的是动态规划,需要反向搜索过程,在维特比算法不需要,它相当于动态规划的剪枝算法,所以更为迅速。HMM更像是一个学习的过程,一个k-means的监视性分类器,分类出多个状态GMM高斯模型而非一个供识别的模版。而DTW比起HMM显得较为生硬些。

    注意事项

    本文(实验报告-基于GMM-HMM的语音识别.doc)为本站会员(夺命阿水)主动上传,课桌文档仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知课桌文档(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    备案号:宁ICP备20000045号-1

    经营许可证:宁B2-20210002

    宁公网安备 64010402000986号

    课桌文档
    收起
    展开