第12章 信源与信息熵.ppt
《第12章 信源与信息熵.ppt》由会员分享,可在线阅读,更多相关《第12章 信源与信息熵.ppt(180页珍藏版)》请在课桌文档上搜索。
1、1,信源与信息熵,第二章,2,2.1 信源的描述和分类2.2 离散信源熵和互信息2.3 离散序列信源的熵2.4 连续信源的熵和互信息2.5 冗余度,内容,3,本章重点,信源熵和离散/连续互信息,本章难点,离散序列有记忆信源的熵,4,2.1 信源的描述和分类,5,信源,信源产生消息(符号)、消息序列和连续消息的来源产生随机变量、随机序列和随机过程的源。在通信系统中收信者在未收到消息以前对信源发出什么消息是不确定的,是随机的,所以可用随机变量、随机序列或随机过程来描述信源输出的消息,或者说用一个样本空间及其概率测度概率空间来描述信源信源的基本特性:具有随机不确定性。,6,香农信息论的基本点,用随机
2、变量或随机矢量来表示信源用概率论和随机过程的理论来研究信息,7,信源,离散信源:文字、数据、电报随机序列,连续信源:话音、图像随机过程,信源的分类,按照信源发出的消息在时间上和幅度上的分布情况可将信源分成离散信源和连续信源两大类,连续信源指发出在时间和幅度上都是连续分布的连续消息(模拟消息)的信源,如语言、图像、图形等都是连续消息。,8,离散信源,离散无记忆信源,离散有记忆信源,发出单个符号的无记忆信源,发出符号序列的无记忆信源,发出符号序列的有记忆信源,发出符号序列的马尔可夫信源,信源的分类,离散信源指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。,9
3、,2.1.1 无记忆信源,离散无记忆信源所发出的各个符号是相互独立的,发出的符号序列中的各个符号之间没有统计关联性,各个符号的出现概率是它自身的先验概率。,例如扔骰子,每次试验结果必然是16点中的某一个面朝上。,用一个离散型随机变量X来描述这个信源输出的消息。,10,发出单个符号的信源指信源每次只发出一个符号代表一个消息;发出符号序列的信源指信源每次发出一组含二个以上符号的符号序列代表一个消息,离散无记忆信源,11,信源的描述,一个离散信源发出的各个符号消息的集合为:,它们的概率分别为,p(xi):xi的先验概率,单符号离散信源的数学模型概率空间,a,b,c,z,12,离散信源的统计特性,离散
4、消息是从有限个符号组成的符号集中选择排列组成的随机序列(组成离散消息的信息源的符号个数是有限的)在形成消息时,从符号集中选择各个符号的概率不同。组成消息的基本符号之间有一定的统计相关特性。,13,信源的描述,连续信源:输出在时间和幅度上都是连续分布的消息 单符号连续无记忆信源的概率空间,随机取一节干电池测其电压值作为输出符号,符号取值为0,1.5之间的所有实数。该信源就是发出单符号的连续无记忆信源,14,信源的描述,发出符号序列的信源,设信源输出的随机序列为 X=(X1X2XlXL)序列中的变量Xlx1,x2,xn这种由信源X输出的L长随机序列X所描述的信源称为离散无记忆信源X的L次扩展信源,
5、15,信源的描述,随机序列的概率,当信源无记忆时,16,一般情况下,信源在不同时刻发出的符号之间是相互依赖的,也就是信源输出的平稳随机序列X中,各随机变量Xl之间是有依赖的。如在汉字序列中前后文字的出现是有依赖的,不能认为是彼此不相关的。表述有记忆信源要比表述无记忆信源困难得多离散有记忆信源所发出的各个符号的概率是有关联的。发出符号序列的有记忆信源发出符号序列的马尔可夫信源,2.1.2 有记忆信源,用信源发出的一个符号序列的整体概率(即联合概率)反映有记忆信源的特征,一个符号出现的概率只与前面一个或有限个符号有关,而不依赖更前面的那些符号,17,概率论基础,无条件概率、条件概率、联合概率的性质
6、和关系,18,概率论基础,无条件概率、条件概率、联合概率的性质和关系,19,2.1.3 马尔可夫信源,马尔可夫信源一类相对简单的离散平稳信源该信源在某一时刻发出字母的概率除与该字母有关外,只与此前发出的有限个字母有关m阶马尔可夫信源:信源输出某一符号的概率仅与以前的m个符号有关,而与更前面的符号无关。条件概率,20,马氏链的基本概念,一阶马尔可夫信源:,若把有限个字母记作一个状态S,则信源发出某一字母的概率除与该字母有关外,只与该时刻信源所处的状态有关。信源将来的状态及其送出的字母将只与信源现在的状态有关,而与信源过去的状态无关。,21,马氏链的基本概念,令si=(xi1,xi2,xim)xi
7、1,xi2,xim(a1,a2,an)状态集S=s1,s2,sQ Q=nm信源输出的随机符号序列为:x1,x2,x i-1,x i信源所处的随机状态序列为:s1,s2,si-1,si,例:二元序列为01011100考虑m=2,Q=nm=22=4s1=00 s2=01 s3=10 s4=11变换成对应的状态序列为 s2 s3 s2 s4 s4 s3 s1,22,马尔可夫信源,设信源在时刻m处于si状态,它在下一时刻(m+1)状态转移到sj的转移概率为:pij(m)=pSm+1=sj|Sm=si=psj|sipij(m):基本转移概率(一步转移概率)若pij(m)与m 的取值无关,则称为齐次马尔可
8、夫链 pij=pSm+1=sj|Sm=si=pS2=sj|S1=sipij具有下列性质:pij0,23,若信源处于某一状态si,当它发出一个符号后,所处状态就变了,任何时候信源处于什么状态完全由前一时刻的状态和发出符号决定。系统在任一时刻可处于状态空间S=s1,s2,sQ中的任意一个状态,状态转移时,转移概率矩阵,符号条件概率矩阵,24,例2-1,如图所示是一个相对码编码器,输入的码Xr(r=1,2,)是相互独立的,取值0或1,且已知P(X=0)=p,P(X=1)=1p=q,输出的码是Yr,显然,Yr是一个马氏链,Yr确定后,Yr+1概率分布只与Yr有关,与Yr-1、Yr-2 等无关,且知Yr
9、序列的条件概率,25,so,s1,p,q,q,p,p00=P(Y2=0/Y1=0)=P(X=0)=p p01=P(Y2=1/Y1=0)=P(X=1)=q p10=P(Y2=0/Y1=1)=P(X=1)=q p11=P(Y2=1/Y1=1)=P(X=0)=p,26,马尔可夫信源,一个不可约的、非周期的、状态有限的马尔可夫链其k步转移概率pij(k)在k时趋于一个和初始状态无关的极限概率Wj,它是满足方程组 的唯一解;Wj:马尔可夫链的一个平稳分布,Wj p(sj)就是系统此时处于状态sj的概率。,27,so,s1,1/0.6,0/0.3,0/0.4,s2,1/0.2,0/0.8,1/0.7,例,
10、28,例2-2:有一个二元二阶马尔可夫信源,其信源符号集为0,1,已知符号条件概率:p(0|00)=1/2 p(1|00)=1/2 p(0|01)=1/3 p(1|01)=2/3 p(0|10)=1/4 p(1|10)=3/4 p(0|11)=1/5 p(1|11)=4/5求:信源全部状态及状态转移概率画出完整的二阶马尔可夫信源状态转移图。求平稳分布概率,29,状态转移概率矩阵,符号条件概率矩阵,(1)1/2,(0)1/2,30,稳态分布概率,稳态后的符号概率分布,31,例 一个二元二阶马尔可夫信源,其信源符号集为0,1信源开始时:p(0)=p(1)=0.5发出随机变量X1。下一单位时间:输出
11、随机变量X2与X1有依赖关系,p(x2|x1),再下一单位时间:输出随机变量X3与X2X1有依赖关系,p(x3|x1x2),32,从第四单位时间开始,随机变量Xi只与前面二个单位时间的随机变量Xi-2Xi-1有依赖关系:p(xi|xi-1 xi-2x2 x1)=p(xi|xi-1 xi-2)(i3)且 p(xi|xi-1 xi-2)=p(x3|x2x1)(i3),解:设信源开始处于s0状态,并以等概率发出符号0和1,分别到达状态s1和s2:若处于s1,以0.3和0.7的概率发出0和1到达s3和s4若处于s2,以0.4和0.6的概率发出0和1到达s5和s6,00,01,10,11,(0)0.5,
12、(1)0.5,(0)0.3,(0)0.4,(1)0.7,(1)0.6,s1,s2,s0,s6,s5,s4,s3,33,信源发完第2个符号后再发第3个及以后的符号。从第3单位时间以后信源必处在s3 s4 s5 s6四种状态之一。在i3后,信源的状态转移可用下图表示:,10,11,01,00,(0)0.3,(0)0.4,(1)0.7,(0)0.2,(1)0.8,(1)0.6,(0)0.4,(1)0.6,状态s1和s5功能是完全相同 状态s2和s6功能是完全相同可将二图合并成,s3,s4,s5,s6,s0,(0)0.5,(1)0.5,s0是过渡状态s3 s4 s5 s6组成一个不可约闭集,并且具有遍
13、历性。,34,由题意,此马尔可夫信源的状态必然会进入这个不可约闭集,所以我们计算信源熵时可以不考虑过渡状态及过渡过程。由,得稳态分布概率,35,当马尔可夫信源达到稳定后,符号0和符号1的概率分布:,信源达到稳定后,信源符号的概率分布与初始时刻的概率分布是不同的,所以,一般马尔可夫信源并非是平稳信源。但当时齐、遍历的马尔可夫信源达到稳定后,这时就可以看成一个平稳信源。:,36,习题,2-12-2,37,信源与信息熵,第二章,38,2.1 信源的描述和分类2.2 离散信源熵和互信息2.3 离散序列信源的熵2.4 连续信源的熵和互信2.5 冗余度,内容,39,离散信源,离散无记忆信源,离散有记忆信源
14、,发出单个符号的无记忆信源,发出符号序列的无记忆信源,发出符号序列的有记忆信源,发出符号序列的马尔可夫信源,信源的分类,离散信源指发出在时间和幅度上都是离散分布的离散消息的信源,如文字、数字、数据等符号都是离散消息。,40,信源的描述,一个离散信源发出的各个符号消息的集合为:,它们的概率分别为,p(xi):xi的先验概率,单符号离散信源的数学模型概率空间,41,so,s1,1/0.6,0/0.3,0/0.4,s2,1/0.2,0/0.8,1/0.7,符号状态,马氏链的基本概念,42,例2-2:有一个二元二阶马尔可夫信源,其信源符号集为0,1,已知符号条件概率:p(0|00)=1/2 p(1|0
15、0)=1/2 p(0|01)=1/3 p(1|01)=2/3 p(0|10)=1/4 p(1|10)=3/4 p(0|11)=1/5 p(1|11)=4/5求:信源全部状态及状态转移概率画出完整的二阶马尔可夫信源状态转移图。求平稳分布概率,43,00,01,11,10,状态转移概率矩阵,符号条件概率矩阵,(1)1/2,(1)3/4,(0)1/3,(0)1/4,(0)1/2,(0)1/5,(1)2/3,(1)4/5,s2,s1,s4,s3,稳态分布概率,稳态后的符号概率分布,45,2.2 离散信源熵和互信息,46,离散信源熵和互信息,问题:什么叫不确定度?什么叫自信息量?什么叫平均不确定度?什么
16、叫信源熵?什么叫平均自信息量?什么叫条件熵?什么叫联合熵?联合熵、条件熵和熵的关系是什么?,47,离散信源熵和互信息,问题:什么叫后验概率?什么叫互信息量?什么叫平均互信息量?什么叫疑义度?什么叫噪声熵(或散布度)?数据处理定理是如何描述的?熵的性质有哪些?,48,2.2.1 自信息量,设离散信源X,其概率空间为,如果知道事件xi已发生,则该事件所含有的信息量定义为:,49,自信息量,I(xi)含义:当事件xi发生以前,表示事件xi 发生的不确定性当事件xi发生以后,表示事件xi所含有的信息量自信息的单位的确定在信息论中常用的对数底是2,信息量的单位为比特(bit);若取自然对数,则信息量的单
17、位为奈特(nat);若以10为对数底,则信息量的单位为笛特(det)1 natlog2e l.433 bit,l detlog2103.322 bit,50,自信息量,不确定度定义:随机事件的不确定度在数量上等于它的自信息量。说明:两者的单位相同,但含义却不相同。具有某种概率分布的随机事件不管发生与否,都存在不确定度,不确定度表征了该事件的特性,而自信息量是在该事件发生后给予观察者的信息量。,51,自信息量,二进制码元0,1,当符号概率为p(0)=1/4,p(1)=3/4,则这两个符号的自信息量为:I(0)=log2(1/4)=log24=2bit I(1)=log2(3/4)=0.4151
18、bit,一个以等概率出现的二进制码元(0,1)所包含的自信息量为:I(0)=I(1)=log2(1/2)=log22=1 bit,一个m位的二进制数,有2m个等概率的可能组合 I=log2(1/2m)=m bit,52,自信息量,I(xi)的特性:I(xi)是非负值 当p(xi)=1时,I(xi)=0 当p(xi)=0时,I(xi)=I(xi)是先验概率p(xi)的单调递减函数,即 当p(x1)p(x2)时,I(x1)I(x2)两个独立事件的联合信息量等于它们分别的信息量之和。即统计独立信源的信息量等于它们分别的信息量之和。,53,自信息量,一个出现概率接近于1的随机事件,发生的可能性很大,所
19、以它包含的不确定度就很小;一个出现概率很小的随机事件,很难猜测在某个时刻它能否发生,所以它包含的不确定度就很大;若是确定性事件,出现概率为1,则它包含的不确定度为0。,54,自信息量,联合自信息量两个消息xi,yj同时出现的联合自信息量,注意:当xi,yj相互独立时,有p(xiyj)=p(xi)p(yj),那么就有 I(xiyj)=I(xi)+I(yj)。xiyj所包含的不确定度在数值上也等于它们的自信息量。,55,自信息量,条件自信息量在事件yj出现的条件下,随机事件xi发生的条件概率为p(xi|yj),则它的条件自信息量定义为条件概率对数的负值:,注意:在给定yj条件下,随机事件xi所包含
20、的不确定度在数值上与条件自信息量相同,但两者含义不同。,56,例 2-3 英文字母中“e”出现的概率为0.105,“c”出现的概率为0.023,“o”出现的概率为0.001。分别计算它们的自信息量。,解:“e”的自信息量 I(e)=log2 0.105=3.25 bit“c”的自信息量 I(c)=log2 0.023=5.44 bit“o”的自信息量 I(o)=log2 0.0019.97 bit,57,例一个布袋内放100个球,其中80个球是红色的,20个球是白色的,若随机摸取一个球,猜测其颜色,求平均摸取一次所能获得的自信息量。解:依据题意,这一随机事件的概率空间为,2.2.2 离散信源熵
21、,其中:x1表示摸出的球为红球事件,x2表示摸出的 球是白球事件.,58,如果摸出的是红球,则获得的信息量是 I(x1)=log2p(x1)=log20.8 bit如果摸出的是白球,则获得的信息量是 I(x2)=log2p(x2)=log20.2 bit如果每次摸出一个球后又放回袋中,再进行 下一次摸取。则如此摸取n次,红球出现的次数为np(x1)次,白球出现的次数为 np(x2)次。随机摸取n次后总共所获得的信息量为 np(x1)I(x1)+np(x2)I(x2),59,平均自信息量,平均随机摸取一次所获得的信息量为,H(X):平均信息量,称为信源X的熵。信源熵、香农熵,60,离散信源熵,离
22、散信源熵H(X)(平均不确定度/平均信息量/平均自信息量)定义信源的平均不确定度H(X)为信源中各个符号不确定度的数学期望,即:,单位为比特/符号或比特/符号序列,61,信源熵,信息熵:从平均意义上来表征信源的总体信息测度的一个量。自信息:指某一信源发出某一消息所含有的信息量。所发出的消息不同,它们所含有的信息量也就不同。自信息I(xi)是一个随机变量,不能用它来作为整个信源的信息测度。,62,信源熵,例如有两个信源,其概率空间分别为:,H(Y)H(X)信源Y比信源X的平均不确定性要大。,63,信源熵,信源熵具有以下三种物理含意:信息熵H(X)表示信源输出后,每个离散消息所提供的平均信息量。信
23、息熵H(X)表示信源输出前,信源的平均不确定性。信息熵H(X)反映了变量X的随机性,64,例:甲地天气预报,甲地提供的平均信息量大于乙地,乙地天气预报,求:两地天气预报各自提供的平均信息量,65,甲、乙地天气预报为两极端情况:,信源是一确定信源,所以不存在不确定性,信息熵等于零。,limlog=0,66,甲、乙地天气预报为两极端情况:,这种情况下,信源的不确定性最大,信息熵最大。甲地比乙地提供更多的信息量。因为甲地可能出现的消息数多于乙地可能出现的消息数。,67,例26电视屏上约有 500 600=3105个格点,按每点有 10个不同的灰度等级考虑,则共能组成 个不同的画面。按等概率 计算,平
24、均每个画面可提供的信息量为,3 105 3.32 比特/画面,68,有一篇千字文章,假定每字可从万字表中任选,则共有不同的千字文 N=100001000=104000 篇 仍按等概率1/100001000计算,平均每篇千字文可提供的信息量为 H(X)log2N 4 103 3.32 1.3 104 比特/千字文,比较:“一个电视画面”平均提供的信息量远远超过“一篇千字文”提供的信息量。,69,例27该信源X输出符号只有两个,设为0和1输出符号发生的概率分别为p和q,pq=l。即信源的概率空间为,则二元信源熵为 H(X)=plogpqlogq=plogp(1 p)log(1p)=H(p),70,
25、信源信息熵H(X)是概率p的函数,通常用H(p)表示p取值于0,1区间。H(p)函数曲线如图所示。,如果二元信源的输出符号是确定的,即p=1或q=1,则该信源不提供任何信息。当二元信源符号0和1以等概率发生时,信源熵达到极大值,等于1比特信息量。,71,几个概念,条件熵在给定yj条件下,xi的条件自信息量为I(xi|yj),X 集合的条件熵H(X|yj)为,在给定Y(即各个yj)条件下,X集合的条件熵H(X|Y),72,几个概念,条件熵是在联合符号集合(X,Y)上的条件自信息量的联合概率加权统计平均值。条件熵H(X|Y)表示已知Y后,X的不确定度。相应地,在给定X(即各个xi)条件下,Y集合的
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第12章 信源与信息熵 12 信源 信息
链接地址:https://www.desk33.com/p-680681.html