第2章信源及信源熵.ppt
《第2章信源及信源熵.ppt》由会员分享,可在线阅读,更多相关《第2章信源及信源熵.ppt(143页珍藏版)》请在课桌文档上搜索。
1、第二章 信源及信源熵,信源及信源熵,2.1 信源的数学模型和分类2.2 离散信源熵和互信息2.3 离散序列信源的熵2.4 冗余度2.5 连续信源和波形信源,2.1 信源的数学模型和分类,信息论对信源研究的内容:,信源的建模:用恰当的随机过程来描述信号关心角度:信号中携带的信息信源输出信号中携带信息的效率的计算熵率、冗余度信源输出信息的有效表示信源编码,信息论不研究信源的内部结构,不研究信源为什么产生和怎样产生各种不同的、可能的消息,而只研究信源的各种可能的输出,以及输出各种可能消息的不确定性。,信源特性与分类,信源的统计特性1)什么是信源?信源是信息的来源,是产生消息(符号)、消息序列(符号序
2、列)以及连续消息的来源。实际通信中常见的信源有:语音、文字、图像、数据。2)信源的主要特性信源的最基本的特性是具有统计不确定性,即信源发出的消息是不确定的、随机的,因此可以用随机变量、随机矢量或随机过程来描述信源输出的消息。一般使用一个样本空间及其概率测度概率空间(信源空间)来描述信源,此概率空间也称为信源的数学模型。,一、离散信源和连续信源,离散信源信源发出的消息在时间上和幅度上是离散分布的。信源是由有限或无限个取值离散的符号。例如:投硬币、书信文字、计算机的代码、电报符号、阿拉伯数字码等等。连续信源信源发出的消息在时间上和幅度上是连续分布的。信源符号集A的取值是连续的,或者取值为实数集(,
3、)。例如:语音信号、热噪声信号、图像等等。,二、离散信源的数学模型,(一)单消息(符号)信源信源可能输出的符号集的取值是有限的或可数的,而且每次只输出其中一个符号代表一个消息。它是最简单、最基本的信源,是组成实际信源的基本单元。,单符号离散信源的数学模型,我们可用一维离散型随机变量X来描述单符号离散信源输出的消息。这个随机变量X的样本空间就是符号集A=a1 a2 aN;而X的概率分布就是各消息出现的先验概率,信源的概率空间必定是一个完备集(即P1)。该信源的数学模型就是离散型的概率空间,我们可以用信源取值随机变量的范围X和对应概率分布P(x)共同组成的二元序对X,P(x)来表示。当信源给定,其
4、相应的概率空间就已给定;反之,如果概率空间给定,这就表示相应的信源已给定。所以,概率空间能表征这离散信源的统计特性,因此有时也把这个概率空间称为信源空间。,信源空间:显然有:,X,P(x),a1 a2 aN,P(a1)P(a2)P(aN),例:对于二进制数据、数字信源:X=0,1,若这两个符号是等概率出现的,则有:,X,P(x),a1=0 a2=1,P(a1)=0.5 P(a2)=0.5,(二)多符号离散信源是发出符号序列的信源信源每次发出一组含两个以上信源符号的符号序列代表一个消息。又叫作离散信源的N次扩展。信道的输入端与输出端对应,都是一个由同样个数的符号所组成的符号序列代表的消息。,平稳
5、信源,很多实际信源输出的消息往往是由一系列符号序列所组成的。可以把这种信源输出的消息看做时间上或空间上离散的一系列随机变量,即为随机矢量。这时,信源的输出可用N维随机矢量X=(X,XXN)来描述,其中N可为有限正整数或可数的无限值。这N维随机矢量X有时也称为随机序列。一般来说,信源输出的随机序列的统计特性比较复杂,分析起来也比较困难。为了便于分析,我们假设信源输出的是平稳的随机序列,也就是序列的统计性质与时间的推移无关。很多实际信源也满足这个假设。若在信源输出的随机序列X=(,)中,每个随机变量Xi(i=1,2,,N)都是取值离散的离散型随机变量,即每个随机变量Xi的可能取值是有限的或可数的;
6、而且随机矢量X的各维概率分布都与时间起点无关,也就是在任意两个不同时刻随机矢量X的各维概率分布都相同。这样的信源称为离散平稳信源。如中文自然语言文字,离散化平面灰度图像都是这种离散型平稳信源。,离散无记忆信源,在某些简单的离散平稳信源情况下,信源先后发出的一个个符号彼此是统计独立的。也就是说发出的信源发出的符号是相互独立的,发出符号序列中各个符号之间也是相互独立的。我们称由信源空间X,P(x)描述的信源X为离散无记忆信源。这类信源在不同时刻发出的符号之间是无依赖的,彼此统计独立的,各个符号的出现概率是其自身的先验概率。信源输出的随机矢量X=(XXX)中,各随机变量Xi(i=1,2,N)之间是无
7、依赖的、统计独立的,则N维随机矢量的联合概率分布满足:,离散无记忆信源X的N次扩展信源,我们把这信源X所输出的随机矢量X所描述的信源称为离散无记忆信源X的N次扩展信源。可见,N次扩展信源是由离散无记忆信源输出N长的随机序列构成的信源。离散无记忆信源的N次扩展信源的数学模型是X信源空间的N重空间。,有记忆信源,一般情况下,信源在不同时刻发出的符号之间是相互依赖的。也就是信源输出的平稳随机序列X中,各随机变量xi之间是有依赖的。例如,在汉字组成的中文序列中,只有根据中文的语法、习惯用语、修辞制约和表达实际意义的制约所构成的中文序列才是有意义的中文句子或文章。所以,在汉字序列中前后文字的出现是有依赖
8、的,不能认为是彼此不相关的。其他如英文,德文等自然语言都是如此。这种信源称为有记忆信源。我们需在N维随机矢量的联合概率分布中,引入条件概率分布来说明它们之间的关联。,马尔可夫信源,表述有记忆信源要比表述无记忆信源困难得多。实际上信源发出的符号往往只与前若干个符号的依赖关系强,而与更前面的符号依赖关系弱。为此,可以限制随机序列的记忆长度。当记忆长度为m+1时,称这种有记忆信源为m阶马尔可夫信源。也就是信源每次发出的符号只与前m个符号有关,与更前面的符号无关。,离散信源的分类:,分类依据:前后符号之间的关系,2.2 离散信源的信息熵,信源空间:,一、离散消息的自信息量,(一)自信息量/非平均自信息
9、量离散信源符号集合A中的某一个符号ai作为一条消息发出时对外提供的信息量:I,自信息量的单位单位之间的关系:1nit=1.443bit;1 hart=3.322bit。,【例2.1】设信源只有两个符号“0”和“1”,且它们以消息的形式向外发送时均以等概率出现,求它们各自的自信息量。,(二)不确定度d(ai)与自信息量I(ai)两者的联系数值上相等,单位也相等,但含义不同。两者的区别具有某种概率分布的随机事件,不管其发生与否,都存在不确定度,不确定度是任何随机事件本身所具有的属性。自信息量是用来消除不确定度的,消息只有被接收之后才有信息量,否则只有不确定度。,二、离散信息熵离散消息集合的平均不确
10、定度,(一)信息熵自信息量的数学期望值是信源的平均自信息量。(注:数学期望就是随机变量的统计平均值)信息熵H(X)=E I(X)=P(xi)I(xi)=P(xi)log P(xi)=P(xi)log 1/P(xi)单位为:比特/符号(单符号信源)、比特/符号序列(多符号信源)。,信源熵H(X)是从平均意义上来表征信源的总体特征,可以表示信源的平均不确定度。对于特定的信源(即概率空间给定),其信源熵是一个确定的数值,不同的信源因统计特性不同,其熵也不同。,例,通过例子了解信息熵的含义:一个布袋内放100个球,其中80个为红球,20个为白球,任摸取一个,猜测是什么颜色。如果摸出红球,那么这一事件的
11、自信息量为:I(x1)=log P(x1)=log 0.8 bit 如果摸出白球,那么这一事件的自信息量为:I(x2)=log P(x2)=log 0.2 bit,如果每次摸出一个球又放回去,再进行第二次摸取,那么如此摸取n次,红球出现的次数为nP(x1)次,白球出现的次数为nP(x2)次,则摸n次后总共提供的信息量为:nP(x1)I(x1)+nP(x2)I(x2)平均每摸取一次所获得的信息量为:H(X)=nP(x1)I(x1)+nP(x2)I(x2)n=P(x1)log P(x1)+P(x2)log P(x2)=P(xi)log P(xi),三种物理含义,信息熵具有三种物理含义:信源熵H(X
12、)表示信源输出前,信源的平均不确定度。信源熵H(X)表示信源输出后,平均每个消息或符号所能提供的信息量。信源熵H(X)可用来表示变量X的随机性。,注意:,在有噪声的情况下,信源熵并不等于平均获得的信息量;只有在无噪声的情况下,接收者才能正确无误地接收到信源发出的全部消息。信源熵是表征信源平均不确定度的,是信源的总体特性,是客观存在的,平均自信息量是消除信源不确定度时信宿所需的信息量,两者数值相同,单位相同,但含义不同。,例题1,设离散信源含有26个英文字母,且每个字母以等概率出现。求信源熵。,例题2,设信源X只有两个符号x1和x2,出现的概率分别为P(x1)=q,P(x2)=(1q),求信源熵
13、。,课本23页,【例2.1】检查8个串联灯泡中哪一只是坏灯泡第一次测量获得的信息量是:IP1(x)-IP2(x)第二次测量获得的信息量是:IP2(x)-IP3(x)第三次测量获得的信息量是:IP3(x)-0,课本29页(续例题2.1),【例2.3】进一步分析例题2.1,将8个灯泡构成一信源X,每个灯泡损坏的概率都相等,计算该信源的信息熵。,课本29页(续例题2.1),分析:此时H(X)正好表示在获知哪个灯泡已损坏的情况前,关于哪个灯泡已损坏的平均不确定性。只有获得3比特的信息量,才能完全消除平均不确定性,才能确定是哪个灯泡坏了。,分析,这种测量方法每次只能获得1比特的信息量,所以说至少要测量3
14、次才能完全消除不确定性,课本29页,【例2.4】设某甲地的天气预报为:晴(4/8)、阴(2/8)、大雨(1/8)和小雨(1/8)。又设某乙地的天气预报为晴(7/8)、小雨占(1/8)。试求两地天气预报各自提供的平均信息量。若甲地天气预报为两极端情况,一种是晴出现概率为1而其余为0。另一种是晴、阴、小雨和大雨出现的概率都相等,为1/4。试求这两种极端情况所提供的平均信息量。又试求乙地出现这两种极端情况所提供的平均信息量。,熵的性质,1、非负性2、对称性3、确定性4、可加性5、极值性6、H(X/Y)H(X);H(Y/X)H(Y)7、H(XY)H(X)+H(Y),续,1、非负性离散信源熵的值不会小于
15、0,即 H(X)0。只有当随机变量是一个确知量(P(xi)=1)时等号才成立。2、对称性当变量P的顺序任意互换后,H(X)的值不变,即H(P1,P2,P3.Pn)=H(P2,P3,P4.Pn,P1)该性质表明:信源熵只与随机变量的总体结构有关,即与信源的总体统计特性有关。如果两个信源的总体统计特性相同(含有的符号数和概率分布相同),那么两个信源就是相同的。,续,3、确定性只要信源符号集中有一个符号出现的概率为1,那么信源熵就等于零。H(1,0)=H(1,0,0)=H(1,0,0.0)=0确知事件,不存在不确定度,则H(X)=0 4、可加性两个统计独立的信源X和Y的联合信源的熵等于这两个信源的独
16、立熵之和。H(XY)=H(X)+H(Y)强可加性两个互相关联的信源X和Y的联合信源的熵等于信源X的熵加上X已知条件下信源Y的条件熵。H(XY)=H(X)+H(Y/X),续,5、极值性当且仅当离散信源的各个符号以等概率出现时,熵最大。H(X)H(1/m,1/m.1/m)=log m6、条件熵小于无条件熵H(X/Y)H(X);H(Y/X)H(Y)上式说明:条件熵不可能大于信源熵,因为信宿收到符号集Y后,对信源X的平均不确定度下降了,它所能提供的信息量也必然下降,只有当X与Y相互独立时(即Y没有提供有关X的任何信息),有 H(X/Y)H(X);H(Y/X)H(Y)7、联合熵与信源熵满足以下不等式H(
17、XY)H(X)+H(Y);仅当X与Y相互独立时等号成立。,离散序列信源的熵,2.5离散无记忆的扩展信源2.6离散平稳信源2.7马尔可夫信源,2.5离散无记忆的扩展信源,实际情况,最简单的离散信源每次输出的只是单个符号的消息。很多实际信源输出的消息是时间或空间上的一系列符号。例如电报系统,发出的是一串有、无脉冲的信号(有脉冲用“1”表示,无脉冲用“0”表示),这个电报系统就是二元信源。输出的消息是一串“0”或“1”的序列。,研究,101001110001100000101000000 将信源输出的序列看成是一组一组发出的二元无记忆信源的N次扩展信源(每N个二元数字一组),推广,离散无记忆信源的数
18、学模型与最简单的离散信源的数学模型基本相同,可用【X.P(X)】概率空间描述。但是离散无记忆信源输出的消息是一串符号序列(用随机矢量描述)。,离散无记忆信源X的信源空间,描述,该信源输出的消息是一组长度为N的符号序列,可用N维随机矢量来描述,写成:X=(X1 X2 X3 XN)。其中序列中每个分量Xi(i=1,2,N)都是随机变量,且各个分量之间统计独立(即无记忆、相互独立),取于同一信源。随机矢量的联合概率分布等于随机矢量中各个随机变量的概率乘积。,离散无记忆信源X的N次扩展信源,由上述随机矢量X所组成的新信源称为“离散无记忆信源X的N次扩展信源”,或者“N重符号序列离散无记忆信源”。我们用
19、N重概率空间来描述离散无记忆信源X的N次扩展信源,一般记为XN信源X的N次扩展信源XN是具有qN个符号序列的离散信源,其N重概率空间为:,新信源(扩展信源),其中每个i对应于一个由N个ai组成的序列。根据该信源的无记忆性(彼此统计独立)若i=(ai1,ai2,ai3 aiN)则 P(i)=P(ai1 ai2 ai3 aiN)=P(ai1)P(ai2)P(aiN)=Pi1 Pi2 PiN其中i1,i2 iN=1,2 q,扩展信源的信息熵,根据信息熵的定义,N次扩展信源的熵:H(X)=H(XN)=P(X)logP(X),P(X)logP(X),例题,【例2.6】有一离散无记忆信源:求这个离散无记忆
20、信源的二次扩展信源的序列熵(N=2)。,分析,扩展信源的每个符号是信源 的输出长度为2的符号序列二次扩展信源共有9个不同的符号(信源有3个不同的符号,所以信源中每两个符号组成的不同排列共有32=9种)无记忆信源满足,离散无记忆信源二次扩展的信源概率空间,解答,H(X)=,代入可得:,发现,H(X)=,H(X)=2,=1.5,结论,可以证明:离散无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍,(见书P42页)因此,信源的序列熵可表示为:H(X)=H(XN)=N H(X),说明,已知每个信源符号ai含有的平均自信息量为 H(X),N个ai组成的平稳无记忆序列平均含有的自信息量就为NH(X)
21、。(根据熵的可加性)因此信源XN每个输出符号 含有的平均自信息量为NH(X)。,信源的序列熵可表示为:H(X)=H(XN)=N H(X)平均每个符号的熵(平均符号熵)HN(X)=H(X)/N=N H(X)/N=H(X),当前后符号无依赖关系(无记忆)时,有以下推论:H(X1X2)=H(X1)+H(X2);H(X1/X2)=H(X1);H(X2/X1)=H(X2)。如果X1和X2都取自统一概率空间X,且是平稳的,则有:H(X1X2)2H(X)仅当X1X2统计独立时,有H(X1X2)=2H(X),离散有记忆信源的序列熵,一般情况下,离散信源的输出是空间或时间的离散符号序列,而且在序列中符号之间是有
22、依赖关系的,信源在t=i时刻将要发出什么样的符号取决于两个方面:与信源在 t=i 时随机变量xi的取值的概率分布P(xi)有关。一般若 t 不同则概率分布也不同,即P(xi)P(xj)与 t=i 时刻以前信源发出的符号有关,即与条件概率P(xi/xi-1 xi-2)有关。一般若 t 不同则概率分布也不同,即P(xi/xi-1 xi-2)P(xj/xj-1 xj-2)以上所述的是一般随机序列的情况,而它比较复杂,所以我们只讨论平稳随机序列。,2.6离散平稳信源,平稳随机序列就是序列的统计特性与时间无关,即信源所发出符号序列的概率分布与时间起点无关。如果各维联合分布均与时间起点无关,即当t=i,t
23、=j,其中i、j为任意整数,且ij时有:(1)P(Xi)=P(Xj)(2)P(Xi Xi+1)=P(Xj Xj+1)(3)P(Xi Xi+1 Xi+2)=P(Xj Xj+1 Xj+2)(N)P(Xi Xi+1 Xi+N1)=P(Xj Xj+1 Xj+N1)(N+1)P(Xi Xi+1 Xi+N)=P(Xj Xj+1 Xi+N),续,如果上述等式均成立,那么我们说信源是完全平稳的,信源发出的序列也是完全平稳的,这种各维联合分布均与时间起点无关的完全平稳信源称为“离散平稳信源”。如果仅满足(1),则该信源称为“一维平稳信源”,表示无论在什么时刻信源均按P(X)的概率分布发出符号Xi。如果满足(1)
24、、(2),则该信源称为“二维平稳信源”,表示任何时刻信源发出的两个符号的联合概率分布完全相同。如果满足(1)、(2)(N),则该信源称为“N维离散平稳有记忆信源”。所以,N维离散平稳有记忆信源X=X1X2XN的各维联合概率都是平稳的。,续,对于N维离散平稳有记忆信源,我们还得到:P(Xi)=P(Xj)P(Xi+1/Xi)=P(Xj+1/Xj)P(Xi+2/Xi Xi+1)=P(Xj+2/Xj Xj+1)P(Xi+N/Xi Xi+1 Xi+N-1)=P(Xj+N/Xj Xj+1.Xj+N-1)上面一系列等式表明:N维离散平稳有记忆信源X=X1X2XN的各维条件概率也是平稳的。,二维离散平稳信源及
25、其信息熵,二维离散平稳有记忆信源二维离散平稳有记忆信源X=X1X2的信息熵(此处也叫序列熵、联合熵):H(X)=H(X1X2)有以下结论:H(X1X2)=H(X1)+H(X2/X1)=H(X2)+H(X1/X2)信源的序列熵等于信源发出前一符号X1的信息熵加上前一符号X1已知时信源发出下一个符号X2的条件熵。H(X1)H(X1/X2);H(X2)H(X2/X1)条件熵小于无条件熵,离散二维平稳信源,近似等效为新的离散无记忆信源X1X2根据定义可以求出信息熵,联合熵,表示原来信源X输出任意一对可能的消息的共熵,可用1/2H(X1X2)作为二维离散平稳信源X的信息熵的近似值,条件熵,符号之间有依赖
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 信源
链接地址:https://www.desk33.com/p-734887.html