文档介绍:§ 信息的度量与应用
怎么度量信息
首先分析一下问题的认识过程
,对它的认识是不确定的
2. 通过各种途径获得信息,逐渐消除不确定性
3. 对这一问题非常的了解,不确定性很小
黑箱
不确定度A
灰箱
不确定度B
白箱
不确定度C
信息I
信息II
对于系统,可以利用守恒关系有 A+I=B,得I=B-A。
可否用消除不确定性的多少来度量信息!
几个例子:
例12 当你要到大会堂去找某一个人时,甲告诉你两条消息:(1)此人不坐在前十排,(2)他也不坐在后十排;乙只告诉你一条消息:此人坐在第十五排。问谁提供的信息量大?
乙虽然只提供了一条消息,但这一条消息对此人在什么位置上这一不确定性消除得更多,所以后者包含的信息量应比前者提供的两条消息所包含的总信息量更大
例13 假如在盛夏季节气象台突然预报“明天无雪”的消息。在明天是否下雪的问题上,根本不存在不确定性,所以这条消息包含的信息量为零。
是否存在信息量的度量公式
基于前面的观点,美国贝尔实验室的学者香农(Shannon)应用概率论知识和逻辑方法推导出了信息量的计算公式
In his words
"I just wondered how things were put together."
Claude Elwood Shannon (April 30, 1916 - February 24, 2001) has been called "the father of information theory".
Shannon提出的四条基本性质(不妨称它们为公理)
公理1
信息量是该事件发生概率的连续函数
公理2
如果事件A发生必有事件B发生,则得知事件A发生的信息量大于或等于得知事件B发生的信息量。
公理3
如果事件A和事件B的发生是相互独立的,则获知
A、B事件将同时发生的信息量应为单独获知两事件发生的信息量之和。
公理4
任何信息的信息量均是有限的。
将某事件发生的信息记为M,该事件发生的概率记为p,记M的信息量为I(M)。
上述公理怎样推出信息量的计算公式呢
满足公理1—公理4的信息量计算公式为I(M)=-Clogap,其中C是任意正常数,对数之底a可取任意为不为1的正实数。
证明:
由公理1 I(M)=f(p),函数f连续。
由公理2 若A发生必有B发生,则pA≤pB,
有f(pA)≥f(PB) ,故函数f是单调不增的。
由公理3 若A、B是两个独立事件,则A、B同时发生
的概率为pApB,有f(PAPB)=f(pA)+f(pB)。
先作变量替换令p=a-q,即q=-logaP 记
,又有:
,g亦为连续函数。
g(x+y)=g(x)+g(y)的连续函数有怎样的性质
首先,由g(0)=g(0+0)=2g(0)得出g(0)=0或g(0)=∞。
但由公理4,后式不能成立,故必有g(0)=0。
记g(1)=C,容易求得g(2)=2C,g(3)=3C,…,一般地,
有g(n)=nC。进而
,可得。
于是对一切正有理数 m/n,g(m/n) =(m/n)C。
由连续性可知:对一切非负实数x,有g(x)=Cx
当x取负实数时,由g(x)+g(-x)=g(0)=0,可得
出g(x)=―g(―x)=cx也成立,从而对一切实数x,g(x)=Cx,
故g(q)=Cq。
现作逆变换q=-logap,
得I(M)=f(P)=-ClogaP ()
证毕。
各种信息量单位
若取a=2,C=1,此时信息量单位称为比特
若取a=10,C=1,此时信息量单位称为迪吉特
若取a=e,C=1,此时信息量单位称为奈特
例14 设剧院有1280个座位,分为32排,每排40座。现欲从中找出某人,求以下信息的信息量。(i)某人在第十排;(ii)某人在第15座;(iii)某人在第十排第15座。
解: 在未知任何信息的情况下, 此人在各排的概率可以认为是相等的,他坐在各座号上的概率也可以认为是相等的,故
(i)“某人在第十排”包含的信息量为
(比特)
(ii)“某人在第15座”包含的信息量为
(比特)
(iii)“某人在第十排第15座”包含的信息量为
(比特)
5bit+=
这一例子反映了对完全独立的几条信息,其总信息量等于各条信息的信息量之和。
对于相应不独立的信息,要计算在已获得某信息后其余信息的信息量时,需要用到条件概率公式,可以参阅信息论书籍。
至此,我们已经引入了信息度量的定量公式。如前所述,它是信息对消除问题的不确定性的度量。这种讲法似乎有点难以为人们所接受,其实,这只是人们