文档介绍:郑州轻工业学院本科生实验报告
实验名称
绘制信源熵函数曲线
课程名称
信息论与编码
姓名
**
指导教师
***
专业、班级
***
学号
5*********
实验时间
******
实验地点
121
实
验
目
的
掌握离散信源熵的原理和计算方法。
熟悉matlab软件的基本操作,练习应用matlab软件进行信源熵函数曲线的绘制。
理解信源熵的物理意义,并能从信源熵函数曲线图上进行解释其物理意义。
实
验
条
件
离散信源相关的基本概念、原理和计算公式
产生离散信息的信源称为离散信源。离散信源只能产生有限种符号。
假定X是一个离散随机变量,即它的取值范围R={x1,x2,x3,…}是有限或可数的。设第i个变量xi发生的概率为pi=P{X=xi}。则:
定义一个随机事件的自信息量I(xi)为其对应的随机变量xi出现概率对数的负值。即:
I(xi)= -log2p(xi)
定义随机事件X的平均不确定度H(X)为离散随机变量xi出现概率的数学期望,即:
单位为 比特/符号 或 比特/符号序列。
平均不确定度H(X)的定义公式与热力学中熵的表示形式相同,所以又把平均不确定度H(X)称为信源X的信源熵。
必须注意一下几点:
某一信源,不管它是否输出符号,只有这些符号具有某些概率特性,必有信源的熵值;这熵值是在总体平均上才有意义,因而是个确定值,一般写成H(X),X是指随机变量的整体(包括概率分布)。
信息量则只有当信源输出符号而被接收者收到后,才有意义,这就是给与信息者的信息度量,这值本身也可以是随机量,也可以与接收者的情况有关。
熵是在平均意义上来表征信源的总体特征的,信源熵是表征信源的平均不确定度,平均自信息量是消除信源不确定度时所需要的信息的量度,即收到一个信源符号,全部解除了这个符号的不确定度。或者说获得这么大的信息量后,信源不确定度就被消除了。信源熵和平均自信息量两者在数值上相等,但含义不同。
当某一符号xi的概率p(xi)为零时,p(xi)log p(xi) 在熵公式中无意义,为此规定这时的 p(xi)log p(xi) 也为零。当信源X中只含有一个符号x时,必有p(x)=1,此时信源熵H(X)为零。
例1-1,设信源符号集X={0,1},每个符号发生的概率分别为p(0)=p,p(1)=q,p+ q=1,即信源的概率空间为
则该二元信源的信源熵为:
H(X) = - p log p –q log q = - p log p – (1-p)log (1- p)
即:H (p) = - p log p – (1-p)log (1- p)
其中0 ≤p ≤1
P=0时,H(0) = 0
P=1时,H(1) = 0
MATLAB二维绘图
例对函数y= f(x)进行绘图,则用matlab中的命令plot(x, y)