文档介绍:周三例会报告 26/11 /2014
上海大学
数字图像处理—图像压缩
OUTLINE:
图像压缩
3
图像压缩_香农信息论
1、香农信息论
说明:一个消息若能传达给我们许多原来未知的内容,我们就认为这个信息很有意义,信息量大;反之,一个消息传达给我们的是已知确定的东西,则这个传达就失去了意义。
生活实例
第一句话:我有一个师兄叫“**”。
第二句话:我有一个舍友叫“**”。
直观的感受一下这两句话所携带的未知信息量。
例
信息量
在信息论中:信息使用不确定的度量来确定的,一个消息的可能性越小,其信息含量越大;消息的可能性越大,其信息含量越小。设某消息发生的概率为,则该消息携载的信息量为:
1)当时,则单位为比特(bit);
2)当时,则单位为奈特(nat);
3)当时,则单位为哈特(hat)。
一般以2为底取对数,由此定义的信息量等于描述该信息所用的最少比特数。
信息熵
若信源有个字符,对应字符的概率为,则该信源的平均信息量就称为信息熵,既:
具体到数字图像中,称为图像信息熵。它给出了描述一幅图像携载信息量的最少比特数。
图像压缩_香农信息论
Shannon无失真编码定理
基于图像信息熵,存在一种无失真的编码方法,使编码的平均码长与信息熵无限的接近。既:
但以为下限,既。这就是Shannon的无失真编码定理。
无失真编码性能的几个指标:
1)编码效率
2)冗余度或
3)压缩比或
5
图像压缩_图像压缩原理
2、图像压缩原理
1)数据压缩的对象是数据,大的数据量并不代表含有大的信息量。
2)图像压缩就是除去图像中多余的数据而对信息没有本质的影响。
3)图像压缩是以图像编码的形式实现的,用较少的比特数表示出现概率较大的灰度级,用较多的比特数表示出现概率较小的灰度级,从而使平均码长更接近于信息熵。
图像编码
码本:编码所用符号的集合称为码本。如
码字:对每个码本的每个符号所赋的符号序列称为码字。如
码字长度:每个码字里的符号个数称为码字长度。数字图像:码长= 二进制数长度。
6
图像压缩_数据冗余
3、数据冗余
1)信息熵冗余:也称编码冗余,如果图像中平均比特数大于该图像的信息熵,则图像中存在冗余,这种冗余称为信息熵冗余。
2)空间冗余:也称为像素间冗余或几何冗余,是图像内部相邻像素之间存在较强的相关性所造成的冗余。
3)时间冗余:视频图像序列中的不同帧之间的相关性所造成的冗余。
4)视觉冗余:是指人眼不能感知或不敏感的那部分图像信息。
5)结构冗余:是指图像中存在很强的纹理结构或自相似性。
6)知识冗余:是指有些图像还包含与某些先验知识有关的信息。
图像压缩_无损压缩
4、无损编码
常用的无损编码方法有霍夫曼编码、香农—费诺编码、算术编码、游程编码和无损预测编码等。
1)Huffman编码
霍夫曼编码法是消除编码冗余最常用的方法。
假设有一个信源为,其概率分布为:
符号
概率
图像压缩_无损压缩
霍弗曼编码示意图
9
图像压缩_无损压缩
符号
概率
霍弗曼编码
(码字)
001
1
010
01110
01111
000
0110
二进制编码(码字)
000
001
010
011
100
101
110
二进制编码效率为:
Huffman编码效率
信源信息熵为:
霍弗曼编码平均码长为:
霍夫曼编码效率为:
压缩比:
图像压缩_无损压缩
2)香农-费诺编码
由于霍夫曼编码法中的信源缩减过程复杂,当信源符号个数较多时十分不便。为此Shannon和Fano提出了一种类似的变长编码方法,相对于霍夫曼编码法更方便、快捷。
假设有一个信源为,其概率分布为:
符号
概率
具体步骤如下:
a)将信源符号按出现的概率由大到小排列;
b)将信源A分成两个子集
并且保证成立或差不多成立;
c)给两个子集赋不同的码元值;
d)重复(2)、(3),既对每个子集再一分为二,并赋予不同的码元值,直到每个子集仅含一个符号为止。