文档库

最新最全的文档下载
当前位置:文档库 > 多媒体数据压缩

多媒体数据压缩

多媒体数据压缩

进入信息时代,人们越来越依靠计算机来获取和利用信息,而数字化后的视频和音频等媒体信息具有海量性,与当前计算机所提供的存储资源和网络带宽之间有很大差距,这给存储多媒体信息带来很大困难,成为阻碍人们获取有效信息的瓶颈。因此,有必要以压缩的形式存储和传播多媒体信息,同时因为多媒体数据之间存在大量冗余现象,如空间冗余、时间冗余、结构冗余、知识冗余、视觉冗余、图像区域的相同性冗余和纹理统计冗余,使多媒体数据压缩成为可能。

针对多媒体数据冗余类型的不同,相应地有不同的压缩方法。根据解码后数据与原始数据是否完全一致进行分类,压缩方法可被分为有失真编码和无失真编码两大类,其中有失真编码也称有损压缩(Loss Compression ),无失真编码也称为无损压缩(Lossless Compression )。

5.1 无损压缩算法

无损压缩指数据经过压缩后,信息不受损失,还能完全恢复到压缩前的原样而不引起任何失真。它和有损压缩相对,这种压缩通常压缩比小于有损压缩的压缩比。由于压缩率是受到数据统计冗余度的理论限制,所以一般为2:1到5:1。这类方法广泛用于文本数据,程序和特殊应用场合的图像数据(如指纹图像,医学图像等)的压缩。由于压缩比的限制,仅使用无损压缩方法是不可能解决图像和声音的存储和传输的所有问题。经常使用的无损压缩方法有熵编码、游长编码、香农-凡诺编码、霍夫曼编码,词典编码和算术编码等。

5.1.1 信息熵编码

数据压缩技术的理论基础就是信息论。根据信息论的原理,可以找到最佳数据压缩编码的方法,数据压缩的理论极限是信息熵。如果要求编码过程中不丢失信息量,即要求保存信息熵,这种信息保持编码叫熵编码,是根据消息出现概率的分布特性而进行的,是无损压缩编码。信息量的大小和消息有一定的关系。在数学上,消息是其出现概率的单调下降函数。信息量越大,消息的可能性越少,反之亦然。信息量是指:为了从N 个相等的可能事件中挑选出一个事件所需要的信息度量和含量,所提问“是或否”的次数。也就是说,在N 个事件中辨识特定的一个事件要询问“是与否”次数。

例如:要从256个数中选定某一个数,可以先提问“是否大于128?”,不论回答是与否,则半数的可能事件被取消。如果继续询问下去,每次询问将对应一个1bit 的信息量。随着每次询问,都将有半数的可能事件被取消,这个过程由以下公式表示:log 2256 = 8bit 。由上可知,对于256个数的询问只要进行8次,即可确定一个具体的数。

如果将信息源所有可能事件的信息量进行平均,即可得到信息的“熵”(entropy )。一个具有符号集S={s 1,s 2,…,s n }的信息源的熵η定义为公式:η=∑=-n i i i

p p 12log ,其中

p i 是S 中符号S i 出现的概率。

例如:有一幅40个像素组成的灰度图像,灰度共有5级,分别用符号A ,B ,C ,D 和E 表示,40个像素中出现灰度A 的像素数有15个,出现灰度B 的像素有7个,出现灰度C 的像素数有7个,出现灰度D 的像素数有6个,出现灰度E 的像素数有5个。如果用3个位表示5个等级的灰度值,也就是每个像素用3位表示,编码这幅图像总共需要120位。

多媒体数据压缩

(共41页)