当前位置:文档之家› 数字图像处理_胡学龙等_第05章 图像编码与压缩0607

数字图像处理_胡学龙等_第05章 图像编码与压缩0607


下 一页
home
上 一页
设计最佳预测的系数ai,采用MMSE
最小均方误差准则。可以令 定义xi和xj的自相关函数
2 E{en } =0 ai
R(i,j)= E{xi,xj} 写成矩阵形式为Yule-Walker方程组
R (1) R (0) R (1) R (0) M M R ( N 2) R ( N 3)
图像类型 压缩后图像 客观评价SNR 客观评价 ≧48dB ≧43dB ≧36dB 36 ≧30dB 主观评价 ≧4.5分 分 ≧4.0分 分 ≧3.0分 分 ≧2.5分 分
传输数码率 74Mb/s 高分辨率广播电视 74 普通数字广播电视 数据库图像 会议电视 34Mb/s 识别图像 64kb/s 64
R (i ) =
∑a
k =1
N 1
k R (k
i)
L R ( N 2) a1 R (1) L R ( N 3) a 2 R (2) = M L M M L R (0) a n 1 R ( N 1)
若R(i)已知,该方程组可以用递推算法来求解ai。
下 一页
home
上 一页
Huffman编码示意图
左图所示为建立码的过程 右图所示为从根开始,经各中间节点到叶节点的路径采用 二进制编码的情况
下 一页
home
上 一页
编码过程举例
第1行和第2行列举了一个信源的统计特性 结果如第三行所示 符号集{xi} 概率分布{pi} Huffman编码 x1 0.40 1 x2 0.20 010 x3 0.12 000 x4 0.11 001 x5 0.09 0110 x6 0.08 0111
下 一页
home
上 一页
【例5.3】图5.6以表5.3的信源为例说明Fano编码。
下 一页
home
上 一页
5.2.3 算术编码
在信源各符号概率接近的条件下,算术编码是一种优于 Huffman编码的方法。 【例6-1】根据信源的概率分布进行算术编码。已知信源 的概率分布为
0 1 X = 2 3 5 5
下 一页
home
上 一页
通过分析可以得出以下结论:
图像的相关性越强,压缩效果越好。 当某个阶数已使E{eN, eN 1} = 0时,即使再增加预 测点数,压缩效果也不可能继续提高。 若{xi}是平稳m阶Markov过程序列,则m阶线性预 测器就是在MMSE意义下的最佳预测器。
下 一页
home
数据压缩系统组成图
下 一页
home
上 一页
熵(Entropy)
代表信源所含的平均信息量 若信源编码的熵大于信源的实际熵,则信源中的数据一定 存在冗余度 冗余数据的去除不会减少信息量。 信息量与数据量的关系可由下式表示 I = D du
(5.1)
下 一页
home
上 一页
5.1.2 图像编码压缩的必要性
下 一页
home
上 一页
3.Huffman编码的性能
优点:
– 实现Huffman编码的基础是统计源数据集中各信号的概率分布。 – Huffman编码在无失真的编码方法中效率优于其他编码方法, 是一种最佳变长码,其平均码长接近于熵值。
缺点:
– 当信源数据成分复杂时,庞大的信源集致使Huffman码表较大, 码表生成的计算量增加,编译码速度相应变慢 – 不等长编码致使硬件译码电路实现困难。上述原因致使 Huffman编码的实际应用受到限制。
求二进制序列01011的编码。
下 一页
home
上 一页
举例
解:步骤如下: (1)二进制信源只有x1 = 0和x2 = 1两种符号,相 应的概率为pc = 2/5, pe = 1- pc =3/5 (2)设s为区域左端起始位置,e为区域右端终止 位置,l为子区的长度,则
– 符号“0”的子区为[0,2/5),子区长度为2/5 ; – 符号“1”的子区为[2/5 ,1],子区长度为3/5 。
下 一页
home
上 一页
5.1.5 数据压缩方法的分类
1 .无损压缩(Lossless Compression):
Huffman编码 Shannon编码 游程编码 算术编码 轮廓编码
下 一页
home
上 一页
有损压缩(Lossy Compression)
预测编码 变换编码 混合编码 现代压缩编码方法: 分形编码 模型基(Model-based)编码
编码结果为子区起始位置与终止位置之中点
0.001110 + 0.01000 2
= 0.0011。
所以,二进序列的算术编码为0011。
下 一页
home
上 一页
算术编码算法的计算步骤实例
step 1 2 3 4 5
x
0 1 0 1 1
s
0 0 +(2/5)×(2/5)= 4/25 2/5 + 0 × 6/25 = 4/25 4/25 +(2/5)×(12/125)= 124/625 124/625 +(2/5)×(36/625)= 692/3125
下 一页
home
上 一页
4.图像的Huffman编译码系统
下 一页
home
上 一页
5.2.2 Shannon编码与Pano编码
1. Shannon提出了将信源符号依其概率降序排列,用符号 序列累积概率的二进制表示作为对信源的唯一可译编码。 其应用于图像编码的步骤如下: (1)将N个灰度级xi按其概率递减进行排列。 (2)求概率分布pi的第i个灰度级的二进制位数ni。
HDTV亮度信号
52.7MB
下 一页
home
上 一页
5.1.3 图像编码压缩的可能性
一般图像中存在着以下数据冗余因素: 编码冗余 像素间的相关性形成的冗余 视觉特性和显示设备引起的冗余
下 一页
home
上 一页
5.1.4 图像编码压缩的技术指标
常用的图像压缩技术指标:
图像熵与平均码长 图像冗余度与编码效率 压缩比 客观评价SNR 主观评价
数码相机图像编码与压缩技术成功的范例。 本章主要介绍静态图像压缩编码的原理、应 用及有关的国际标准。
下 一页
home
上 一页
5.1.1 数据压缩的基本概念
数据压缩
– 以较少的数据量表示信源以原始形式所代表的 信息 – 目的在于节省存储空间、传输时间、信号频带 或发送能量等。
下 一页
home
上 一页
第5章 图像编码与压缩 章
知识要点
●信息论中的有关概念:信息,信息量, 信息熵,冗余度 ●统计编码 ●预测编码 ●变换编码 ●混合编码 ●静态图像压缩标准:
– JPEG、JBIG、JPEG2000等
下 一页
home
上 一页
5.1 概述
数据编码的目的各异
– 信息保密 – 信息的压缩存储与传输等
图像信号的数据量可表示为 V = w h d/8 (5.2)
– V、w、h、d分别表示图像数据量(字节,byte, B) 、图像宽度(像素数,pel)、图像高度 (像素数,pel) 、图像深度(位,bit)。
图像的尺寸为wh。
下 一页
home
上 一页
典型图像的数据量
图像种类 二值传真图像 灰度图像 VGA图像 CIF视频图像 图像参数 A4(210 × 297 mm)大小、1728 × 2376 × 2色分辨 率 512×512,8 bit灰度等级 640 × 480 × 256色 352 × 288 × 256色,亮度取样率为3 MHz,亮度和两 色差按4∶1∶1取样,亮色量化位数共12 bit,帧频 29.97,按1 s计算 1280 × 720,量化位数为8 bit,帧频30 Hz,按1 s计 算 数据量 501 KB 256 KB 300 KB 4.3 MB
下 一页
home
上 一页
(3)随着序列符号的出现,子区按下列公式减少长度: 新子区左端 = 前子区左端 + 当前子区左端×前子区长度 新子区长度 = 前子区长度×当前子区长度 设初始子区为[0,1],步序为step,则编码过程参见实例。 可见,最后子区左端起始位置
692 ) = 0.001110) 二进 十进 ( 3125
自适应预测
– 预测参数根据信号的统计特性来确定,以达到最佳预 测
home
上 一页
5.2.1 Huffman编码
1.前缀码(Prefix Code)
4层树形结构的编码情况
下 一页
home
上 一页
2.Huffman编码
算法:
① 将图像的灰度等级按概率大小进行升序排序。 ② 在灰度级集合中取两个最小概率相加,合成一个概率。 ③ 新合成的概率与其他的概率成员组成新的概率集合。 ④ 在新的概率集合中,仍然按照步骤②~③的规则,直至 新的概率集合中只有一个概率为1的成员。这样的归并过程 可以用二叉树描述。 ⑤ 从根节点按前缀码的编码规则进行二进制编码。
log 2 pi ≤ ni < log 2 pi + 1
(5.10)
(3)计算与pi相对应的累积概率Pi, 把与Pi相对应的二进 码和接下去与pk(k>i)相应的码相比较,前面的ni位至少 有一位以上的数字是不同的。
下 一页
home
上 一页
【例5.2】由表5.3计算该信源的Shannon编码
下 一页
home
s= (
上 一页
最后子区长度
( e=
692 108 32 ) = ( ) = 0.01000) 二进 + 十进 十进 ( 3125 625 125
e= ( 692 108 32 + ) = ) = 0.01000) 二进 十进 ( 十进 ( 3125 625 125
相关主题