文档库 最新最全的文档下载
当前位置:文档库 › 信息论与编码复习整理1

信息论与编码复习整理1

信息论与编码复习整理1
信息论与编码复习整理1

信息论与编码

1.根据信息论的各种编码定理和通信系统指标,编码问题可分解为几类,分别是什么?

答:3类,分别是:信源编码,信道编码,和加密编码。

2.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。

答:通信系统模型如下:

数据处理定理为:串联信道的输入输出X 、Y 、Z 组成一个马尔可夫链,且有

。说明经数据处理后,一般只会增加信息的损失。

3.什么是平均自信息量与平均互信息,比较一下这两个概念的异同?

答:平均自信息为:

表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息:

表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。

4.简述最大离散熵定理。对于一个有m 个符号的离散信源,其最大熵是多少?

答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为

5.熵的性质什么?

答:非负性,对称性,确定性,香农辅助定理,最大熵定理。

6.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?

答:信息传输率R 指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。

平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U 型凸函数。

7.信道疑义度的概念和物理含义?

答:概念:)|(log )()|(j i j i j

i

b a p b a p Y X

H ∑

-=

物理含义:输出端收到全部输出符号Y 以后,对输入X 尚存在的平均不确定程度。

8.写出香农公式,并说明其物理意义。当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。

答:香农公式为 ,它是高斯加性白噪声信道在单位时 间内的信道容量,其值取决于信噪比和带宽。

由得,则

9.解释无失真变长信源编码定理?

答:只要,当N 足够长时,一定存在一种无失真编码。

10.解释有噪信道编码定理?

答:当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。

11.最佳变长编码有哪些?

答:香农编码方法,费诺编码方法和哈夫曼编码方法。

12.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少?

答:等长信源编码定理:对于任意,只要,则当L 足够

长时必可使译码差错

变长信源编码定理:只要

,一定存在一种无失真编码。

等长码和变长码的最小平均码长均为

,编码效率最高可达100%。

13.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。

答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。 最大似然译码准则下,将接收序列译为信道传递概率最大时所对应的码字。 最小距离译码准则下,将接收序列译为与其距离最小的码字。

三者关系为:输入为等概率分布时,最大似然译码准则等效于最小错误概率译码准则。在二

元对称无记忆信道中,最小距离译码准则等效于最大似然译码准则。

14.

什么是保真度准则?对二元信源,其失真矩阵,

求a>0

时率失真函数的

答:1)保真度准则为:平均失真度不大于允许的失真度。

2)因为失真矩阵中每行都有一个0,所以有,而。

15.差错控制系统分类有哪些?

答:前向纠错,反馈重发,混合纠错。

16.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互

信息与信道容量的关系。

答:平均互信息相对于信源概率分布为上凸函数,相对于信道传递概率分布为下凹函数。平均互信息的最大值为信道容量。

17.香农第二定理的内容和含义?

答:内容:设有一离散无记忆平稳信道,其信道容量为C ,只要待传送的信息传输率 R <C ,则存在一种编码,当输入序列长度n 足够大,使译码错误概率任意小.

含义:只要R <C ,就可以在有噪信道中以任意小的错误概率(E p <ε)传输信息. 当输入序列长度n 足够大时,可以以任意接近信道容量C 的信息传输率传递信息。 2.1 试问四进制、八进制脉冲所含信息量是二进制脉冲的多少倍?

解:四进制脉冲可以表示4 个不同的消息,例如:{0, 1, 2, 3} 八进制脉冲可以表示8 个不同的消息,例如:{0, 1, 2, 3, 4, 5, 6, 7} 二进制脉冲可以表示2 个不同的消息,例如:{0, 1} 假设每个消息的发出都是等概率的,则:

四进制脉冲的平均信息量H (X ) log n log4 2 bit / symbol 1 = = = 八进制脉冲的平均信息量H (X ) log n log8 3 bit / symbol 2 = = = 二进制脉冲的平均信息量H (X ) log n log2 1 bit / symbol 0 = = = 所以:

四进制、八进制脉冲所含信息量分别是二进制脉冲信息量的2 倍和3 倍

2.4 设离散无记忆信源???

???=====??????8/14/1324/18/310)(4321x x x x X P X ,其发出的信息为(202120130213001203210110321010021032011223210),求 (1) 此消息的自信息量是多少?

(2) 此消息中平均每符号携带的信息量是多少?

解:

(1) 此消息总共有14个0、13个1、12个2、6个3,因此此消息发出的概率是:

6

2514814183??

? ?????? ?????? ??=p

此消息的信息量是:bit p I 811.87log =-=

(2) 此消息中平均每符号携带的信息量是:bit n I 951.145/811.87/==

2.5 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%,如果你问一位男士:“你是否是色盲?”他的回答可能是“是”,可能是“否”,问这两个回答中各含多少信息量,平均每个回答中含有多少信息量?如果问一位女士,则答案中含有的平均自信息量是多少?

解:男士:

sym bol

bit x p x p X H bit

x p x I x p bit x p x I x p i i i N N N Y Y Y / 366.0)93.0log 93.007.0log 07.0()(log )()( 105.093.0log )(log )(%

93)( 837.307.0log )(log )(%

7)(2

=+-=-==-=-===-=-==∑

symbol bit x p x p X H i

i i / 045.0)995.0log 995.0005.0log 005.0()(log )()(2

=+-=-=∑

2.15 某一无记忆信源的符号集为{0, 1},已知P(0) = 1/4,P(1) = 3/4。 (1) 求符号的平均熵;

(2) 有100个符号构成的序列,求某一特定序列(例如有m 个“0”和(100 - m )个“1”)的自信息量的表达式; (3) 计算(2)中序列的熵。

解: (1)

symbol bit x p x p X H i

i i / 811.043log 4341log 41

)(log )()(=??? ??+-=-=∑

(2)

bit m x p x I x p m

i i m m

m

i 585.15.414

3

log

)(log )(4

34341)(100

100100

100100+=-=-==?

?

?

?????? ??=---

(3) symbol bit X H X

H / 1.81811.0100)(100)(100

=?==

2.16 一阶马尔可夫信源的状态图如下图所示。信源X 的符号集为{0, 1, 2}。 (1) 求平稳后信源的概率分布; (2) 求信源的熵H ∞。

解: (1)

???

??===??

?=++==????

????+?=?+?=?+?=???

??+=+=+=3/1)(3/1)(3/1)(1)()()()()()()()()()()()()

()()()

/()()/()()()/()()/()()()/()()/()()(3

213213211333222111313333

32322222121111e p e p e p e p e p e p e p e p e p e p p e p p e p e p p e p p e p e p p e p p e p e e p e p e e p e p e p e e p e p e e p e p e p e e p e p e e p e p e p

?

?

????=??????????

???=+=?+?=+==+=?+?=+=?=+=3/123/113/10

)(3

/13/)()()()/()()/()()(3/13/)()()()/()()/()()()/()()/()()(131313333323232222212121111X P X p p e p p e p p e x p e p e x p e p x p p p e p p e p p e x p e p e x p e p x p p

p p e x p e p e x p e p x p (2)

()

sym bol

bit p p p p p p p p p p p p p p p p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e e p e p H i

j

i j i j i / log log log 31log 31log 31log 31log 31log 31 )/(log )/(31)/(log )/(31)/(log )/(31 )

/(log )/(31

)/(log )/(31)/(log )/(31 )

/(log )/(31)/(log )/(31)/(log )/(3

1

)

/(log )/()(33333232313123232222212113131212111133

?+?-=?

??

?????+??+??+??+?+??-=?

??

++++++???++-=-=∑∑∞

2.17黑白气象传真图的消息只有黑色和白色两种,即信源X ={黑,白}。设黑色

出现的概率为P(黑) = 0.3,白色出现的概率为P(白) = 0.7。 (1) 假设图上黑白消息出现前后没有关联,求熵H(X);

(2) 假设消息前后有关联,其依赖关系为P(白/白) = 0.9,P(黑/白) = 0.1,

P

P

P

P(白/黑) = 0.2,P(黑/黑) = 0.8,求此一阶马尔可夫信源的熵H 2(X);

(3) 分别求上述两种信源的剩余度,比较H(X)和H 2(X)的大小,并说明其物理含义。

解: (1)

symbol bit x p x p X H i

i i / 881.0)7.0log 7.03.0log 3.0()(log )()(=+-=-=∑

(2)

sym bol

bit e e p e e p e p H e p e p e p e p e p e p e p e p e p e p e p e p e e p e p e e p e p e p e e p e p e e p e p e p i

j

i j i j i / 553.0 9.0log 9.0321.0log 1.0322.0log 2.0318.0log 8.031 )

/(log )/()(3

/2)(3/1)(1)()()(2)()

(2.0)(9.0)()(1.0)(8.0)()/()()/()()()/()()/()()(21211212221112122222121111=?

?

?

???+?+?+?-=-=??

?==??

?=+=??

?+=+=??

?+=+=∑∑∞

(3)

%7.442

log 553

.02log %9.112log 881

.02log 001001=-=-=

=-=-=∞∞H H H H H H ηη

H(X) > H 2(X)

表示的物理含义是:无记忆信源的不确定度大与有记忆信源的不确定度,有记忆信源的结构化信息较多,能够进行较大程度的压缩。

2.18 每帧电视图像可以认为是由3 105个像素组成的,所有像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现,问每帧图像含有多少信息量?若有一个广播员,在约10000个汉字中选出1000个汉字来口述此电视图像,试问广播员描述此图像所广播的信息量是多少(假设汉字字汇是等概率分布,并彼此无依赖)?若要恰当的描述此图像,广播员在口述中至少需要多少汉字?

解: 1)

symbol

bit X NH X H symbol

bit n X H N

/ 101.27103)()(/ 7128log log )(6

5

?=??=====

p(黑/黑)=0.8

e1

e2

2)

symbol

bit X NH X H symbol

bit n X H N

/ 13288288.131000)()(/ 288.1310000log log )(=?===== 3)158037

288

.13101.2)()(6=?==X H X H N N 3.15 设二进制对称信道是无记忆信道,信道矩阵为??

?

???

?

?__

p p p p

,其中:p

> 0,_p < 1,p + _

p = 1,_

p >> p 。试写出N = 3次扩展无记忆信道的信道矩阵[P]。

解:

[]????????????

???

???

????????=3222

2322223222232223223

223

22322222

2322322

3223222

32222322223222

2

3

111110101100011010001000 111

110 101 100 011 010 001 000 p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p p

p p p p p p p p p

P

3.19 在图片传输中,每帧约有2.25 106个像素,为了能很好地重现图像,能分16个亮度电平,并假设亮度电平等概分布。试计算每分钟传送一帧图片所需信道的带宽(信噪功率比为30dB )。

解:

s

bit t I C bit NH I symbol bit n H t / 101.56010910

10941025.2/ 416log log 56

6622?=?===?=??=====

z

15049)1000

1(log 105.11log 1log 25

H P P C W P P W C N X t N X t =+?=?

??? ?

?+=?

???

?

?+=

4.1一个四元对称信源?

?????=?

?????4/14/1324/14/110

)(X P X ,接收符号Y = {0, 1, 2, 3},其失真矩阵为?

?

???

????

???0111

10111101

1110,求D max 和D min 及信源的R(D)函数,并画出其曲线(取4至5个点)。

解:

041

041041041),(min )(43041141141141),()(min min min max =?+?+?+?===

?+?+?+?===∑∑i

j i j i i

j i i j j y x d x p D y x d x p D D

因为n 元等概信源率失真函数:

??

?

??-??? ??-+-+=a D a D n a D a D n D R 1ln 11ln ln )(

其中a = 1, n = 4, 所以率失真函数为:

()()D D D

D D R --++=1ln 13

ln

4ln )( 函数曲线:

D

其中:

sym bol

nat D R D sym bol

nat D R D sym bol

nat D R D sym bol

nat R D /0)(,4

3

/12ln 21

4ln )(,21/3

16ln 214ln )(,41/4ln )0(,0==-==-==== 4.2 若某无记忆信源?

?????-=????

??3/113/13/101)(X P X ,接收符号???

???-=21,21Y ,其失真矩阵????

?

?????=112211D 求信源的最大失真度和最小失真度,并求选择何种信道可达到该D max 和D min

失真度。

4.6 设信源X = {0, 1, 2},相应的概率分布p (0) = p (1) = 0.4,p (2) = 0.2。且失真函数为

)2,1,0,(1

),(=??

?≠==j i j

i j

i y x d j i (1) 求此信源的R(D);

(2) 若此信源用容量为C 的信道传递,请画出信道容量C 和其最小误码率P k 之间的曲线关系。

4.9 设某地区的“晴天”概率p (晴) = 5/6,“雨天”概率p (雨) = 1/6,把“晴天”预报为“雨天”,把“雨天”预报为“晴天”造成的损失为a 元。又设该地区的天气预报系统把“晴天”预报为“晴天”,“雨天”预报为“雨天”的概率均为0.9;把把“晴天”预报为“雨天”,把“雨天”预报为“晴天”的概率均为0.1。试计算这种预报系统的信息价值率v (元/比特)。

5.1 设信源?

?????=?

?????01.01.015.017.018.019.02.0)(765432

1x x x x x x x X P X (1) 求信源熵H(X); (2) 编二进制香农码;

(3) 计算平均码长和编码效率。

解: (1)

sym bol

bit x p x p X H i i i /609.2)01.0log 01.01.0log 1.015.0log 15.017.0log 17.018.0log 18.019.0log 19.02.0log 2.0()

(log )()(22222227

1

2=?+?+?+?+?+?+?-=-=∑=

(3)

%

1.8314.3609.2)()(14

.301

.071.0415.0317.0318.0319.032.03)(=====?+?+?+?+?+?+?==∑K

X H R X H x p k K i

i i η

5.4 设信源??

?

???????=?

?????12811281641321161814121)(87654321x x x x x x x x X P X (1) 求信源熵H(X);

(2) 编二进制香农码和二进制费诺码;

(3) 计算二进制香农码和二进制费诺码的平均码长和编码效率; (4) 编三进制费诺码;

(5) 计算三进制费诺码的平均码长和编码效率;

解: (1)

symbol

bit x p x p X H i i i /984.11281128log 128164log 64132log 32116log 1618log 814log 412log 21)

(log )()(22222228

1

2=?+?+?+?+?+?+?+?=-=∑=(2)

香农编码效率:

%100984.1984

.1)()(984

.17

1281

71281664153214161381241121)(====

=?+?+?+?+?+?+?+?==∑K

X H R X H x p k K i

i i η 费诺编码效率:

%100984.1984

.1)()(984

.17

128171281664153214161381241121)(====

=?+?+?+?+?+?+?+?==∑K

X H R X H x p k K i

i i η

%

3.943log 328.198

4.1log )()(328

.14

1281

41281364133212161281141121)(22=?=?===?+?+?+?+?+?+?+?==∑m K X H R X H x p k K i

i i η

信息论与编码复习题目

信息论复习提纲 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明); 4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即节定理:概率越大,码长越小;概率越小,码长越大)及证明; 3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离

散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;2.最小距离与检错、纠错的关系(即节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(三定理1,定理2,定理3)及证明;

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01 100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ????????????==????????????11 222 2111 2222 2 log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(36 1 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: * (3)信源空间: bit x H 32.436log 36 16236log 36215)(=??+?? =∴

bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== ? 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: ! bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为%.如果你问一位男士:“你是否是红绿色盲”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量平均每个回答中各含有多少信息量如果你问一位女士,则她的答案中含有多少平均信息量 解:

信息论与编码复习题,德州学院

一、填空 1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。 2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。 3. 若把掷骰子的结果作为一离散信源,则信源熵为 2log 。 4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。 5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。 6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。 7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。 8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。 9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。 10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。 11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。 12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。 13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。 14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。 15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。 16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。 17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。 18. 八进制脉冲所含的信息量是二进制脉冲的3倍。 19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。 20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。 21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。 22. 对于r 进制树图,n 级节点的个数一般为n r 。 23. 信道中任一时刻输出符号仅统计依赖于对应时刻的输入符号,而与非对应时刻的输入符号及其它任何 时刻的输出符号无关,这种信道称之为 有干扰无记忆信道 。 24. 对于某一信源和某一符号集来说,若有一个唯一可译码,其平均码长小于所有其它唯一可译码的平均 码长,则称该码为紧致码或最佳码 。 25. 分组码是前向纠错码 ,它可以在无需重新发射的情况下检测出有限个错码,并加以纠正。 26. 信源编码的目的是提高通信的有效性。 27. 对于香农编码和哈夫曼编码,编码方法唯一的是香农编码 。 28. 若纠错码的最小距离为dmin,则可以纠错任意小于等于(dmin-1)/2个差错。 29. 线性分组码是同时具有线性特性和分组特性的纠错码。 30. 道的输出仅与当前输入有关,而与过去无关的信道称无记忆信道。 31. 唯一可译码存在的充要条件是 1 1i n k i m -=≤∑ 。 32. 编码分为信源编码和信道编码两种。 33. 信道无失真传输信息的条件是信息传输速率小于信道容量。 34. 对称信道中,信源的最佳分布为等概分布。 35. 信源编码和信道编码的最大区别在于信源编码需减少信源的冗余度,而信道编码需增加信源的冗余。 36. 信道编码的目的是提高通信的可靠性。 37. 离散信源分为离散无记忆信源 和 离散有记忆信源。

信息论与编码技术复习题2

《信息论与编码技术》复习题(2) 一、(32分)综合概念题 1. 什么是系统码和典型矩阵?写出常用的典型生成矩阵的两种形式。 2. 根据平均互信息定义的信道容量是指: a. 信道固定时的最大平均互信息; b. 信道固定时的最小平均互信息; c. 信源固定时的信道的最小平均互信息; d. 信源固定时的信道的最大平均互信息。 3. 什么是离散平稳信源? a. 任意两个不同时刻随机矢量的各维概率分布都相同; b. 任意两个不同时刻随机矢量的各维概率分布都不相同; c. 任意两个不同时刻随机矢量的各维概率密度函数都相同; d. 任意两个不同时刻随机矢量的各维概率密度函数都不相同。 4. 设计一个信道容量为22 kbit/s 的电话信道,若信道上的信号与噪声的平均功率比值为20 dB ,请问该信道的通频带应该为多少? 5. 设信源有q 个符号,则当信源 分布时熵最大,其最大值为 。 6. 当信道固定时,平均互信息是输入分布的 函数;当信源固定时,平均互信息是信道转移概率的 函数。 7. 信源编码是通过压缩信源冗余度来提高 ,而信道编码是增加冗余度来提高 。 8. 请判断具有下列码长{1, 2, 3, 3, 3, 4}的二进制码是否可构成唯一可译码。 二、(10分)设有对称信源(s = r = 4),信源X = {a 1, a 2, ..., a r } = {0, 1, 2, 3},信宿Y = { b 1, b 2, ..., b s } = {0, 1, 2, 3}。若失真度定义为:d (a i , b j ) = (b j -a i )2,求其失真矩阵D 。 三、(15分)某离散无记忆信源?? ????=??????4.06.0)(21a a x p X ,通过图1的信道传输,求: 图1 离散信道 (1)该信源中a 1和 a 2分别含有的自信息; (2)X 和Y 的信息熵; (3)信道的疑义度H (X|Y ); (4)接收到信息Y 后获得的平均互信息量。 四、(16分)设有一个离散无记忆信源?? ????=??????5.03.02.0)(321a a a x p X , (1)对该信源进行二元费诺编码,计算其平均码长和编码效率;

信息论与编码复习题

一、填空题 1.设信源X 包含4个不同离散消息,当且仅当X 中各个消息出现的概率为___Pi=1/4___时,信源熵达到最大值,为__2bit_,此时各个消息的自信息量为____2bit_______。 2.如某线性分组码的最小汉明距dmin=4,则该码最多能检测出___3_____个随机错,最多能 纠正___INT__个随机错。 3.克劳夫特不等式是唯一可译码___存在___的充要条件。 4.平均互信息量I(X;Y)与信源熵和条件熵之间的关系是_I (X :Y )=H (X )-H (X/Y ) 5.__信源__编码的目的是提高通信的有效性,_信道_编码的目的是提高通信的可靠性,__ 加密__编码的目的是保证通信的安全性。 6.信源编码的目的是提高通信的 有效性 ,信道编码的目的是提高通信的 可靠性 ,加密 编码的目的是保证通信的 安全性 。 7.设信源X 包含8个不同离散消息,当且仅当X 中各个消息出现的概率为__1/8_____时,信 源熵达到最大值,为___3bit/符号_________。 8.自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越__小____。 9.信源的冗余度来自两个方面,一是信源符号之间的_相关性__,二是信源符号分布的 __不均匀性___。 10.最大后验概率译码指的是 译码器要在已知r 的条件下找到可能性最大的发码Ci 作为移 码估值 。 11.常用的检纠错方法有__前向纠错__、反馈重发和混合纠错三种。 二、单项选择题 1.下面表达式中正确的是( A )。 A. ∑=j i j x y p 1)/( B.∑=i i j x y p 1)/( C.∑=j j j i y y x p )(),(ω D.∑=i i j i x q y x p )(),( 2.彩色电视显像管的屏幕上有5×105 个像元,设每个像元有64种彩色度,每种彩度又有 16种不同的亮度层次,如果所有的彩色品种和亮度层次的组合均以等概率出现,并且各个 组合之间相互独立。每秒传送25帧图像所需要的信道容量( C )。 A. 50106 B. 75106 C. 125106 D. 250106

信息论与编码习题与答案第四章

4-1 设有一个二元等该率信源{}1,0∈X ,2/110==p p ,通过一个二进制对称信道(BSC )。其失真函数ij d 与信道转移概率ij p 分别定义为 j i j i d ij =≠???=,0,1 ,j i j i p ij =≠? ??-=,1,εε 试求失真矩阵d 和平均失真D 。 解:由题意得, 失真矩阵为d ??????=0110d ,信道转移概率矩阵为P ?? ????--=εεεε11)(i j 平均失真为ε εεεε=?-+?+?+?-= =∑0)1(211211210)1(21),()()(,j i d i j p i p D j i 4-3 设输入符号与输出符号X 和Y 均取值于{0,1,2,3},且输入符号的概率分布为P(X=i)=1/4,i=0,1,2,3,设失真矩阵为 ????? ???????=0111101111011110d 求)(),(,,max min max min D R D R D D 以及相应的编码器转移概率矩阵。 解:由题意,得 0min =D 则symbol bit X H R D R /24log )()0()(2min ==== 这时信源无失真,0→0,1→1,2→2,3→3,相应的编码器转移概率矩阵为

????? ???????=1000 010*********)j (i P ∑===30 3,2,1,0max ),()(min i j j i d i p D ,,14 1141041141141141141041min{?+?+?+??+?+?+?= }04 1141141141141041141141?+?+?+??+?+?+?, 43}43,43,43,43min{== 则0)(max =D R 此时输出概率分布可有多种,其中一种为:p(0)=1,p(1)=p(2)=p(3)=0 则相应的编码器转移概率矩阵为????? ???????=0001000100010001)(i j P

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σπσ -= 时,信源 具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222H X X H X =≥()()12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论与编码期末复习

2011级信息论期末复习 一、单项选择题 1. 十六进制脉冲所含信息量是四进制脉冲的( b )倍。 A 、1 B 、4 C 、3 D 、2 2. 设信道的输入X 的符号个数为n ,输出Y 的符号个数为m ,对于具有归并功能的无噪信道(即m

信息论与编码复习资料(新)

“信息论与编码”复习 1.消息、信号、信息的含义、定义及区别。 信息是指各个事物运动的状态及状态变化的方式。 消息是指包含信息的语言,文字和图像等。 信号是消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 信号:具体的、物理的 消息:具体的、非物理的 信息:非具体的、非物理的 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。同样,同一类型信号或消息也可以代表不同内容的信息 2.信息的特征与分类。 1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4信息是可以量度的,信息量有多少的差别。 31948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。 4.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。 信源的核心问题是它包含的信息到底有多少,怎样将信息定量地表示出来,即如何确定信息量。 信宿需要研究的问题是能收到或提取多少信息。 信道的问题主要是它能够传送多少信息,即信道容量的多少。

5.通信的目的?要解决的最基本问题?通信有效性的概念。提高通信有效性的最根本途径?通信可靠性的概念。提高通信可靠性的最根本途径?通信安全性的概念,提高通信安全性的最根本途径? 通信系统的性能指标主要是有效性,可靠性,安全性和经济性。通信系统优化就是使这些指标达到最佳。 从提高通信系统的有效性意义上说,信源编码器的主要指标是它的编码效率,即理论上所需的码率与实际达到的码率之比。提高通信有效性的最根本途径是信源编码。减少冗余。 提高可靠性:信道编码。增加冗余。 提高安全性:加密编码。 6.随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义? 信源符号不确定度:具有某种概率的信源符号在发出之前,存在不确定度,不确定度表征该符号的特性。符号的不确定度在数量上等于它的自信息量,两者的单位相同,但含义不同: ?不确定度是信源符号固有的,不管符号是否发出; ?自信息量是信源符号发出后给予收信者的; ?为了消除该符号的不确定度,接受者需要获得信息量。 自信息量 8.信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。 自信息量指的是该符号出现后,提供给收信者的信息量。 9. 各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。 信源熵:

信息论与编码复习总结

信息论与编码复习总结 题型:填空、解答、计算 1、编码:无失真与限失真信源编码定理 编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真 三大定理: 无失真信源编码定理(第一极限定理)(可逆) 信道编码定理(第二极限定理) 限失真信源编码定理(第三极限定理)(不可逆) Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。通信系统模型方框图: 信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。 信源的描述:通过概率空间描述

平稳包含齐次,而齐次不包含平稳(重要,第二章计算题) 定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,p j称为平稳分布(如下) 设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j) 自信息量的特性: p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞;非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为: 定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特

信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道 信源编码器的目的:是使编码后所需的信息传输率R尽量小。 信源编码:主要任务就是减少冗余,提高编码效率。

信息论与编码试题集概要

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ???? 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ ) 三、计算题 某系统(7,4)码 )()(01201230123456c c c m m m m c c c c c c c ==c 其三位校验 位与信息位的关系为:

信息论与编码试题集与复习资料新

1. 在无失真的信源中,信源输出由 R(D) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后 一加密_ 编码,再 _信道. 编码,最后送入信道。 3?带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公 式是C Wlog(1 SNR);当归一化信道容量 C/W 趋近于零时,也即信道完全丧失了通 信能力,此时E b /N o 为-1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论 极限。 2 x x 1,则信息位长度k 为_3_,校验多项式 6. 设输入符号表为 X = {0 , 1},输出符号表为 Y = {0,1}。输入信号的概率分布为 p = (1/2, 1/2),失真函数为 d(0, 0) = d(1, 1) = 0 , d(0, 1) =2 , d(1 , 0) = 1,则 D min = _0_, R(D min ) 1 0 [p(y/x)] = ; D max = 0.5 , R(D max )= 0 1 1 L ,相应的编码器转移概率矩阵[p(y/x)] = 1 7. 已知用户 A 的RSA 公开密钥(e,n)=(3,55), p 5,q 密钥(d,n) = (27,55)。若用户B 向用户A 发送m=2的加密消息,则该加密后的消息为 、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 () 2. 线性码一定包含全零码。 () 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (X) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (X) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度 L 的增大而增大。 (X) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量 X ,当它是正态分布时具 有最大熵。 () 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 () 8. 信道容量是信道中能够传输的最小信息量。 (X) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (X) 10. 在已知收码R 的条件下找出可能性最大的发码 C i 作为译码估计值,这种译码方 H(X) 来度量;在有失真的信源中,信源输出由 4.保密系统的密钥量越小,密钥熵 C)就越大。 H(K)就越 小,其密文中含有的关于明文的信息量 I(M ; 信道 5. 已知n = 7的循环码g(x) 3 h(x)=—x x 1 x 4 1bit/symbol ,相应的编码器转移概率矩阵 11,则(n) 40 ,他的秘密

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 信道 X Y 9,7,5,3,1=i 8,6,4,2,0=i √Χ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息论与编码”期末复习题

信研10“信息论与编码”期末复习题 1.信息论基础(狭义信息论/景点信息论/香农信息论)主要研究的三个方面是什么? 信息测度、信道容量、信息率失真函数 2.全信息同时考虑的三个方面的内容是什么? 语法信息、语义信息、语用信息 3.研究信息论的目的是什么? 寻找信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性等,已达到信息传输系统的最优化 4.消息、信号、信息的含义、定义及区别。 信息--事物运动的状态及状态变化的方式。 消息--包含信息的语言,文字和图像等。 信号--消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式同一类型信号或消息也可以代表不同内容的信息 5.信息的特征与分类。 1.接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2.信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3.信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4.信息是可以量度的,信息量有多少的差别 6.狭义信息论、广义信息论、一般信息论研究的领域。 狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。 广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。 概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间:

bit x H 32.436log 36 16236log 36215)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.111 36 log log )(3611333==-=∴== 如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格内,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格内。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率Θ bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知Θ

信息论与编码复习整理1

信息论与编码 1.根据信息论的各种编码定理和通信系统指标,编码问题可分解为几类,分别是什么? 答:3类,分别是:信源编码,信道编码,和加密编码。 2.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 答:通信系统模型如下: 数据处理定理为:串联信道的输入输出X 、Y 、Z 组成一个马尔可夫链,且有 , 。说明经数据处理后,一般只会增加信息的损失。 3.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 答:平均自信息为: 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息: 表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 4.简述最大离散熵定理。对于一个有m 个符号的离散信源,其最大熵是多少? 答:最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为 。 5.熵的性质什么? 答:非负性,对称性,确定性,香农辅助定理,最大熵定理。 6.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 答:信息传输率R 指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U 型凸函数。 7.信道疑义度的概念和物理含义?

答:概念:)|(log )()|(j i j i j i b a p b a p Y X H ∑ ∑ -= 物理含义:输出端收到全部输出符号Y 以后,对输入X 尚存在的平均不确定程度。 8.写出香农公式,并说明其物理意义。当信道带宽为5000Hz ,信噪比为30dB 时求信道容量。 答:香农公式为 ,它是高斯加性白噪声信道在单位时 间内的信道容量,其值取决于信噪比和带宽。 由得,则 9.解释无失真变长信源编码定理? 答:只要,当N 足够长时,一定存在一种无失真编码。 10.解释有噪信道编码定理? 答:当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 11.最佳变长编码有哪些? 答:香农编码方法,费诺编码方法和哈夫曼编码方法。 12.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 答:等长信源编码定理:对于任意,只要,则当L 足够 长时必可使译码差错 。 变长信源编码定理:只要 ,一定存在一种无失真编码。 等长码和变长码的最小平均码长均为 ,编码效率最高可达100%。 13.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 答:最小错误概率译码准则下,将接收序列译为后验概率最大时所对应的码字。 最大似然译码准则下,将接收序列译为信道传递概率最大时所对应的码字。 最小距离译码准则下,将接收序列译为与其距离最小的码字。 三者关系为:输入为等概率分布时,最大似然译码准则等效于最小错误概率译码准则。在二

信息论与编码课后习题答案

1. 有一个马尔可夫信源,已知p(x 1|x 1)=2/3,p(x 2|x 1)=1/3,p(x 1|x 2)=1,p(x 2|x 2)=0,试画出该信源的香农线图,并求出信源熵。 解:该信源的香农线图为: 1/3 ○ ○ 2/3 (x 1) 1 (x 2) 在计算信源熵之前,先用转移概率求稳定状态下二个状态x 1和 x 2 的概率)(1x p 和)(2x p 立方程:)()()(1111x p x x p x p =+)()(221x p x x p =)()(2132x p x p + )()()(1122x p x x p x p =+)()(222x p x x p =)(0)(2131x p x p + )()(21x p x p +=1 得4 3 1)(=x p 4 12)(=x p 马尔可夫信源熵H = ∑∑- I J i j i j i x x p x x p x p )(log )()( 得 H=符号 2.设有一个无记忆信源发出符号A 和B ,已知4 3 41)(.)(= =B p A p 。求: ①计算该信源熵; ②设该信源改为发出二重符号序列消息的信源,采用费诺编码方法,求其平均信息传输速率; ③又设该信源改为发三重序列消息的信源,采用霍夫曼编码方法,求其平均信息传输速率。 解:①∑- =X i i x p x p X H )(log )()( = bit/符号 ②发出二重符号序列消息的信源,发出四种消息的概率分别为 1614141)(=?=AA p 1634341 )(=?=AB p 1634143)(=?=BA p 1694343)(=?=BB p 用费诺编码方法 代码组 b i BB 0 1 BA 10 2 AB 110 3

信息论与编码期末考试题

(一) . 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σ πσ -=时,信源 具有最大熵,其值为值21 log 22e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222 H X X H X = ≥() () 12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

相关文档