文档库 最新最全的文档下载
当前位置:文档库 › 信息论基础与编码复习2

信息论基础与编码复习2

信息论基础与编码复习2
信息论基础与编码复习2

信息论基础与编码复习

一、已知信源???

???=??????5.05.02

1x x P X 接到信道???

?

?

?=8.02

.002.098.0)|(X Y P 上,求在该信道上传输的平均互信息量);(Y X I 、疑义度)|(Y X H ,噪声熵)|(X Y H 和联合熵)(XY H 。 参考答案:不要求计算结果,只要与出公式,每份5分,共20分

()()(|)P Y P X P Y X =

)|(X Y H =-2

2

211()log (|)i j j i i j p x y p y x ==∑∑

)|(Y X H =-2

2211()log (|)i j i j i j p x y p x y ==∑∑

)(XY H =-2

2

211

()log ()i j i j i j p x y p x y ==∑∑

);(Y X I =()()()H X H Y H XY +-

二、一维随机变量X 在区间],[b a 内均匀分布,试求此连续信源的熵)(x H c 。 参考答案:

1

222()()log ()log ()log ()b

c b a a

H X p x p x dx b a dx b a +∞

--∞

=-=-=-?

?

(bit ) (10分)

三、一维随机变量X 的取值是),(+∞-∞,其概率密度函数为2

22)(2

21)(σμπσ

--

=x e

x p (高斯

信道),试求此连续信源的熵)(x H c 。 参考答案:()EX xp x dx μ+∞

-∞

=

=?

22()()DX x p x dx μσ+∞

-∞

=-=? (5分)

2

122()()log ()log (2)c H X p x p x dx e πσ+∞

-∞

=-=?

(bit ) (10分)

五、一个三状态马尔可夫信源的转移概率矩阵为???

?

? ??=412

14

1212

1

2

12

100

P ,请绘制状态转移图,并求该马尔可夫信源的稳态分布。( 10 分) 参考答案:1、绘制状态转移图 (5分) 2、稳态分布7

31)(=

s P ,722)(=s P ,72

3)(=s P (5分)

六、试求以下列信道矩阵代表的信道容量。

???

??????

???????????=100

01000

1001001001][6

5

43

2

132

1x x x x x x y y y P 参考答案:归并信道,2max

(;)max ()log 3()

C I X Y H Y p x === /b i t s i g n (10分)

七、设一四元对称信源??

????????=?

?????41414141

321

0)(X P X ,接收符号{}3,2,1,0=Y ,其其失真矩阵为?????

????

???=01

11

10111101

1110

D ,试求max D ,min D 及信息率失真函数)(D R 。(15分) 参考答案:min D =

1

()min (,)0n

i

i

j

j

i p x d x y ==∑ (5分)

max D =34min j j

D = (5分)

()ln ln (1)ln(1)D

D D D R D n α=++--

32ln (1)ln(1)D D D D =++-- (5分) 八、设有一单符号离散信源:1234()0.50.20.20.1X x x x x P X ??

??=???

?????

,试求其信源熵、二进制哈夫曼编码(最优编码),并计算平均码长。 (15分)

参考答案:画出最优二元树 (5分) 编码12

3

4010110111x x x x ??

?

??? (5分)

平均码长:0.5*10.2*20.2*30.1*3 1.8K =+++= (5分)

九、设有一单符号离散信源:??

????=?

???

??01.01.015.017.018.019.02.0)(7654321

x x x x x x x X P X ,试

求其信源熵、二进制香农编码,并计算平均码长。 (15分) 参考答案:求信源熵 (5分) 按概率从大到小的排序,计算概率和 编码

1111110

11101011000110010007

654321x x x x x x x (5分)

平均码长:14.37*01.04*1.03*)15.017.018.019.02.0(=++++++=K (5

分)

十、设1a ,2a 分别代表某工厂合格品和废品,设该厂产品的合格率)(1a p =99%,废品率

)(2a p =1%,若合格品出厂、废品报废,则不会造成损失;若将一个合格品报废,则损失1

元;若将一个废品出厂,则损失100元。现检测系统把合格品误判为废品、废品误判为合格品的概率均为10%,试计算这种检测系统的信息价值率。(15分) 参考答案: )01.099.0(

)(2

1a a X P =,)9

.01.01

.09.0()|(=X Y P

()()(|)i i i i i p x y p x p y x =

)0

10010(=D

0min =D

2

1()(,)j i i j i D p x d x y ==∑

99.0}99.0,1{min min max ===j

j j

D D 元, (10分)

D =0.199元,

∴D D -max =0.791元,

(|)()

()min

(;)j i p y x p D R D I X Y ∈=

2

2

22

2

2

11

11

(|)(|)(;)()log ()log ()

()

i j j i i j i j i j i j i i p x y p y x I X Y p x y p x y p x p x =====-=-∑∑∑∑=

0.025(sign bit /)

所以信息价值率为:max ()

D D

V R D -=

=31.6元/比特。 (15分)

十一、设某地区的“晴天”概率6/5)(1=a p ,“雨天”概率6/1)(2=a p ,把“晴天”预报为“雨天”、把“雨天”预报为“晴天”造成的损失均为a 元。又设该预报系统把“晴天”预报为“雨天”、把“雨天”预报为“晴天”的概率均为0.1,把“晴天”预报为“晴天”、把“雨天”预报为“雨天”的概率均为0.9。试计算这种预报系统的信息价值v (元比特) (15分)

参考答案:由题意有:

0.90.1(|)0.90.1P Y X ??

= ???

1

2()5

166x x P X ?? ?= ? ???

()()(|)i i i i i p x y p x p y x =

4.50.56

6()0.90.16

6P XY ?? ?=

? ? ???

00a D a ??= ???

0a > (5分)

2

1

()(,)j i i j i D p x d x y ==∑

1111221()(,)()(,)6a D p x d x y p x d x y =+=

21122225()(,)()(,)6

a

D p x d x y p x d x y =+=

max 12min 6j j a

D D ≤≤==

22

11

()(|)(,)0.1i j i i j i j D p x p y x d x y a ====∑∑ (10分)

∴ max 15

a

D D -=

(|)()

()min

(;)j i p y x p D R D I X Y ∈=

2

2

22

2

2

11

11

(|)(|)(;)()log ()log ()

()

i j j i i j i j i j i j i i p x y p y x I X Y p x y p x y p x p x =====-=-∑∑∑∑

所以信息价值率为:max ()

D D

V R D -=

(15分)

十二、设有一(7,4)循环码的生成多项式为3

()1g x x x =++,试求其生成矩阵和一致校验矩阵,检验接收码字1110011=R 是否有错? (15分) 参考答案:

1)(3++=x x x g ,7()(1)/()h x x g x =+=421x x x +++ (5分)

按()g x 的升幂()h x 降幂(或者按()g x 的降幂()h x 升幂)

生成矩阵1101000

0110100

(

)00110100001101

G =

一致校验矩阵1011100

(0101110)0010111

H = (5分)

*T H R =(0,0,1)0T ≠,所以检验出有错误,第七个符号错。 (5分)

十三、选择帧长64=N ,对

0000000000000000000000000100000000000000000000000000000000000000编冗余位L —D 编码,并译码。 参考答案:

264,[log (1)]7N N =+=,用七位编码表示Q (5分)

编码:1Q =,126n =,2[log ]6Q

N c =,11225(11001)Q

n T C -===

所以,编码为0000001011001 (5分) 译码:前七位表示1Q =,后六位表示25T = 所以126n = (5分)

十四、设有一线性分组码的生成多项式为???

?

?

??=110100011010101001G ,试求:

1、 此分组码??,==k n ,共有多少码字?

2、 求此分组码的较验矩阵H ;

3、 接收到001001=R 是否有错? (15分)

参考答案:1、3,6==k n , 共有823

=个码字 (5分)

2、较验矩阵???

?

?

??=100101010110001011H (5分)

*T H R =0)0,1,0(≠T ,所以检验出有错误,第第五个符号错。 (5分)

《信息论基础A》(清华)复习资料

信息论基础A 复习资料 作者 郝仁 第一章 概论 ● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。目前,信息论中主要研究语法信息 ● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数 2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法 ● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。 信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。 第二章 离散信源及离散熵 ● 单符号离散信源的数学模型:1 212()()()()n n x x x X P x P x P x P X ?? ??=? ??????? L L 自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley) 自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。 ● 单符号离散信源的离散熵: 1()[()]()()n i i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。 离散熵的性质和定理:H(X)的非负性;H(X)的上凸性;

信息论与编码复习题目

信息论复习提纲 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明); 4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即节定理:概率越大,码长越小;概率越小,码长越大)及证明; 3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离

散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;2.最小距离与检错、纠错的关系(即节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(三定理1,定理2,定理3)及证明;

信息论与编码试卷与答案

一、(11’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是 0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 (6)对于香农编码、费诺编码和霍夫曼编码,编码方法惟一的是香农编码。(7)已知某线性分组码的最小汉明距离为3,那么这组码最多能检测出_2_______个码元错误,最多能纠正___1__个码元错误。 (8)设有一离散无记忆平稳信道,其信道容量为C,只要待传送的信息传输率R__小于___C(大于、小于或者等于),则存在一种编码,当输入序列长度n足够大,使译码错误概率任意小。(9)平均错误概率不仅与信道本身的统计特性有关,还与___译码规则____________和___编码方法___有关 三、(5')居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (2分) 故 p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (2分) I(A|B)=-log0.375=1.42bit (1分) 四、(5')证明:平均互信息量同信息熵之间满足 I(X;Y)=H(X)+H(Y)-H(XY) 证明:

信息论基础与编码复习2

信息论基础与编码复习 一、已知信源??? ???=??????5.05.02 1x x P X 接到信道??? ? ? ?=8.02 .002.098.0)|(X Y P 上,求在该信道上传输的平均互信息量);(Y X I 、疑义度)|(Y X H ,噪声熵)|(X Y H 和联合熵)(XY H 。 参考答案:不要求计算结果,只要与出公式,每份5分,共20分 ()()(|)P Y P X P Y X = )|(X Y H =-2 2 211()log (|)i j j i i j p x y p y x ==∑∑ )|(Y X H =-2 2211()log (|)i j i j i j p x y p x y ==∑∑ )(XY H =-2 2 211 ()log ()i j i j i j p x y p x y ==∑∑ );(Y X I =()()()H X H Y H XY +- 二、一维随机变量X 在区间],[b a 内均匀分布,试求此连续信源的熵)(x H c 。 参考答案: 1 222()()log ()log ()log ()b c b a a H X p x p x dx b a dx b a +∞ --∞ =-=-=-? ? (bit ) (10分) 三、一维随机变量X 的取值是),(+∞-∞,其概率密度函数为2 22)(2 21)(σμπσ -- =x e x p (高斯 信道),试求此连续信源的熵)(x H c 。 参考答案:()EX xp x dx μ+∞ -∞ = =? 22()()DX x p x dx μσ+∞ -∞ =-=? (5分) 2 122()()log ()log (2)c H X p x p x dx e πσ+∞ -∞ =-=? (bit ) (10分) 五、一个三状态马尔可夫信源的转移概率矩阵为??? ? ? ??=412 14 1212 1 2 12 100 P ,请绘制状态转移图,并求该马尔可夫信源的稳态分布。( 10 分) 参考答案:1、绘制状态转移图 (5分) 2、稳态分布7 31)(= s P ,722)(=s P ,72 3)(=s P (5分)

信息论与编码试题-精选.

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求

和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量:

,,

10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?

信息论与编码复习题,德州学院

一、填空 1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。 2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。 3. 若把掷骰子的结果作为一离散信源,则信源熵为 2log 。 4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。 5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。 6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。 7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。 8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。 9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。 10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。 11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。 12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。 13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。 14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。 15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。 16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。 17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。 18. 八进制脉冲所含的信息量是二进制脉冲的3倍。 19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。 20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。 21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。 22. 对于r 进制树图,n 级节点的个数一般为n r 。 23. 信道中任一时刻输出符号仅统计依赖于对应时刻的输入符号,而与非对应时刻的输入符号及其它任何 时刻的输出符号无关,这种信道称之为 有干扰无记忆信道 。 24. 对于某一信源和某一符号集来说,若有一个唯一可译码,其平均码长小于所有其它唯一可译码的平均 码长,则称该码为紧致码或最佳码 。 25. 分组码是前向纠错码 ,它可以在无需重新发射的情况下检测出有限个错码,并加以纠正。 26. 信源编码的目的是提高通信的有效性。 27. 对于香农编码和哈夫曼编码,编码方法唯一的是香农编码 。 28. 若纠错码的最小距离为dmin,则可以纠错任意小于等于(dmin-1)/2个差错。 29. 线性分组码是同时具有线性特性和分组特性的纠错码。 30. 道的输出仅与当前输入有关,而与过去无关的信道称无记忆信道。 31. 唯一可译码存在的充要条件是 1 1i n k i m -=≤∑ 。 32. 编码分为信源编码和信道编码两种。 33. 信道无失真传输信息的条件是信息传输速率小于信道容量。 34. 对称信道中,信源的最佳分布为等概分布。 35. 信源编码和信道编码的最大区别在于信源编码需减少信源的冗余度,而信道编码需增加信源的冗余。 36. 信道编码的目的是提高通信的可靠性。 37. 离散信源分为离散无记忆信源 和 离散有记忆信源。

信息论与编码技术复习题2

《信息论与编码技术》复习题(2) 一、(32分)综合概念题 1. 什么是系统码和典型矩阵?写出常用的典型生成矩阵的两种形式。 2. 根据平均互信息定义的信道容量是指: a. 信道固定时的最大平均互信息; b. 信道固定时的最小平均互信息; c. 信源固定时的信道的最小平均互信息; d. 信源固定时的信道的最大平均互信息。 3. 什么是离散平稳信源? a. 任意两个不同时刻随机矢量的各维概率分布都相同; b. 任意两个不同时刻随机矢量的各维概率分布都不相同; c. 任意两个不同时刻随机矢量的各维概率密度函数都相同; d. 任意两个不同时刻随机矢量的各维概率密度函数都不相同。 4. 设计一个信道容量为22 kbit/s 的电话信道,若信道上的信号与噪声的平均功率比值为20 dB ,请问该信道的通频带应该为多少? 5. 设信源有q 个符号,则当信源 分布时熵最大,其最大值为 。 6. 当信道固定时,平均互信息是输入分布的 函数;当信源固定时,平均互信息是信道转移概率的 函数。 7. 信源编码是通过压缩信源冗余度来提高 ,而信道编码是增加冗余度来提高 。 8. 请判断具有下列码长{1, 2, 3, 3, 3, 4}的二进制码是否可构成唯一可译码。 二、(10分)设有对称信源(s = r = 4),信源X = {a 1, a 2, ..., a r } = {0, 1, 2, 3},信宿Y = { b 1, b 2, ..., b s } = {0, 1, 2, 3}。若失真度定义为:d (a i , b j ) = (b j -a i )2,求其失真矩阵D 。 三、(15分)某离散无记忆信源?? ????=??????4.06.0)(21a a x p X ,通过图1的信道传输,求: 图1 离散信道 (1)该信源中a 1和 a 2分别含有的自信息; (2)X 和Y 的信息熵; (3)信道的疑义度H (X|Y ); (4)接收到信息Y 后获得的平均互信息量。 四、(16分)设有一个离散无记忆信源?? ????=??????5.03.02.0)(321a a a x p X , (1)对该信源进行二元费诺编码,计算其平均码长和编码效率;

信息论与编码试卷及答案

一、概念简答题(每题5分,共40分) 1.什么是平均自信息量与平均互信息,比较一下这两个概念的异同? 平均自信息为:表示信源的平均不确定度,表示平均每个信源消息所提供的信息量。 平均互信息:表示从Y获得的关于每个X的平均信息量;表示发X前后Y的平均不确定性减少的量;表示通信前后整个系统不确定性减少的量。 2.简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少? 最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 最大熵值为 3.解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系? 信息传输率R指信道中平均每个符号所能传送的信息量。信道容量是一个信道所能达到的最大信息传输率。信息传输率达到信道容量时所对应的输入概率分布称为最佳输入概率分布。 平均互信息是信源概率分布的∩型凸函数,是信道传递概率的U型凸函数。 4.对于一个一般的通信系统,试给出其系统模型框图,并结合此图,解释数据处理定理。 数据处理定理为:串联信道的输入输出X、Y、Z组成一个马尔可夫链,且有, 。说明经数据处理后,一般只会增加信息的损失。

5.写出香农公式,并说明其物理意义。当信道带宽为5000Hz,信噪比为30dB时求信道容量。香农公式为 ,它是高斯加性白噪声信道在单位时间内的信道容量,其值取决于信噪比和带宽。 由得,则 6.解释无失真变长信源编码定理。只要,当N足够长时,一定存在一种无失真编码。 7.解释有噪信道编码定理。答:当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8.什么是保真度准则?对二元信源,其失真矩阵,求a>0时率失真函数的和?答:1)保真度准则为:平均失真度不大于允许的失真度。 2)因为失真矩阵中每行都有一个0,所以有,而。 二、综合题(每题10分,共60分) 1.黑白气象传真图的消息只有黑色和白色两种,求: 1)黑色出现的概率为0.3,白色出现的概率为0.7。给出这个只有两个符号的信源X的数学模型。假设图上黑白消息出现前后没有关联,求熵;

信息论复习提纲

第一章 1、信息的概念。 信息是事物运动状态或存在方式的不确定性的描述。 2、信息论的研究对象、研究目的。 对象:通信系统模型。 目的:找到信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性和认证性,以达到信息传输系统最优化。 3、通信系统模型的组成,及各部分的功能 (1)信息源:产生消息的源,消息可以是文字,语言,图像。可以离散,可以连续。随机发生。 (2)编码器: 信源编码器:对信源输出进行变换(消去冗余,压缩),提高信息传输的有效性 信道编码器:对信源编码输出变换(加入冗余),提高抗干扰能力,提高信息传输的可靠性(3)信道:信号从发端传到收端的介质 (4)译码器:译码就是把信道输出(已叠加了干扰)的编码信号进行反变换。 (5)信宿:信宿是消息传送的对象,即接受消息的人或机器。 (6)干扰源:系统各部分引入的干扰,包括衰落,多径,码间干扰,非线性失真,加性噪声,主要研究的是统计特性。 4、消息,信号,信息三者之间的关系 信息---可以认为是具体的物理信号、数学描述的消息的内涵,即信号具体载荷的内容、消息描述的含义。 信号---则是抽象信息在物理层表达的外延; 消息---则是抽象信息在数学层表达的外延 第二章 1、信源的分类,着重单符号信源。信源的概率空间的构成形式。 单消息(符号)信源,离散信源,连续变量信源,平稳信源,无/有记忆信源,马尔可夫信源,随机波形信源。 单消息(符号)信源: 单消息(符号)信源--离散信源 单消息(符号)信源--连续信源 2、自信息的计算及物理含义,单位与底数的关系,含义。 计算: 含义:当事件ai发生以前,表示事件ai发生的不确定性 当事件ai发生以后表示事件ai所含有(所提供)的信息量 单位与底数的关系: 通信与信息中最常用的是以2为底,这时单位为比特(bit); 理论推导中用以e为底较方便,这时单位为奈特(Nat); 工程上用以10为底较方便,这时单位为哈特(Hart)。 它们之间可以引用对数换底公式进行互换。比如: 1 bit = 0.693 Nat = 0.301 Hart

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。 按照信息的地位,可以把信息分成客观信息和主观信息。 人们研究信息论的目的是为了高效、可靠、安全地交换和利用各种各样的信息。 信息的可度量性是建立信息论的基础。 统计度量是信息度量最常用的方法。 熵是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生概率的对数来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用随机矢量描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为其发生概率对数的负值。 12、自信息量的单位一般有比特、奈特和哈特。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是∞。 15、两个相互独立的随机变量的联合自信息量等于两个自信息量之和。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量趋于变小。 17、离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的 N倍。 18、离散平稳有记忆信源的极限熵,。 19、对于n元m阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X在[a,b]区间内均匀分布时,其信源熵为 log2(b-a)。

现代教育技术复习资料整理

现代教育技术复习资料整理 第一章教育技术概论 ▲.教育技术定义 答:()定义:教育技术是为了促进学习,对有关的过程和资源进行设计、开发、管理和评价的理论与实践。()定义:教育技术是通过创造、使用和管理合适的技术性的过程和资源,以促进学习和提高绩效的研究与符合伦理道德的实践。 ()教育技术的研究对象是学习过程和学习资源。 ()教育技术的目的是追求教育过程的最优化。 .教育技术有哪些研究领域 | 答:设计领域、开发领域、利用领域、管理领域、评价领域 .信息化教育 1)教材多媒体化 2)资源全球化 3)教案个性化 4)学习自主化 5)任务合作化 6)环境虚拟化 7)& 8)管理自动化 .信息素养的概念 答:信息素养就是从各种资源中获取、评价、利用及表达信息的能力。 .教师的信息素养由哪些内容构成如何培养教师的信息素养 答:()构成从三个方面上理解: .从认识层面上理解: 、正确的理解、强烈的意识及较强的敏感度 、关心教育信息化进程、积极投入工作 , .从技术层面上理解: 、具备传统信息基础知识和计算机基本技能 、具备多媒体处理能力,即能掌握现代教育软、硬件的使用 、具备信息处理能力 .从应用层面上理解: 、能从不同角度读解信息和批判评价信息,并思考 、能对相关信息进行整合,形成新信息 、具有良好的课程整合能力 : ()教师信息素养的培养: 树立终生学习的理念 构建必要的信息环境和培训条件 教师不断提高自我反思能力和元认知水平 在信息技术与学科课程的整合中提高教师信息素养 .我国的现代教育技术具有哪些发展趋势 答:教育信息化的高度实现 大量计算机技术进一步渗透教育教案领域(多媒体技术、人工智能技术、虚拟现实技术)

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σπσ -= 时,信源 具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222H X X H X =≥()()12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论与编码期末复习

2011级信息论期末复习 一、单项选择题 1. 十六进制脉冲所含信息量是四进制脉冲的( b )倍。 A 、1 B 、4 C 、3 D 、2 2. 设信道的输入X 的符号个数为n ,输出Y 的符号个数为m ,对于具有归并功能的无噪信道(即m

信息管理学复习资料【重点】

管理信息学复习要点 第一章 科学的信息定义: 信息是对客观世界中各种事物的运动状态和变化的反映,是客观事物之间相互联系和相互作用的表征,表现的是客观事物运动状态和变化的实质内容。 信息的特征 客观性普遍性不完全性依附性价值性时效性可传递性可存储性可扩散性共享性可加工性有用性 数据、信息和知识 数据是客观记录、分类和存储,它不被用来传递任何特定意义。可以是数值、字符(串)、图、声音、图像/图片等。---语法信息 信息是被组织起来、对接受者有特定意义的数据。它可能是一些接受者知道的,也可能不知道但接受者自己能解释。---语义信息 知识通过对数据的加工、提取形成的有重要应用前景、能反映过去经验、具有价值性的数据。---语用信息 信息资源的三要素: 信息生产者:是为某种目的生产信息的劳动者,包括原始信息生产者、信息加工者或信息再生产者。 信息:既是信息生产的原料,也是信息生产的产品,是信息生产者的劳动成果,对社会各种活动直接产生效用,是信息资源的目标要素。 信息技术:是能够延长或扩展人的信息能力的各种技术的总称,是对声音、图像、文字等数据和各种传感信号的信息进行收集、加工、存储、传递和利用的技术。信息技术作为生产工具,对信息收集、加工、存储与传递提供支持与保障。 在信息资源中,信息生产者是最关键的因素,因为信息和信息技术都离不开人的作用,

信息是由人生产和消费的,信息技术也是由人创造和使用的。 信息资源的特征 信息资源作为经济资源的一种,它具有经济资源的共同特征即需求性、稀缺性和对象的选择性。信息资源作为一种独立存在的资源,它也有其自身特有的特征,如可共享性、无穷无尽性和驾驭性等。 信息科学 信息科学是研究信息运动规律和应用方法的科学,是由信息论、控制论、计算机、人工智能和系统论相互渗透相互结合而成的一门新兴综合性学科。其支柱为系统论、控制论和信息论。 信息论是信息科学的前导,是一门用数理统计方法研究信息的度量、传递和交换规律的科学。信息论的主要研究内容。 系统论是以一般系统为研究对象的理论。其创始人是美籍奥地利生物学家贝塔朗菲。系统论的主要思想。 控制论是研究控制系统的理论,其创始人是美国数学家维纳。控制论的基本原理。 信息技术 信息技术是关于信息的产生、发送、传输、接收、变换、识别、控制等应用技术的总称。其支柱为通讯技术、计算机技术和控制技术。包括信息基础技术、信息处理技术、信息应用技术和信息安全技术等。 信息管理的定义 信息管理是人们为了有效地开发和利用信息资源,以现代信息技术为手段,对信息资源进行计划、组织、领导和控制的社会活动。简单地说,信息管理就是人对信息资源和信息活动的管理。 信息管理的对象是信息资源和信息活动 信息管理是管理活动的一种 信息管理也是一种社会规模的管理活动

信息论与编码复习资料(新)

“信息论与编码”复习 1.消息、信号、信息的含义、定义及区别。 信息是指各个事物运动的状态及状态变化的方式。 消息是指包含信息的语言,文字和图像等。 信号是消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 信号:具体的、物理的 消息:具体的、非物理的 信息:非具体的、非物理的 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。同样,同一类型信号或消息也可以代表不同内容的信息 2.信息的特征与分类。 1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4信息是可以量度的,信息量有多少的差别。 31948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。 4.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。 信源的核心问题是它包含的信息到底有多少,怎样将信息定量地表示出来,即如何确定信息量。 信宿需要研究的问题是能收到或提取多少信息。 信道的问题主要是它能够传送多少信息,即信道容量的多少。

5.通信的目的?要解决的最基本问题?通信有效性的概念。提高通信有效性的最根本途径?通信可靠性的概念。提高通信可靠性的最根本途径?通信安全性的概念,提高通信安全性的最根本途径? 通信系统的性能指标主要是有效性,可靠性,安全性和经济性。通信系统优化就是使这些指标达到最佳。 从提高通信系统的有效性意义上说,信源编码器的主要指标是它的编码效率,即理论上所需的码率与实际达到的码率之比。提高通信有效性的最根本途径是信源编码。减少冗余。 提高可靠性:信道编码。增加冗余。 提高安全性:加密编码。 6.随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义? 信源符号不确定度:具有某种概率的信源符号在发出之前,存在不确定度,不确定度表征该符号的特性。符号的不确定度在数量上等于它的自信息量,两者的单位相同,但含义不同: ?不确定度是信源符号固有的,不管符号是否发出; ?自信息量是信源符号发出后给予收信者的; ?为了消除该符号的不确定度,接受者需要获得信息量。 自信息量 8.信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。 自信息量指的是该符号出现后,提供给收信者的信息量。 9. 各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。 信源熵:

《信息论基础》教学大纲

《信息论基础》教学大纲 课程编号:CE6006 课程名称:信息论基础英文名称:Foundation of Information Theory 学分/学时:2/32 课程性质:选修课 适用专业:信息安全,网络工程建议开设学期:6 先修课程:概率论与数理统计开课单位:网络与信息安全学院 一、课程的教学目标与任务 本课程是信息安全,网络工程专业选修的一门专业基础课。通过课程学习,使学生能够 较深刻地理解信息的表征、存储和传输的基本理论,初步掌握提高信息传输系统可靠性、有 效性、保密性和认证性的一般方法,为后续专业课学习打下坚实的理论基础。 本课程的教学目标: 本课程对学生达到如下毕业要求有贡献: 1.能够将数学、自然科学、工程基础和专业知识用于解决复杂工程问题。 2.能够应用数学、自然科学和工程科学的基本原理,识别、表达,并通过文献研究分 析复杂工程问题,以获得有效结论。 完成课程后,学生将具备以下能力: 1.能够针对一个复杂系统或者过程选择一种数学模型,并达到适当的精度。 2.能够应用数学、自然科学和工程科学的基本原理分析、识别、表达、处理及扩展信 息安全、网络工程专业的复杂问题。 本课程的性质: 本课程是一门理论性较强的专业基础课程,在实施过程中以理论为主,共32学时。 二、课程具体内容及基本要求 (一)绪论(2学时) 1.基本要求 (1)掌握消息、信息和信号;噪声和干扰的基本概念 (2)掌握通信系统模型 (3)明确Shannon信息论要解决的中心问题 2.重点与难点 (1)重点:掌握通信系统模型的构成及其相应功能 (2)难点:理解Shannon信息论要解决的中心问题

信息论与编码试题集概要

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ???? 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ ) 三、计算题 某系统(7,4)码 )()(01201230123456c c c m m m m c c c c c c c ==c 其三位校验 位与信息位的关系为:

信息论与编码习题参考答案(全)

信息论与编码习题参考答案 第一章 单符号离散信源 1.1同时掷一对均匀的子,试求: (1)“2和6同时出现”这一事件的自信息量; (2)“两个5同时出现”这一事件的自信息量; (3)两个点数的各种组合的熵; (4)两个点数之和的熵; (5)“两个点数中至少有一个是1”的自信息量。 解: bit P a I N n P bit P a I N n P c c N 17.536log log )(361 )2(17.418log log )(362)1(36 662221111 616==-=∴====-=∴== =?==样本空间: (3)信源空间: bit x H 32.436log 36 62log 3615)(=??+?? =∴ (4)信源空间: bit x H 71.3636 log 366536log 3610 436log 368336log 366236log 36436log 362)(=??+?+?+??= ∴++ (5) bit P a I N n P 17.11136 log log )(3611333==-=∴==

1.2如有6行、8列的棋型方格,若有两个质点A 和B ,分别以等概落入任一方格,且它们的坐标分别为(Xa ,Ya ), (Xb ,Yb ),但A ,B 不能同时落入同一方格。 (1) 若仅有质点A ,求A 落入任一方格的平均信息量; (2) 若已知A 已落入,求B 落入的平均信息量; (3) 若A ,B 是可辨认的,求A ,B 落入的平均信息量。 解: bit a P a P a a P a I a P A i 58.548log )(log )()(H 48log )(log )(481 )(:)1(48 1 i i i i i ==-=∴=-=∴= ∑=落入任一格的概率 bit b P b P b b P b I b P A i 55.547log )(log )()(H 47 log )(log )(47 1 )(:B ,)2(48 1i i i i i ==-=∴=-=∴=∑=落入任一格的概率是落入任一格的情况下在已知 bit AB P AB P AB H AB P AB I AB P AB i i i i i i i 14.11)4748log()(log )()() (log )(47 1 481)()3(47481 =?=-=-=∴?=∑?=是同时落入某两格的概率 1.3从大量统计资料知道,男性中红绿色盲的发病率为7%,女性发病率为0.5%.如果你问一位男士:“你是否是红绿色盲?”他的回答可能是:“是”,也可能“不是”。问这两个回答中各含有多少信息量?平均每个回答中各含有多少信息量?如果你问一位女士,则她的答案中含有多少平均信息量? 解: bit w P w P w P w P m m P m I w P w I bit m P m P m P m P m bit m P m I bit m P m I n n y y n n y y n n y y n n y y 0454.0log99.5%99.5%-log0.5%-0.5% )(log )()(log )()(H % 5.99log )(log )(%5.0log )(log )(36 6.0log93%93%-log7%-7% )(log )()(log )()(H 105.0%93log )(log )(84.3%7log )(log )(: =??=?-?-=-=-=-=-==??=?-?-==-=-==-=-=平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于女: 平均每个回答信息量::回答“不是”的信息量回答“是”的信息量:对于男士

信息论与编码理论习题答案全解

信息论与编码理论习题答案全解

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少 信息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 信道 X Y 9,7,5,3,1=i 8,6,4,2,0=i √Χ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

相关文档