文档库 最新最全的文档下载
当前位置:文档库 › 信息论与编码期末考试题----学生复习用1

信息论与编码期末考试题----学生复习用1

信息论与编码期末考试题----学生复习用1
信息论与编码期末考试题----学生复习用1

信息论与编码复习题目

信息论复习提纲 第一章绪论 1.通信系统模型; 2.香浓信息的概念; 3.信源、信道、信源编码和信道编码研究的核心问题。 第二章离散信源及信源熵 1.离散信息量、联合信息量、条件信息量、互信息量定义; 2.信源熵、条件熵、联合熵定义; 3.平均互信息量定义、性质、三种表达式及物理意义,与其它熵的关系(不证明); 4.最大信源熵定理及证明; 5.本章所有讲过的例题; 第三章离散信源的信源编码 1.信息传输速率、编码效率定义; 2.最佳编码定理(即节定理:概率越大,码长越小;概率越小,码长越大)及证明; 3.码组为即时码的充要条件; 4.单义可译定理(Kraft不等式)及应用; 5.费诺编码方法、霍夫曼编码方法应用(二进制,三进制,四进制);6.本章所有讲过的例题; 第四章离散信道容量 1.利用信道矩阵计算信道容量(离散无噪信道、强对称离散信道、对称离

散信道、准对称离散信道); 2.本章讲过的例题; 第五章连续消息和连续信道 1.相对熵的定义; 2.均匀分布、高斯分布、指数分布的相对熵及证明; 3.峰值功率受限条件下的最大熵定理及证明,平均功率受限条件下的最大熵定理及证明,均值受限条件下的最大熵定理及证明; 4.香农公式及意义; 5.本章所有讲过的例题; 第六章差错控制 1.重量、最小重量、汉明距离、最小汉明距离、编码效率的定义;2.最小距离与检错、纠错的关系(即节定理); 3.本章所有讲过的例题; 第七章线性分组码 1.线性分组码定义; 2.线性分组码的最小距离与最小重量的关系及证明; 3.生成矩阵、一致校验矩阵定义,给出线性方程组求出生成矩阵和一致校验矩阵的标准形式,生成矩阵与一致校验矩阵的关系; 4.制作标准阵列并利用标准阵列译码; 5.本章所有讲过的例题; 第八章循环码 1.生成多项式的特点,有关定理(三定理1,定理2,定理3)及证明;

答案~信息论与编码练习

1、有一个二元对称信道,其信道矩阵如下图所示。设该信道以1500个二元符号/秒的速度传输输入符号。现有一消息序列共有14000个二元符号,并设在这消息中P(0)=P(1)=1/2。问从信息传输的角度来考虑,10秒钟内能否将这消息序列无失真地传送完? 解答:消息是一个二元序列,且为等概率分布,即P(0)=P(1)=1/2,故信源的熵为H(X)=1(bit/symbol)。则该消息序列含有的信息量=14000(bit/symbol)。 下面计算该二元对称信道能传输的最大的信息传输速率: 信道传递矩阵为: 信道容量(最大信息传输率)为: C=1-H(P)=1-H(0.98)≈0.8586bit/symbol 得最大信息传输速率为: Rt ≈1500符号/秒× 0.8586比特/符号 ≈1287.9比特/秒 ≈1.288×103比特/秒 此信道10秒钟内能无失真传输得最大信息量=10× Rt ≈ 1.288×104比特 可见,此信道10秒内能无失真传输得最大信息量小于这消息序列所含有的信息量,故从信息传输的角度来考虑,不可能在10秒钟内将这消息无失真的传送完。 2、若已知信道输入分布为等概率分布,且有如下两个信道,其转移概率矩阵分别为: 试求这两个信道的信道容量,并问这两个信道是否有噪声? 3 、已知随即变量X 和Y 的联合分布如下所示: 01100.980.020.020.98P ?? =?? ??11112222 1111222212111122221111222200000000000000000000000000000000P P ???????? ????==???? ????????11 2222111 22222log 4(00)1/()log 42/log 8(000000)2/(),H bit symbol H X bit symbol C C H bit symbol H X C =-===>=-==1解答:(1)由信道1的信道矩阵可知为对称信道故C 有熵损失,有噪声。(2)为对称信道,输入为等概率分布时达到信道容量无噪声

信息论与编码试题集与答案(2014)

一填空题 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y 获得的关于每个X 的平均信息量,也表示发X 前后Y 的平均不确定性减少的量,还表示通信前 后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大,最大熵值为。 3、香农公式为 为保证足够大的信道容量,可采用(1)用频带换信噪比; (2)用信噪比换频带。 4、只要,当N 足够长时,一定存在一种无失真编码。 5、当R <C 时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 6、1948年,美国数学家 香农 发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 7.人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 8.信息的 可度量性 是建立信息论的基础。 9.统计度量 是信息度量最常用的方法。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 n m 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。

信息论与编码试题集与答案(新)

1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 -1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = 0.5 ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 7. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 (√ ) 2. 线性码一定包含全零码。 (√ ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 (√ ) 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 (√ ) 8. 信道容量是信道中能够传输的最小信息量。 (×) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 10. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方 法叫做最佳译码。 (√ )

信息论与编码复习题,德州学院

一、填空 1. 信息论基础主要研究信息的测度、 信道容量 、 信源和信道编码理论 等问题。 2. 必然事件的自信息量是0,不可能事件的自信息量是无穷大。 3. 若把掷骰子的结果作为一离散信源,则信源熵为 2log 。 4. 当事件i x 和j y 彼此之间相互独立时,平均互信息量为 0 。 5. 若二维平稳信源的信源熵为3bit/sign ,则其平均符号熵为1.5bit/sign 。 6. 信源熵H(X)表示信源输出后每个消息所提供的 平均信息量 。 7. 布袋中有红白球各50只,若从中随意取出一只球,则判断其颜色所需的信息量为 1bit 。 8. 单符号离散信源是用随机变量来描述的,则多符号离散信源用随机矢量来描述。 9. 平均互信息量与信息熵、联合熵的关系是I(X;Y)=H(X)+H(Y)-H(XY) 。 10. 条件熵H (x|y )和无条件熵H (X )的关系是小于等于。 11. 对于理想信道,H (x|y )等于0 ;I (x ;y )= H (X )。 12. 若YZ 统计独立,则H (YZ )和H (Y )、H (Z )之间的关系是H (YZ )=H (Y )+H (Z ) 。 13. 对某含有7个消息的信源,其熵的最大值为2log 7,对应为等概分布分布。 14. 对某含有8个消息的信源,其熵的最大值为2log 8,对应为等概分布。 15. 对某含有6个消息的信源,其熵的最大值为2log 6,对应为等概分布。 16. 对某含有9个消息的信源,其熵的最大值为2log 9,对应为等概分布。 17. 十六进制脉冲所含的信息量是四进制脉冲的2 倍。 18. 八进制脉冲所含的信息量是二进制脉冲的3倍。 19. 十六进制脉冲所含的信息量是二进制脉冲的 4倍。 20. 离散平稳无记忆信源的N 次扩展信源的熵等于离散信源熵的N 倍。 21. 离散信源的熵越小,则该信源消息之间的平均不确定性越弱。 22. 对于r 进制树图,n 级节点的个数一般为n r 。 23. 信道中任一时刻输出符号仅统计依赖于对应时刻的输入符号,而与非对应时刻的输入符号及其它任何 时刻的输出符号无关,这种信道称之为 有干扰无记忆信道 。 24. 对于某一信源和某一符号集来说,若有一个唯一可译码,其平均码长小于所有其它唯一可译码的平均 码长,则称该码为紧致码或最佳码 。 25. 分组码是前向纠错码 ,它可以在无需重新发射的情况下检测出有限个错码,并加以纠正。 26. 信源编码的目的是提高通信的有效性。 27. 对于香农编码和哈夫曼编码,编码方法唯一的是香农编码 。 28. 若纠错码的最小距离为dmin,则可以纠错任意小于等于(dmin-1)/2个差错。 29. 线性分组码是同时具有线性特性和分组特性的纠错码。 30. 道的输出仅与当前输入有关,而与过去无关的信道称无记忆信道。 31. 唯一可译码存在的充要条件是 1 1i n k i m -=≤∑ 。 32. 编码分为信源编码和信道编码两种。 33. 信道无失真传输信息的条件是信息传输速率小于信道容量。 34. 对称信道中,信源的最佳分布为等概分布。 35. 信源编码和信道编码的最大区别在于信源编码需减少信源的冗余度,而信道编码需增加信源的冗余。 36. 信道编码的目的是提高通信的可靠性。 37. 离散信源分为离散无记忆信源 和 离散有记忆信源。

信息论与编码技术复习题2

《信息论与编码技术》复习题(2) 一、(32分)综合概念题 1. 什么是系统码和典型矩阵?写出常用的典型生成矩阵的两种形式。 2. 根据平均互信息定义的信道容量是指: a. 信道固定时的最大平均互信息; b. 信道固定时的最小平均互信息; c. 信源固定时的信道的最小平均互信息; d. 信源固定时的信道的最大平均互信息。 3. 什么是离散平稳信源? a. 任意两个不同时刻随机矢量的各维概率分布都相同; b. 任意两个不同时刻随机矢量的各维概率分布都不相同; c. 任意两个不同时刻随机矢量的各维概率密度函数都相同; d. 任意两个不同时刻随机矢量的各维概率密度函数都不相同。 4. 设计一个信道容量为22 kbit/s 的电话信道,若信道上的信号与噪声的平均功率比值为20 dB ,请问该信道的通频带应该为多少? 5. 设信源有q 个符号,则当信源 分布时熵最大,其最大值为 。 6. 当信道固定时,平均互信息是输入分布的 函数;当信源固定时,平均互信息是信道转移概率的 函数。 7. 信源编码是通过压缩信源冗余度来提高 ,而信道编码是增加冗余度来提高 。 8. 请判断具有下列码长{1, 2, 3, 3, 3, 4}的二进制码是否可构成唯一可译码。 二、(10分)设有对称信源(s = r = 4),信源X = {a 1, a 2, ..., a r } = {0, 1, 2, 3},信宿Y = { b 1, b 2, ..., b s } = {0, 1, 2, 3}。若失真度定义为:d (a i , b j ) = (b j -a i )2,求其失真矩阵D 。 三、(15分)某离散无记忆信源?? ????=??????4.06.0)(21a a x p X ,通过图1的信道传输,求: 图1 离散信道 (1)该信源中a 1和 a 2分别含有的自信息; (2)X 和Y 的信息熵; (3)信道的疑义度H (X|Y ); (4)接收到信息Y 后获得的平均互信息量。 四、(16分)设有一个离散无记忆信源?? ????=??????5.03.02.0)(321a a a x p X , (1)对该信源进行二元费诺编码,计算其平均码长和编码效率;

信息论与编码期中试卷及答案

信息论与编码期中试题答案 一、(10’)填空题 (1)1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 (2)必然事件的自信息是0 。 (3)离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的N倍。 (4)对于离散无记忆信源,当信源熵有最大值时,满足条件为__信源符号等概分布_。 (5)若一离散无记忆信源的信源熵H(X)等于2.5,对信源进行等长的无失真二进制编码,则编码长度至少为 3 。 二、(10?)判断题 (1)信息就是一种消息。(? ) (2)信息论研究的主要问题是在通信系统设计中如何实现信息传输、存储和处理的有效性和可靠性。(? ) (3)概率大的事件自信息量大。(? ) (4)互信息量可正、可负亦可为零。(? ) (5)信源剩余度用来衡量信源的相关性程度,信源剩余度大说明信源符号间的依赖关系较小。 (? ) (6)对于固定的信源分布,平均互信息量是信道传递概率的下凸函数。(? ) (7)非奇异码一定是唯一可译码,唯一可译码不一定是非奇异码。(? ) (8)信源变长编码的核心问题是寻找紧致码(或最佳码)。 (? ) (9)信息率失真函数R(D)是关于平均失真度D的上凸函数. ( ? ) 三、(10?)居住在某地区的女孩中有25%是大学生,在女大学生中有75%是身高1.6米以上的,而女孩中身高1.6米以上的占总数的一半。 假如我们得知“身高1.6米以上的某女孩是大学生”的消息,问获得多少信息量? 解:设A表示“大学生”这一事件,B表示“身高1.60以上”这一事件,则 P(A)=0.25 p(B)=0.5 p(B|A)=0.75 (5分) 故p(A|B)=p(AB)/p(B)=p(A)p(B|A)/p(B)=0.75*0.25/0.5=0.375 (4分) I(A|B)=-log0.375=1.42bit (1分)

信息论与编码试题-精选.

模拟试题一 一、概念简答题(共10题,每题5分) 1.简述离散信源和连续信源的最大熵定理。 2.什么是平均自信息(信息熵)?什么是平均互信息?比较一下两个概念的异同之处。 3.解释等长信源编码定理和无失真变长信源编码定理,说明对于等长码和变长码,最佳码的每符号平均码长最小为多少?编码效率最高可达多少? 4.解释最小错误概率译码准则,最大似然译码准则和最小距离译码准则,说明三者的关系。 5.设某二元码字C={111000,001011,010110,101110}, ①假设码字等概率分布,计算此码的编码效率? ②采用最小距离译码准则,当接收序列为110110时,应译成什么码字? 6.一平稳二元信源,它在任意时间,不论以前发出过什么符号,都按 发出符号,求

和平均符号熵 7.分别说明信源的概率分布和信道转移概率对平均互信息的影响,说明平均互信息与信道容量的关系。

8.二元无记忆信源,有求:(1)某一信源序列由100个二元符号组成,其中有m个“1”,求其自信息量?(2)求100个符号构成的信源序列的熵。 9.求以下三个信道的信道容量:

,,

10.已知一(3,1,3)卷积码编码器,输入输出关系为:

试给出其编码原理框图。 二、综合题(共5题,每题10分) 1.二元平稳马氏链,已知P(0/0)=0.9,P(1/1)=0.8,求: (1)求该马氏信源的符号熵。 (2)每三个符号合成一个来编二进制Huffman码,试建立新信源的模型,给出编码结果。 (3)求每符号对应的平均码长和编码效率。 2.设有一离散信道,其信道矩阵为,求:(1)最佳概率分布?

信息论与编码期末试卷

上海大学2011~2012学年度冬季学期试卷(A卷) 课程名:信息论与编码课程号: 07276033学分: 4 应试人声明: 我保证遵守《上海大学学生手册》中的《上海大学考场规则》,如有考试违纪、作弊行为,愿意接受《上海大学学生考试违纪、作弊行为界定及处分规定》的纪律处分。 应试人应试人学号应试人所在院系 题号 1 2 3 4 得分——————————————————————————————————————一:填空题(每空2分,共40分) 1:掷一个正常的骰子,出现‘5’这一事件的自信息量为________,同时掷两个正常的骰子,‘点数之和为5’这一事件的自信息量为___________.(注明物理单位) 2:某信源包含16个不同的离散消息,则信源熵的最大值为___________,最小值为_____________. 3:信源X经过宥噪信道后,在接收端获得的平均信息量称为______________. 4:一个离散无记忆信源输出符号的概率分别为p(0)=0.5,p(1)=0.25,p(2)=0.25,则由60个符号构成的消息的平均自信息量为__________. 5:信源编码可提高信息传输的___有效___性,信道编码可提高信息传输的___可靠_性. 6:若某信道的信道矩阵为 ? ? ? ? ? ? ? ? ? ? ? ? 001 100 010 100 ,则该信道为具有____归并____性能的信道 7:根据香农第一定理(定长编码定理)若一个离散无记忆信源X的信源熵为H(X),对其n个符号进行二元无失真编码时,其码字的平均长度必须大于____________ 8:若某二元序列是一阶马尔科夫链,P(0/0)=0.8,P(1/1)=0.7,则‘0’游程长度为4的概率为____________,若游程序列为312314,则原始的二元序列为_________. 9:若循环码的生成多项式为1 ) (2 3+ + =x x x g,则接收向量为(1111011)的伴随多项式为_______________ 10:对有32个符号的信源编4进制HUFFMAN码,第一次取_______个信源进行编码. 11:若一个线性分组码的所有码字为:00000,10101,01111,11010,则该码为(____,_____),该码最多可以纠正_______位错误,共有________陪集. 12:码长为10的线性分组码若可以纠正2个差错,其监督吗至少有__5____位. 13:(7,4)汉明码的一致校验矩阵为 ? ? ? ? ? ? ? ? ? ? 1,0,1,0,1, ,1 0,1,1,0,0, ,1 0,0,0,1,1, ,1 3 2 1 r r r ,则3 2 1 r r r 为__________. _______________________________________________________________ 草稿纸 成绩

信息论与编码期末考试题----学生复习用

《信息论基础》参考答案 一、填空题 1、信源编码的主要目的是提高有效性,信道编码的主要目的是提高可靠性。 2、信源的剩余度主要来自两个方面,一是信源符号间的相关性,二是信源符号的统计不均匀性。 3、三进制信源的最小熵为0,最大熵为32log bit/符号。 4、无失真信源编码的平均码长最小理论极限制为信源熵(或H(S)/logr= H r (S))。 5、当R=C 或(信道剩余度为0)时,信源与信道达到匹配。 6、根据信道特性是否随时间变化,信道可以分为恒参信道和随参信道。 7、根据是否允许失真,信源编码可分为无失真信源编码和限失真信源编码。 8、若连续信源输出信号的平均功率为2σ,则输出信号幅度的概率密度是高斯分布或正态分布或()22 212x f x e σπσ -= 时,信源 具有最大熵,其值为值21 log 22 e πσ。 9、在下面空格中选择填入数学符号“,,,=≥≤?”或“?” (1)当X 和Y 相互独立时,H (XY )=H(X)+H(X/Y)=H(Y)+H(X)。 (2)()() 1222H X X H X =≥()()12333 H X X X H X = (3)假设信道输入用X 表示,信道输出用Y 表示。在无噪有损信道中,H(X/Y)> 0, H(Y/X)=0,I(X;Y)

信息论与编码期末复习

2011级信息论期末复习 一、单项选择题 1. 十六进制脉冲所含信息量是四进制脉冲的( b )倍。 A 、1 B 、4 C 、3 D 、2 2. 设信道的输入X 的符号个数为n ,输出Y 的符号个数为m ,对于具有归并功能的无噪信道(即m

信息论与编码复习资料(新)

“信息论与编码”复习 1.消息、信号、信息的含义、定义及区别。 信息是指各个事物运动的状态及状态变化的方式。 消息是指包含信息的语言,文字和图像等。 信号是消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 信号:具体的、物理的 消息:具体的、非物理的 信息:非具体的、非物理的 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式。同样,同一类型信号或消息也可以代表不同内容的信息 2.信息的特征与分类。 1接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4信息是可以量度的,信息量有多少的差别。 31948年,Shannon提出信息论,“通信中的数学理论”—现代信息论的开创性的权威论文,为信息论的创立作出了独特的贡献。 4.通信系统的物理模型(主要框图),各单元(方框)的主要功能及要解决的主要问题。 信源的核心问题是它包含的信息到底有多少,怎样将信息定量地表示出来,即如何确定信息量。 信宿需要研究的问题是能收到或提取多少信息。 信道的问题主要是它能够传送多少信息,即信道容量的多少。

5.通信的目的?要解决的最基本问题?通信有效性的概念。提高通信有效性的最根本途径?通信可靠性的概念。提高通信可靠性的最根本途径?通信安全性的概念,提高通信安全性的最根本途径? 通信系统的性能指标主要是有效性,可靠性,安全性和经济性。通信系统优化就是使这些指标达到最佳。 从提高通信系统的有效性意义上说,信源编码器的主要指标是它的编码效率,即理论上所需的码率与实际达到的码率之比。提高通信有效性的最根本途径是信源编码。减少冗余。 提高可靠性:信道编码。增加冗余。 提高安全性:加密编码。 6.随机事件的不确定度和它的自信息量之间的关系及区别?单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义? 信源符号不确定度:具有某种概率的信源符号在发出之前,存在不确定度,不确定度表征该符号的特性。符号的不确定度在数量上等于它的自信息量,两者的单位相同,但含义不同: ?不确定度是信源符号固有的,不管符号是否发出; ?自信息量是信源符号发出后给予收信者的; ?为了消除该符号的不确定度,接受者需要获得信息量。 自信息量 8.信息量的性质?含义?分别从输入端、输出端和系统总体来理解互信息量的含义。 自信息量指的是该符号出现后,提供给收信者的信息量。 9. 各种熵(信源熵,条件熵,联合熵(共熵),等)的含义及其关系。 信源熵:

信息论与编码试题集与答案(新)

" 1. 在无失真的信源中,信源输出由 H (X ) 来度量;在有失真的信源中,信源输出由 R (D ) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后_____加密____编码,再______信道_____编码,最后送入信道。 3. 带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公式是log(1)C W SNR =+;当归一化信道容量C/W 趋近于零时,也即信道完全丧失了通信能力,此时E b /N 0为 dB ,我们将它称作香农限,是一切编码方式所能达到的理论极限。 4. 保密系统的密钥量越小,密钥熵H (K )就越 小 ,其密文中含有的关于明文的信息量I (M ;C )就越 大 。 5. 已知n =7的循环码4 2 ()1g x x x x =+++,则信息位长度k 为 3 ,校验多项式 h(x)= 3 1x x ++ 。 6. ? 7. 设输入符号表为X ={0,1},输出符号表为Y ={0,1}。输入信号的概率分布为p =(1/2,1/2),失真函数为d (0,0) = d (1,1) = 0,d (0,1) =2,d (1,0) = 1,则D min = 0 ,R (D min )= 1bit/symbol ,相应的编码器转移概率矩阵[p(y/x )]=1001?? ???? ;D max = ,R (D max )= 0 ,相应的编码器转移概率矩阵[p(y/x )]=1010?? ? ??? 。 8. 已知用户A 的RSA 公开密钥(e,n )=(3,55),5,11p q ==,则()φn = 40 ,他的秘密密钥(d,n )=(27,55) 。若用户B 向用户A 发送m =2的加密消息,则该加密后的消息为 8 。 二、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 ( ) 2. 线性码一定包含全零码。 ( ) 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (×) 4. " 5. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (×) 6. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度L 的增大而增大。 (×) 7. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量X ,当它是正态分布时具 有最大熵。 ( ) 8. 循环码的码集中的任何一个码字的循环移位仍是码字。 ( ) 9. 信道容量是信道中能够传输的最小信息量。 (×) 10. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (×) 11. ! 12. 在已知收码R 的条件下找出可能性最大的发码i C 作为译码估计值,这种译码方

信息论与编码复习总结

信息论与编码复习总结 题型:填空、解答、计算 1、编码:无失真与限失真信源编码定理 编码分为信源编码和信道编码,其中信源编码又分为无失真和限失真 三大定理: 无失真信源编码定理(第一极限定理)(可逆) 信道编码定理(第二极限定理) 限失真信源编码定理(第三极限定理)(不可逆) Shannon(香农)信息论:在噪声环境下,可靠地、安全地、有效地传送信息理论。通信系统模型方框图: 信道的种类很多,如电信中常用的架空明线、同轴电缆、波导、光纤、传输电磁波的空间等都是信道。也可以从信道的性质或其传送的信号情况来分类,例如:无干扰信道和有干扰信道、恒参信道和变参信道、离散信道(Discrete Channel)和连续信道(Continuous Channel)、单用户信道和多用户信道等。 信源的描述:通过概率空间描述

平稳包含齐次,而齐次不包含平稳(重要,第二章计算题) 定义:若齐次马尔可夫链对一切i,j存在不依赖于i的极限,则称其具有遍历性,p j称为平稳分布(如下) 设有一齐次马尔可夫链,其状态转移矩阵为P,其稳态分布为w j=p(s j) 自信息量的特性: p(x i)=1,I(x i)=0; p(x i)=0,I(x i)=∞;非负性;单调递减性;可加性;定义:联合概率空间中任一联合事件的联合(自)信息量为: 定义:对于给定离散概率空间表示的信源,在出现y事件后所提供有关事件x的信息量定义互信息,单位为比特

信道模型:二进制离散信道BSC;离散无记忆信道DMC;波形信道 信源编码器的目的:是使编码后所需的信息传输率R尽量小。 信源编码:主要任务就是减少冗余,提高编码效率。

信息论与编码”期末复习题

信研10“信息论与编码”期末复习题 1.信息论基础(狭义信息论/景点信息论/香农信息论)主要研究的三个方面是什么? 信息测度、信道容量、信息率失真函数 2.全信息同时考虑的三个方面的内容是什么? 语法信息、语义信息、语用信息 3.研究信息论的目的是什么? 寻找信息传输过程的共同规律,以提高信息传输的可靠性、有效性、保密性等,已达到信息传输系统的最优化 4.消息、信号、信息的含义、定义及区别。 信息--事物运动的状态及状态变化的方式。 消息--包含信息的语言,文字和图像等。 信号--消息的物理体现。 消息是信息的数学载体、信号是信息的物理载体 同一信息,可以采用不同形式的物理量来载荷,也可以采用不同的数学描述方式同一类型信号或消息也可以代表不同内容的信息 5.信息的特征与分类。 1.接收者在收到信息之前,对其内容是未知的,所以信息是新知识,新内容; 2.信息是能使认识主体对某一事物的未知性或不确定性减少的有用知识; 3.信息可以产生,也可以消失,同时信息可以被携带,被存储及处理; 4.信息是可以量度的,信息量有多少的差别 6.狭义信息论、广义信息论、一般信息论研究的领域。 狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。 广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。 概率信息:信息表征信源的不定度,但它不等同于不定度,而是为了消除一定的不定度必须获得与此不定度相等的信息量

信息论与编码试题集与答案

一填空题(本题20分,每小题2分) 1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H 。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 212。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具有最大值。 23、对于限平均功率的一维连续信源,当概率密度 高斯分布 时,信源熵有最大值。 24、对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P 和信源的熵功

信息论与编码期末考试题(全套)

(一) 一、判断题共10 小题,满分20 分、 1、当随机变量与相互独立时,条件熵等于信源熵、( ) 2、由于构成同一空间得基底不就是唯一得,所以不同得基底或生成矩阵有可能生成同一码集、( ) 3、一般情况下,用变长编码得到得平均码长比定长编码 大得多、( ) 4、只要信息传输率大于信道容量,总存在一种信道编译 码,可以以所要求得任意小得误差概率实现可靠得通 信、 ( ) 5、各码字得长度符合克拉夫特不等式,就是唯一可译码存在得充分与必要条件、() 6、连续信源与离散信源得熵都具有非负性、( ) 7、信源得消息通过信道传输后得误差或失真越大,信宿收到消息后对信源存在得不确 定性就越小,获得得信息量就越小、 8、汉明码就是一种线性分组码、( ) 9、率失真函数得最小值就是、( ) 10、必然事件与不可能事件得自信息量都就是、( ) 二、填空题共 6 小题,满分20 分、 1、码得检、纠错能力取决 于、 2、信源编码得目得就是 ;信道编码 得目得就是、 3、把信息组原封不动地搬到码字前位得码就叫 做、 4、香农信息论中得三大极限定理就 是、、、 5、设信道得输入与输出随机序列分别为与,则成立得 条件、 6、对于香农-费诺编码、原始香农-费诺编码与哈夫曼编码,编码方法惟一得就是、 7、某二元信源,其失真矩阵,则该信源得=、 三、本题共 4 小题,满分50 分、 1、某信源发送端有2种符号,;接收端有3种符号,转移概率矩阵为、 (1)计算接收端得平均不确定度; (2)计算由于噪声产生得不确定度; (3)计算信道容量以及最佳入口分布、 2、一阶马尔可夫信源得状态转移图如右图所示, 信源得符号集为、 (1)求信源平稳后得概率分布; (2)求此信源得熵; (3)近似地认为此信源为无记忆时,符号得概率分布为平 稳分布、求近似信源得熵并与进行比较、 4、设二元线性分组码得生成矩阵为、 (1)给出该码得一致校验矩阵,写出所有得陪集首与与之相 对应得伴随式; (2)若接收矢量,试计算出其对应得伴随式并按照最小距离 译码准则 试着对其译码、 (二) 一、填空题(共15分,每空1分) 1、信源编码得主要目得就是 ,信道编码得主要目得就是。 2、信源得剩余度主要来自两个方面,一就是 ,二就是。 3、三进制信源得最小熵为 ,最大熵为。 4、无失真信源编码得平均码长最小理论极限制为。 5、当时,信源与信道达到匹配。 6、根据信道特性就是否随时间变化,信道可以分为与。 7、根据就是否允许失真,信源编码可分为与。 8、若连续信源输出信号得平均功率为,则输出信号幅度得概 率密度就是时,信源具有最大熵,其值为值。 9、在下面空格中选择填入数学符号“”或“” (1)当X与Y相互独立时,H(XY) H(X)+H(X/Y) H(Y)+H(X)。 (2) (3)假设信道输入用X表示,信道输出用Y表示。在无噪有损 信道中,H(X/Y) 0, H(Y/X) 0,I(X;Y) H(X)。 三、(16分)已知信源 (1)用霍夫曼编码法编成二进制变长码;(6 分) (2)计算平均码长;(4分) (3)计算编码信息率;(2分)

信息论与编码试题集与复习资料新

1. 在无失真的信源中,信源输出由 R(D) 来度量。 2. 要使通信系统做到传输信息有效、可靠和保密,必须首先 信源 编码, 然后 一加密_ 编码,再 _信道. 编码,最后送入信道。 3?带限AWGN 波形信道在平均功率受限条件下信道容量的基本公式,也就是有名的香农公 式是C Wlog(1 SNR);当归一化信道容量 C/W 趋近于零时,也即信道完全丧失了通 信能力,此时E b /N o 为-1.6 dB ,我们将它称作香农限,是一切编码方式所能达到的理论 极限。 2 x x 1,则信息位长度k 为_3_,校验多项式 6. 设输入符号表为 X = {0 , 1},输出符号表为 Y = {0,1}。输入信号的概率分布为 p = (1/2, 1/2),失真函数为 d(0, 0) = d(1, 1) = 0 , d(0, 1) =2 , d(1 , 0) = 1,则 D min = _0_, R(D min ) 1 0 [p(y/x)] = ; D max = 0.5 , R(D max )= 0 1 1 L ,相应的编码器转移概率矩阵[p(y/x)] = 1 7. 已知用户 A 的RSA 公开密钥(e,n)=(3,55), p 5,q 密钥(d,n) = (27,55)。若用户B 向用户A 发送m=2的加密消息,则该加密后的消息为 、判断题 1. 可以用克劳夫特不等式作为唯一可译码存在的判据。 () 2. 线性码一定包含全零码。 () 3. 算术编码是一种无失真的分组信源编码,其基本思想是将一定精度数值作为序列的 编码,是以另外一种形式实现的最佳统计匹配编码。 (X) 4. 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。 (X) 5. 离散平稳有记忆信源符号序列的平均符号熵随着序列长度 L 的增大而增大。 (X) 6. 限平均功率最大熵定理指出对于相关矩阵一定的随机矢量 X ,当它是正态分布时具 有最大熵。 () 7. 循环码的码集中的任何一个码字的循环移位仍是码字。 () 8. 信道容量是信道中能够传输的最小信息量。 (X) 9. 香农信源编码方法在进行编码时不需要预先计算每个码字的长度。 (X) 10. 在已知收码R 的条件下找出可能性最大的发码 C i 作为译码估计值,这种译码方 H(X) 来度量;在有失真的信源中,信源输出由 4.保密系统的密钥量越小,密钥熵 C)就越大。 H(K)就越 小,其密文中含有的关于明文的信息量 I(M ; 信道 5. 已知n = 7的循环码g(x) 3 h(x)=—x x 1 x 4 1bit/symbol ,相应的编码器转移概率矩阵 11,则(n) 40 ,他的秘密

(完整版)信息论与编码习题参考答案

1.6为了使电视图象获得良好的清晰度和规定的对比度,需要用5×105个像素和10个不同的亮度电平,并设每秒要传送30帧图象,所有的像素是独立的,且所有亮度电平等概出现。求传输此图象所需要的信息率(bit/s )。 解: bit/s 104.98310661.130)/)(()/(R bit/frame 10661.1322.3105)(H 105)(H bit/pels 322.310log )(log )()(H 76650510 10?=??=?=∴?=??=??====∑=frame bit X H s frame r x X a p a p x i i i 所需信息速率为:每帧图像的熵是:每个像素的熵是:,由熵的极值性: 由于亮度电平等概出现 1.7设某彩电系统,除了满足对于黑白电视系统的上述要求外,还必须有30个不同的色彩度。试证明传输这种彩电系统的信息率要比黑白系统的信息率大 2.5倍左右。 证: . 5.2,,5.25.2477.210 log 300log )(H )(H pels /bit 300log )(log )()(H bit 3001030,10,,3001300 11倍左右比黑白电视系统高彩色电视系统信息率要图形所以传输相同的倍作用大信息量比黑白电视系统彩色电视系统每个像素每个像素的熵是:量化 所以每个像素需要用个亮度每个色彩度需要求下在满足黑白电视系统要个不同色彩度增加∴≈====∴=?∑=x x b p b p x i i i Θ 1.8每帧电视图像可以认为是由3×105个像素组成,所以像素均是独立变化,且每像素又取128个不同的亮度电平,并设亮度电平是等概出现。问每帧图像含有多少信息量?若现在有一个广播员,在约10000个汉字中选1000个字来口述这一电视图像,试问若要恰当地描述此图像,广播员在口述中至少需要多少汉字? 解: 个汉字 最少需要数描述一帧图像需要汉字每个汉字所包含信息量每个汉字所出现概率每帧图象所含信息量556 6 5 5 10322.6/10322.61 .0log 101.2)()()()(,log H(c):1.010000 1000 symble /bit 101.2128log 103)(103)(: ?∴?=-?=≥ ≤-=∴== ?=??=??=frame c H X H n c nH X H n p p x H X H 1.9 给 定 一 个 概 率 分 布 ) ,...,,(21n p p p 和一个整数m , n m ≤≤0。定义 ∑=-=m i i m p q 1 1,证明: )log(),,...,,(),...,,(2121m n q q p p p H p p p H m m m n -+≤。并说明等式何时成立? 证: ∑∑+==- -=>-=<-=''-=''∴>- =''-=''>-=n m i i i m i i i n p p p p p p p H x x x x f x e x x x f x x e x x x f x x x x f 1 121log log ),...,,( )0(log )( 0log )log ()(0 log )log ()()0(log )(ΘΘ又为凸函数。即又为凸函数,如下:先证明 时等式成立。 当且仅当时等式成立。当且仅当即可得: 的算术平均值的函数,函数的平均值小于变量由凸函数的性质,变量n m m m m m n m m m i i i m m m m m m i i i n m i i i m i i i n n m m m m m n m i i i m m n m i i n m i i n m i i n m i i n m i i i p p p m n q q p p p H p p p H q q p p q p p p H m n q q q p p p p p p p p p H p p p m n q q q p p m n q q m n p m n p m n m n p f m n m n p f m n p p ===-+≤--=-+--≤- -=∴===-+-≤- --=----=---≤---=- ++==+==+++=+=+=+=+=+=∑∑∑∑∑∑∑∑∑ ∑...)log(),,...,,(),...,,(log log ),,...,,() log(log log log log ),...,,(...) log(log log log log )()()() ()(log 2121211 211 1 1 21211 1111 1 ΘΘ 2.13把n 个二进制对称信道串接起来,每个二进制对称信道的错误传输概率为p(0

相关文档
相关文档 最新文档