文档库 最新最全的文档下载
当前位置:文档库 › 香农信息论的基本理论探究

香农信息论的基本理论探究

香农信息论的基本理论探究
香农信息论的基本理论探究

香农信息论的基本理论探究

摘要:信息是自从人类出现以来就存在于这个世界上了,天地万物,飞禽走兽,以

及人类的生存方式都离不开信息的产生和传播。

人类每时每刻都在不停的接受信息,

传播信

息,以及利用信息。从原来的西汉时期的造纸,到近代西方的印刷术,以及现在的计算机,信息技术在人类历史的进程当中随着生产力的进步而发展。

而信息理论的提出却远远落后于

信息的出现,

它是在近代才被提出来而形成一套完整的理论体系。

信息论的主要基本理论包

括:

信息的定义和度量;

各类离散信源和连续信源的信息熵;

有记忆、

无记忆离散和连续信

道的信道容量;无失真信源编码定理。

【关键词】

平均自信息

信道容量

信源编码

霍夫曼码

一.信息的度量

在各种通信系统的信源当中,

离散随机信源是一类最基本的信源,

信源输出是单个的符

号的消息,

并且消息之间是两两互不相容的。

假设有个一维离散无记忆信源,

它的概率分布

函数决定了他所携带的信息。该信源空间中共有

q

个符号,每个符号发生的概率是

Pi,

那么

发出某个符号所携带的信息量是

-logPi

,

由于概率是在

1

之间的,

使得每一事件的信息

量是非负的。如果该事件发生的概率是

,或者是

1

,则表明该事件一定不会发生或者一定

会发生。那么他所携带的信息量是

。从理论上讲,该事件发生的概率越小,那么它的不确

定性也就越大,

它所携带的信息量也就越大。

该事件发生的概率越大,

它所携带的信息量也

就越大。

这也是人们为什么一听到一件不可思议的事情发生了之后,

会感到非常惊讶的原因。

对于通信系统的信源来说,

它不会仅仅只发出一个消息,

这个消息发生的概率也不是

1

必然会有别的可能的情况发生。那么对于一个信源来讲,它所包含的信息量是什么样子的,我们可以用平均自信息量来度量,

即对每个事件各自所携带的信息量做一个加权平均。

即可

以得到信源的平均自信息量。

信息熵的定义如下:

)

(

log

)

(

)

(

1

log

)

(

1

1

i

q

i

i

a

P

a

P

a

P

E

x

H

=

-

=

?

?

?

?

?

?

=

平均自信息量也称为信息熵。信息熵是从平均意义上来表征信源的总体信息测度的。

对于某特定的信源,

它的信息熵是一个确定的数值。

不同的信源因为其概率分布不同,

它的

熵也不同。

信息熵具有一些基本的性质,比如,对称性,确定性,非负性,扩展性,可加性等等。

这里面有一个最大离散熵定理,表明

:

离散信源情况下,对于具有

q

个符号的离散信源,只

有在

q

个信源符号等可能出现的情况下,

信源熵才能达到最大值,

这样也表明等概率分布信

源的平均不确定性为最大。这个定理为我们后面研究有噪信道编码定理提供了有力的依据。离散平稳信源是一种非常重要的信源模型。如果不同时刻信源输出符号的概率分布完

全相同,则称为一维离散平稳信源。一维离散平稳信源无论在什么时候均按

P(X)

的概率分

布输出符号。

最简单的离散平稳信源就是二维离散平稳信源。

二维离散平稳信源就是信源输

出的随机序列…,

X1,X2,

,Xi

,…,满足其一维和二维概率分布与时间起点无关。二维离散平稳信源的联合熵

2

1

2

1

1

(

)

(

)

log(

)

q

q

i

j

i

j

i

j

H

X

X

P

a

a

a

a

=

=

=

-

此联合熵表明原来信源

X

输出任意一对可能的消息的共熵,

即描述信源

X

输出长度为

2

的序列的平均不确定性,或者说所含有的信息量。可以用

1

1

2

2

(

)

H

X

X

作为二维离散平稳信

X

的信息熵的近视值。

除了平稳离散信源之外,还存在着非平稳离散信源。在非平稳离散信源中有一类特殊的信源。

这种信源输出的符号序列中符号之间的依赖关系是有限的,

这种关系满足我们在随

机过程中讲到的马尔可夫链的性质,

因此可用马尔可夫链来处理。

马尔可夫信源是一种非常

重要的非平稳离散信源。那么马尔可夫信源需要满足一下两个条件:

1

某一时刻信源符号的输出只与此刻信源所出的状态有关,而与以前的状态及以

前的输出符号都无关。

2

信源某

l

时刻所处的状态由当前的输出符号和前一时刻(

l

-1

)信源的状态唯一

决定。

马尔可夫信源的输出的符号是非平稳的随机序列,它们的各维概率分布随时间的推移可能会改变。第

l

时间信源输出什么符号,不但与前一(

l

-1

)时刻信源所处的状态和所输

出的符号有关,

而且一直延续到与信源初始所处的状态和所输出的符号有关。

一般马尔可夫

信源的信息熵是其平均符号熵的极限值,它的表达式就是:

1

2

1

(

)

lim

(

)

N

N

H

H

X

H

X

X

X

N

=

=

Λ

.

二.平均互信息

信道的任务是以信号方式传输信息和存储信息的。我们知道信源输出的是携带着信息的消息。

消息必须要转换成能在信道中传输或存储的信号,

然后通过信道传送到收信者。

且认为噪声或干扰主要从信道中引入。

信道根据用户的多少,

可以分为两端信道,

多端信道。

根据信道输入端和输出端的关联,

可以分为无反馈信道,

反馈信道。

根据信道的参数与时间

的关系信道可以分为固定参数信道,

时变参数信道。

根据输入和输出信号的统计特性可以分

为离散信道,连续信道,半离散或半连续信道和波形信道。为了能够引入平均互信息量的定义,

首先要看一下单符号离散信道的数学模型,

在这种

信道中,输出变量和输入变量的传递概率关系:

(

|

)

(

|

)

(

|

)(

1,

2,

,

;

1,

2,

,

)

j

i

j

i

P

y

x

P

y

b

x

a

P

b

a

r

j

s

=

=

=

=

=

=

Λ

Λ

传递概率所表达的意思是,在信道当输入符号为

a

,信道的输出端收到

b

的概率。

我们知道,

信道输入信源

X

的熵是表明接收端收到符号之前信源的平均不确定性,可以

称为先验熵。

如果信道中无干扰噪声,

信道输出符号与输出符号一一对应,

那么,

接受到传

送过来的符号就消除了对发送符号的先验不确定性。但是我们实际的生活中一般信道中有干

扰存在,

接收到输出后对发送的是什么符号仍有不确定性。

表示在输出端收到输出变量

Y

符号后,对于输入端的变量

X

尚存在的平均不确定性。即信道疑义度:

,

1

(

|

)

(

)

g

(

|

)

X

Y

H

X

Y

P

x

y

P

x

y

=

这个信道的疑义度是由于干扰噪声引起的。

前面我们看到了输出端接收到输出符号前关

于变量

X

的先验熵,以及接收到输出符号后关于输入变量

X

的平均不确定性,通过信道传

输消除了一定的不确定性,获得了一定的信息。那么定义单符号信道的平均互信息量(

;

)

(

)

(

|

)

I

X

Y

H

X

H

X

Y

=

-

平均互信息是表示了收到输出

Y

的前,

后关于

X

的不确定性的消除量,

就是在接到了输

出符号之后,

对输入端输入什么符号得到了更多的信息。

平均互信息量具有一些基本的特征:

第一点,

非负性。

我们通过一个信道获得的平均信息量不会是负值。

也就是说,

观察一个信

道的输出,

从平均的角度来看总能消除一些不确定性,

接收到一定的信息。

除非信道输入和

输出是统计独立时,

才接收不到任何信息。

因为在这样的统计独立信道中,

传输的信息全部

损失在信道中,

以致没有任何信息传输到终端,

但也不会失去已经知道了的信息。

第二,

均互信息量的大小不大于输入输出任一者的信息熵。即从一事件提取关于另一事件的信息量,

最多只有另一事件的信息熵那么多,

不会超过该事件自身所含有的信息量。

第三点是平

均互信息的交互性。

第四,

平均互信息的凸状性,

平均互信息只与信源的概率分布和信道的

传递有关,

因此对于不同信源和不同信道得到的平均互信息是不同的。

当固定某信道时,

择不同的信源与信道连接,

在信道输出端接收到每个符号后获得的信息量是不同的。

而且对

于每一个固定信道,一定存在有一种信源,是输出端获得的信息量为最大。后来,

我们学习到信道容量的一般计算方法。

其中最重要的是对称离散信道的信道容量

的计算。

信道矩阵中每一行和每一列分别由同一概率分布集中的元素不同排列组成的,这就

是对称离散信道。计算对称离散信道的信道容量公式是:

'

'

'

1

2

log

(

,

,

,

)(

/

)

s

C

s

H

p

p

p

=

-

其中,

等号右边的第一项是输出符号的最大信息熵,

第二项是信道矩阵分布行矢量的熵

函数。比方说,前面提到的,二元对称信道的信道容量就是

1

(

)(

/

)

C

H

p

=

-

除了前面论述到得单符号离散信道之外,

还有独立并联信道和串联信道。

一般的独立并

联信道如下:

1

独立并联信道的信道容量不大于各个信道的信道容量之和,只有当输入符号

i

X

相互独

立,且输入符号

i

X

的概率分布达到各信道容量的最佳输入分布时,独立并联信道的信道容

量才等于个信道容量之和。

串联信道是一种比较常见的信道模型,

比如微波中继竭力通信就是一种串联信道,

还有,

在信道输出端对接受到的信号或数据进行适当的处理,

这种处理称为数据处理。

数据处理系

统一般可以单程是一种信道,它和前面传输数据的信道是串接的关系。串联信道中X

Y

Z

有如下关系:

信道

1

信道

2

N

4

对于串接信道

X

Y

Z

(

;

)

(

;

)

I

XY

Z

I

Y

Z

当且仅当

P(z|xy)=P(z|y)

时,等式成立。

串联信道的信道容量与串接的信道数有关,

串接的无源数据处理信道越多,

其信道容量

可能会越小,当串接信道数无限大时,信道容量就有可能接近零。

三.连续信道

前面讲到的离散信道其输出的消息是属于时间离散、

取值有限或可数的随机序列,

其统

计特性可以用联合概率分布来描述。

但是语音信号,

电视信号都是连续波形信号。

在某一固

定的时刻,

这样的可能输出即是连续的又是随机的,

我们称之为随机波形信源。

它是用随机

过程描述输出消息的信源。用连续随机变量描述输出消息的信源就是连续信源。连续信源的熵的表达式如下:

x

p

x

p

x

h

R

?

-

=

)

(

log

)

(

)

(

我们可以看到,

连续信源的熵的定义与离散信源熵的定义方式一样,

只不过离散情况下

是每个信源符号的信息量的加权平均,

而连续信源的熵也是某一时刻信源输出为某值的期望

值。

连续信源也可以称之为差熵。

接下来由两种特殊连续信源的差熵需要计算。

均匀分布连

续信源的熵值,和高斯信源的熵值。

连续信源的差熵具有以下的一些基本性质:

可加性,

上凸性,

可负性,

变换性,

极值性。

在不同的情况下,

连续信源中的差熵具有极大值,

有下面两种情况下连续信道存在最大的差

熵:

1

峰值功率受限条件下信源的最大熵。若信源输出的幅度被限定在[

]

a

b

区域

内,则当输出信号的概率密度是均匀分布时,这个时候信源具有最大熵,为log(

)

b

a

-

2

平均功率受限条件下信源的最大熵。若一个连续信源输出的平均功率被限定为

P

那么其输出信号幅度的概率密度分布时高斯分布时,

信源有最大的熵,

1

log

2

2

eP

π

也就是说,

当连续信源输出信号的平均功率受限时,

只有信

号的统计特性与高斯噪声统计特性一样时,才会有最大的熵值。

和离散信道一样,

对于固定的连续信道和波形信道都有一个最大的信息传输率,

称之为

信道容量。

它是信道可靠传输的最大信息传输率。

对于不同的连续信道和波形信道,

它们存

在的噪声形式不同,

信道带宽及对信号的各种限制不同,

所以具有不同的信道容量。

我们先

来讨论单符号高斯加性信道的信道容量,

单符号高斯加性信道是指信道的输入和输出都是取

值连续的一维随机变量,而加入信道的噪声是一维高斯加性噪声。它的信道容量表达式为:1

log(1

)

2

s

n

P

C

P

=

+

其中,

i

n

P

是输入信号

X

的平均功率,

n

P

是高斯噪声的平均功率。只有当信道的输入信

号是均值为零,平均功率为

s

P

高斯分布的随机变量时。信息传输率才能达到这个最大值。

注水定理是对于多维无记忆高斯加性连续信道的个信道功率分配问题而提出来的,

对于

多维的情况,

因为输入的是平稳随机序列,

输出的也是平稳随机序列,

我们可以将它等价为

N

个独立并联加性信道。假如各单元时刻上的噪声仍是均值为零,方差为不同的

i

n

P

的高斯

5

噪声,

单输入信号的总体平均功率受限,

此时我们可以使用拉格朗日乘子法莱确定平均功率

的分配。

N

个独立并联的组合高斯加性信道,

各分信道的噪声平均功率不相等时,

为了达

到最大的信息传输率,

要对输入信号的总能量适当地进行分配。

如果该信道分得的平均功率

小于次信道的噪声功率,

那么就不能分配能量,

使之不传送任何信息;

如果信道分得的平均

功率要大于信道的噪声功率,就在这些信道上分配能量,使

i

i

s

n

P

P

υ

+

=

,这样得到的信道

容量为最大。

我们总是希望在噪声大的信道少传送或甚至不传送信息,

而在噪声小的信道多

传送些信息。

【论文小结】

香农对信息所作的科学的定义是在通信系统框架的基础上产生的。在香农看来,

在通信系统的传输过程当中,

收信者在收到消息以前是不知道消息的具体内容的。

在收

到消息以前,

收信者无法判断发送者将会发来描述何种事物运动状态的的具体消息,

它也无

法判断是描述这种状态还是那种状态。

或者,

由于干扰的存在,

它也不能断定所得到的消息

是否正确和可靠。这样,收信者存在“不知”

“不确定性”

。那么通过消息的传递,收信者

知道了消息的具体内容,原先的不确定性就部分的或者全部消除了。因此,信息传输之后,对于收信者来讲,

减少了很多的不确定性和疑义度。

所以,

通信过程是一种消除不确定性的

过程。

不确定性的消除,

就获得了信息。

如果原先的不确定性全部消除了,

就获得了全部的

信息;

若消除了部分的不确定性,

就获得了部分的信息;

若原来的不确定性没有任何的消除,

就没有获得任何信息;

所以,

香农所定义的信息是事物运动状态或存在方式的不确定性的描

述。

参考文献

:

1

陈运﹒信息论与编码(第二版)﹒北京:电子工业出版社,

2007

2

傅祖芸﹒信息论——基础理论与应用(第二版)﹒北京:电子工业出版社,

2008

3

周炯磐

,丁晓明﹒信源编码原理﹒北京:人民邮电出版社,

1996

4

张宗橙﹒纠错编码原理和应用﹒北京:电子工业出版社,

2003

信息论复习知识点汇总

1、平均自信息为 表示信源的平均不确定度,也表示平均每个信源消息所提供的信息量。 平均互信息 表示从Y获得的关于每个X的平均信息量,也表示发X前后Y的平均不确定性减少的量,还表示通信前后整个系统不确定性减少的量。 2、最大离散熵定理为:离散无记忆信源,等概率分布时熵最大。 3、最大熵值为。 4、通信系统模型如下: 5、香农公式为为保证足够大的信道容量,可采用(1)用频带换信噪比;(2)用信噪比换频带。 6、只要,当N足够长时,一定存在一种无失真编码。 7、当R<C时,只要码长足够长,一定能找到一种编码方法和译码规则,使译码错误概率无穷小。 8、在认识论层次上研究信息的时候,必须同时考虑到形式、含义和效用三个方面的因素。 9、1948年,美国数学家香农发表了题为“通信的数学理论”的长篇论文,从而创立了信息论。 按照信息的性质,可以把信息分成语法信息、语义信息和语用信息。

按照信息的地位,可以把信息分成 客观信息和主观信息 。 人们研究信息论的目的是为了 高效、可靠、安全 地交换和利用各种各样的信息。 信息的 可度量性 是建立信息论的基础。 统计度量 是信息度量最常用的方法。 熵 是香农信息论最基本最重要的概念。 事物的不确定度是用时间统计发生 概率的对数 来描述的。 10、单符号离散信源一般用随机变量描述,而多符号离散信源一般用 随机矢量 描述。 11、一个随机事件发生某一结果后所带来的信息量称为自信息量,定义为 其发生概率对数的负值 。 12、自信息量的单位一般有 比特、奈特和哈特 。 13、必然事件的自信息是 0 。 14、不可能事件的自信息量是 ∞ 。 15、两个相互独立的随机变量的联合自信息量等于 两个自信息量之和 。 16、数据处理定理:当消息经过多级处理后,随着处理器数目的增多,输入消息与输出消息之间的平均互信息量 趋于变小 。 17、离散平稳无记忆信源X 的N 次扩展信源的熵等于离散信源X 的熵的 N 倍 。 18、离散平稳有记忆信源的极限熵,=∞H )/(lim 121-∞→N N N X X X X H Λ。 19、对于n 元m 阶马尔可夫信源,其状态空间共有 nm 个不同的状态。 20、一维连续随即变量X 在[a ,b]区间内均匀分布时,其信源熵为 log2(b-a ) 。 21、平均功率为P 的高斯分布的连续信源,其信源熵,Hc (X )=eP π2log 21 2。 22、对于限峰值功率的N 维连续信源,当概率密度 均匀分布 时连续信源熵具

信息论与编码理论习题答案

第二章 信息量和熵 2.2 八元编码系统,码长为3,第一个符号用于同步,每秒1000个码字,求它的 信息速率。 解:同步信息均相同,不含信息,因此 每个码字的信息量为 2?8log =2?3=6 bit 因此,信息速率为 6?1000=6000 bit/s 2.3 掷一对无偏骰子,告诉你得到的总的点数为:(a) 7; (b) 12。问各得到多少信 息量。 解:(1) 可能的组合为 {1,6},{2,5},{3,4},{4,3},{5,2},{6,1} )(a p =366=6 1 得到的信息量 =) (1 log a p =6log =2.585 bit (2) 可能的唯一,为 {6,6} )(b p =361 得到的信息量=) (1 log b p =36log =5.17 bit 2.4 经过充分洗牌后的一副扑克(52张),问: (a) 任何一种特定的排列所给出的信息量是多少? (b) 若从中抽取13张牌,所给出的点数都不相同时得到多少信息量? 解:(a) )(a p =! 521 信息量=) (1 log a p =!52log =225.58 bit (b) ???????花色任选 种点数任意排列 13413!13 )(b p =13 52134!13A ?=1352 13 4C 信息量=1313 52 4log log -C =13.208 bit

2.9 随机掷3颗骰子,X 表示第一颗骰子的结果,Y 表示第一和第二颗骰子的 点数之和,Z 表示3颗骰子的点数之和,试求)|(Y Z H 、)|(Y X H 、 ),|(Y X Z H 、)|,(Y Z X H 、)|(X Z H 。 解:令第一第二第三颗骰子的结果分别为321,,x x x ,1x ,2x ,3x 相互独立, 则1x X =,21x x Y +=,321x x x Z ++= )|(Y Z H =)(3x H =log 6=2.585 bit )|(X Z H =)(32x x H +=)(Y H =2?( 361log 36+362log 18+363log 12+364log 9+365log 536)+36 6 log 6 =3.2744 bit )|(Y X H =)(X H -);(Y X I =)(X H -[)(Y H -)|(X Y H ] 而)|(X Y H =)(X H ,所以)|(Y X H = 2)(X H -)(Y H =1.8955 bit 或)|(Y X H =)(XY H -)(Y H =)(X H +)|(X Y H -)(Y H 而)|(X Y H =)(X H ,所以)|(Y X H =2)(X H -)(Y H =1.8955 bit ),|(Y X Z H =)|(Y Z H =)(X H =2.585 bit )|,(Y Z X H =)|(Y X H +)|(XY Z H =1.8955+2.585=4.4805 bit 2.10 设一个系统传送10个数字,0,1,…,9。奇数在传送过程中以0.5的概 率错成另外一个奇数,其余正确接收,求收到一个数字平均得到的信息量。 解: 8,6,4,2,0=i √ );(Y X I =)(Y H -)|(X Y H 因为输入等概,由信道条件可知,

信息论编码实验四香农编码

实验四 香农编码 一、实验目的 1、理解香农编码的概念。 2、掌握香农编码的一般算法 3、掌握香农编码算法中的二进制编码算法。 4、任意给定一个信源模型,编程实现其二进制香农编码,输出编码结果。 二、实验仪器与软件 1、PC 机 1台 2、C 语言环境或MATLAB7.0环境 三、实验原理 (1)输入信源符号以及每个符号对应的出现概率。 (2)对输入的信源符号按概率的大小进行排序。 (3)个码字的累加概率表示第,用令i i j x p x p j a ,1),(0)(0+== (4)令)(log 1)(log 22i i i x p k x p -≤≤- (5)的码字位作为点后的用二进制表示,用小数把i j a x k x p )( (6)重复(3)-(5)直到求出所有的码字。 四、实验内容(源代码及实验结果) 设输入单符号离散信源{a1, a2,a3,a4,a5, a6 ,a7},出现的概率分别是0.2, 0.19, 0.18, 0.17, 0.15, 0.1, 0.01,编程实现二进制香农编码,输出编码结果。

五、实验小结(对本次实验结果进行分析和总结) 1、程序代码: 求解给定信源符号概率的香农编码 n=input('输入信源符号个数n=') p=zeros(1,n); for i=1:n p(1,i)=input('输入信源符号概率:'); end if sum(p)<1||sum(p)>1 error('输入概率不符合概率分布') end y=fliplr(sort(p));%从大到小的排序 D=zeros(n,4);%生成7*4的零矩阵

现代通信与香农三大定理

现代通信与香农三大定理 姓名:杨伟章学号:201110404234 摘要:当我们提起信息论,就不得不把香农和信息论联系在一起,因为正是香农为通信理论的发展所做出的划时代贡献,宣告了一门崭新的学科——信息论的诞生。从此,在香农信息论的指导下,为了提高通信系统信息传输的有效性和可靠性,人们在信源编码和信道编码两个领域进行了卓有成效的研究,取得了丰硕的成果。其实,信息论是人们在长期通信实践活动中,由通信技术与概率论、随机过程、数理统计等学科相互结合而逐步发展起来的一门新兴交叉学科。 关键词:信息论基础现代通信系统香农三大定理 上个世纪四十年代,半导体三极管还未发明,电子计算机也尚在襁褓之中。但是通信技术已经有了相当的发展。从十九世纪中叶,电报就已经很普遍了。电报所用的摩斯码(Morse Code),就是通信技术的一项杰作。摩斯码用点和线(不同长度的电脉冲)来代表字母,而用空格来代表字母的边界。但是每个字母的码不是一样长的。常用的字母E只有一个点。而不常用的Z有两划两点。这样,在传送英语时,平均每个字母的码数就减少了。事实上,摩斯码与现代理论指导下的编码相比,传送速度只差15%。这在一百五十多年前,是相当了不起了。 在二次世界大战时,雷达和无线电在军事上广泛应用。无线电受各种噪声的干扰很厉害,这也给通讯技术提出了新的课题。各种不同的调制方式也纷纷问世。于是就出现了这样一个问题:给定信道条件,有没有最好的调制方式,来达到最高的传送速率? “传输速率是波特率与每波特所含比特数的乘积。波特率受频宽的限制,而每波特所含比特数受噪声的限制。”前一个限制,由那奎斯特(Harry Nyquist)在1928年漂亮地解决了。而后一个问题则更复杂。1928年,哈特利(R. V. L. Hartley)首先提出了信息量的概念,并指出编码(如摩斯码)在提高传送速度中的重要作用。但是他未能完整定量地解决这个问题。二战期间,维纳(Norbert Wiener)发展了在接收器上对付噪声的最优方法。但是传输速率的上限还是没有进展。 在这种情况下,香农(Claude E Shannon)在1948年发表了《通信的一个数

信息论与编码理论课后习题答案高等教育出版社

信息论与编码理论习题解 第二章-信息量和熵 解: 平均每个符号长为:154 4.0312.032= ?+?秒 每个符号的熵为9183.03log 3 1 23log 32=?+?比特/符号 所以信息速率为444.34 15 9183.0=?比特/秒 解: 同步信号均相同不含信息,其余认为等概, 每个码字的信息量为 3*2=6 比特; 所以信息速率为600010006=?比特/秒 解:(a)一对骰子总点数为7的概率是 36 6 所以得到的信息量为 585.2)366(log 2= 比特 (b) 一对骰子总点数为12的概率是36 1 所以得到的信息量为 17.536 1 log 2= 比特 解: (a)任一特定排列的概率为 ! 521 ,所以给出的信息量为 58.225! 521 log 2 =- 比特 (b) 从中任取13张牌,所给出的点数都不相同的概率为 1352 13 13 521344!13C A =? 所以得到的信息量为 21.134 log 1313 52 2=C 比特. 解:易证每次出现i 点的概率为 21 i ,所以

比特比特比特比特比特比特比特398.221 log 21)(807.1)6(070.2)5(392.2)4(807.2)3(392.3)2(392.4)1(6,5,4,3,2,1,21 log )(26 12=-==============-==∑ =i i X H x I x I x I x I x I x I i i i x I i 解: 可能有的排列总数为 27720! 5!4!3! 12= 没有两棵梧桐树相邻的排列数可如下图求得, Y X Y X Y X Y X Y X Y X Y X Y 图中X 表示白杨或白桦,它有???? ??37种排法,Y 表示梧桐树可以栽 种的位置,它有???? ??58种排法,所以共有???? ??58*???? ??37=1960种排法保证没有 两棵梧桐树相邻,因此若告诉你没有两棵梧桐树相邻时,得到关于树排列的信息为1960log 27720log 22-= 比特 解: X=0表示未录取,X=1表示录取; Y=0表示本市,Y=1表示外地; Z=0表示学过英语,Z=1表示未学过英语,由此得

《信息论》(电子科大)复习资料

信息论导论参考资料 作者 龙非池 第一章 概论 ● 在认识论层次研究信息时,把只考虑到形式因素的部分称为语法信息, 把只考虑到含义因素的部分称为语义信息;把只考虑到效用因素的部分称为语用信息。目前,信息论中主要研究语法信息 ● 归纳起来,香农信息论的研究内容包括: 1) 信息熵、信道容量和信息率失真函数 2) 无失真信源编码定理、信道编码定理和保真度准则下的信源编码定理 3) 信源编码、信道编码理论与方法 ● 一般认为,一般信息论的研究内容除香农信息论的研究内容外,还包括 维纳的微弱信号检测理论:包括噪声理论、信号滤波与预测、统计检测与估计理论、调制理论等。 信息科学以信息为研究对象,信息科学以信息运动规律为研究内容,信 息运动包括获取、传递、存储、处理和施用等环节。 第二章 离散信源及离散熵 ● 单符号离散信源的数学模型:1 212 ()()()()n n x x x X P x P x P x P X ?? ??=???????? 自信息量:()log ()i x i I x P x =-,是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特(bit,binary unit);对数底为e 时,其单位为奈特(nat,nature unit);对数底为10时,其单位为哈特(Hart, Hartley) 自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。 ● 单符号离散信源的离散熵: 1()[()]()()n i i i i H X E I x P x lbP x ===-∑,单位是比特/符号(bit/symbol)。 离散熵的性质和定理:H(X)的非负性;H(X)的上凸性; 最大离散熵定理:()H X lbn ≤ ● 如果除概率分布相同外,直到N 维的各维联合概率分布也都与时间起点 无关,即:

信息论与编码论文(香农信息论对现代的影响)

香农信息论对现代社会的影响 摘要:1948年香农在Bell System Technical Journal上发表了《A Mathematical Theory of Communication 》。论文由香农和威沃共同署名。这篇奠基性的论文是建立在香农对通信的观察上,即“通信的根本问题是报文的再生,在某一点与另外选择的一点上报文应该精确地或者近似地重现”。这篇论文建立了信息论这一学科,给出了通信系统的线性示意模型,即信息源、发送者、信道、接收者、信息宿,这是一个新思想。此后,通信就考虑为把电磁波发送到信道中,通过发送1和0的比特流,人们可以传输图像、文字、声音等等。今天这已司空见惯,但在当时是相当新鲜的。他建立的信息理论框架和术语已经成为技术标准。他的理论在通信工程师中立即获得成功,并刺激了今天信息时代所需要的技术发展。 关键词:香农、通信、编码 Abstract: In 1948, Shannon Bell System Technical Journal published "A Mathematical Theory of Communication". Paper co-signed by the Hong farmers. This ground-breaking paper is based on Shannon's observation of the communication that "the fundamental problem of communication is the message of regeneration, at some point with another point to report the selected text should be reproduced exactly or approximately." This paper established the discipline of information theory, given the linear signal model of communication system, that information source, sender, channel, receiver, message places, this is a new idea. Since then, the communication to consider the electromagnetic waves sent to the channel, by sending a stream of bits 1 and 0, one can transfer images, text, and so on. It has become commonplace today, but was very fresh. He established the theoretical framework and terminology of information technology has become the standard. His theory in communications engineer in immediate success, and stimulate the need for the information age of today's technology. Keywords:Shannon、Communications、Coding 信息论的理论定义是由当代伟大的数学家美国贝尔实验室杰出的科学家香农在他1948年的著名论文《通信的数学理论》所定义的,它为信息论奠定了理论基础。后来其他科学家,如哈特莱、维纳、朗格等人又对信息理论作出了更加深入的探讨。使得信息论到现在形成了一套比较完整的理论体系。 上个世纪四十年代,半导体三极管还未发明,电子计算机也尚在襁褓之中。但是通信技术已经有了相当的发展。从十九世纪中叶,电报就已经很普遍了。电报所用的摩斯码(Morse Code),就是通信技术的一项杰作。摩斯码用点和线(不同长度的电脉冲)来代表字母,而用空格来代表字母的边界。但是每个字母的码不是一样长的。常用的字母E只有一个点。而

信息论与编码理论1(B卷答案)

2011-2012 信息论与编码理论1 B 卷答案 一、 单项选择题(每题3分,总计15分) 1.当底为e 时,熵的单位为( C )。 A 奈特 B 哈特 C 奈特/符号 D 哈特/符号 2.下列关系式中( B )正确。 A )();(X I Y X I ≥ B );(),(Y X I Y X H ≥ C )|()|(X Y H Y X H ≥ D );();(Y X H Y X I ≤ 3.下列( D )陈述是正确的。 A Shannon 编码是最优码 B LZ 编码是异字头码 C Huffman 编码可以不需要知道信源的分布 D 典型序列的数目不一定比非典型的多 ) 4.下列数组中( A )不满足二个字母上的Kraft 不等式。 A (1,1,1) B (2,2,2,2) C (3,3,3) D (4,4,4) 5.下列( D )是只对输出对称的。 A ????? ? ??316 12121613 1 B ????? ??2.04.04.04.02.04.04.04.02.0 C ??????? ? ??32313132 3231 D ??? ? ??2.04.04.04.02.02.0 二、填空题(每空2分,总计20分) 1.若二元离散无记忆中25.0)0(=p ,75.0)1(=p ,则当给出100比特的信源序列,其中有5个1,则其自信息为3log 52002-比特,整个序列的熵为)3log 4 3 2(1002- 比特/符号. 2.若某离散信道信道转移概率矩阵为?? ????????5.025.025.025.05.025.025.025.05.0,则其信道容量为5.13log 2-比 特/符号;转移概率矩阵为???? ? ?????25.05.025.05.025.025.025.025.05.0,则其信道容量为5.13log 2-比特/符号。 3. 两个相同的BSC 做级联信道,其信道转移矩阵分别为??? ? ??--p p p p 11 , 则级联信道的信道转移矩阵为??????+---+-22222212222221p p p p p p p p ,无穷多个级联后的矩阵为??? ???5.05.05.05.0。 4.若一个信道的输入熵为6.2)(=X H 比特/符号,输出熵为3.2)(=Y H 比特/符号,

信息论重点 (新)

1.消息定义 信息的通俗概念:消息就是信息,用文字、符号、数据、语言、音符、图片、图像等能够被人们感觉器官所感知的形式,把客观物质运动和主观思维活动的状态表达出来,就成为消息,消息中包含信息,消息是信息的载体。 信号是表示消息的物理量,包括电信号、光信号等。信号中携带着消息,信号是消息的载体。 信息的狭义概念(香农信息):信息是对事物运动状态或存在方式的不确定性的描述。 信息的广义概念 信息是认识主体(人、生物、机器)所感受的和表达的事物运动的状态和 运动状态变化的方式。 语法信息(语法信息是指信息存在和运动的状态与方式。) 语义信息(语义信息是指信宿接收和理解的信息的内容。) 语用信息(语用信息是指信息内容对信宿的有用性。) 2.狭义信息论、广义信息论。 狭义信息论:信息论是在信息可以量度的基础上,对如何有效,可靠地传递信息进行研究的科学。它涉及信息量度,信息特性,信息传输速率,信道容量,干扰对信息传输的影响等方面的知识。 广义信息论:信息是物质的普遍属性,所谓物质系统的信息是指它所属的物理系统在同一切其他物质系统全面相互作用(或联系)过程中,以质、能和波动的形式所呈现的结构、状态和历史。包含通信的全部统计问题的研究,除了香农信息论之外,还包括信号设计,噪声理论,信号的检测与估值等。 3.自信息 互信息 定义 性质及物理意义 自信息量: ()log ()i x i I x P x =- 是无量纲的,一般根据对数的底来定义单位:当对数底为2时,自信息量的单位为比特;对数底为e 时,其单位为奈特;对数底为10时,其单位为哈特自信息量性质:I(x i )是随机量;I(x i )是非负值;I(x i )是P(x i )的单调递减函数。 自信息物理意义: 1.事件发生前描述该事件发生的不确定性的大小 2.事件发生后表示该事件所含有(提供)的信息量 互信息量: 互信息量的性质:1) 互信息的对称性 2) 互信息可为零 3) 互信息可为正值或负值 4) 任何两个事件之间的互信息不可能大于其中任一事件的自信息 互信息物理意义: 1.表示事件 yj 出现前后关于事件xi 的不确定性减少的量 2.事件 yj 出现以后信宿获得的关于事件 xi 的信息量 4.平均自信息性质 平均互信息性质 平均自信息(信息熵/信源熵/香农熵/无条件熵/熵函数/熵): (;)()(|)i j i i j I x y I x I x y =-log ()log (|)(1,2,,;1,2,,)i i j p x p x y i n j m =-+=?=?(|)log ()i j i p x y p x =1 ()[()][log ()]()log ()n i i i i i H X E I x E p x p x p x ===-=-∑

信息论为不同的通信系统提供进行比较的度量

香农信息论在信息测度中的应用 摘要:从香农开始, 已经有很多人讨论了关于信息的测度问题, 香农等的测度方法主要从信息的功能方面进行了详细的分析,目前, 对于 统一的信息测度方法的需求日益迫切, 而香农信息论是最经典的信 息概念和测度方法。本文对以用香农信息论进行信息的测度做了简要介绍, 希望能更好地探索信息本质的绝对真理。 关键词: 香农信息论;香农定理:信息; 测度 信息论为不同的通信系统提供进行比较的度量,在上世纪40年代时这 种比较越来越显。为了使已有的有线系统得到保护且更好的加以利用,发明了多种多样的通信系统。在20年代时, 电报通信系统的比较这一课题引起了尼奎斯特(H.Nyquist)和哈脱莱(R.V.L.Hartley)的注意,他们 在信息论出现之前就已提出某些相关的基本原理。1918年香农 (C.E.Shannon)发表了周密的通用理论,成为信息论以后工作的基础。 选择性信息单位,即根据两个概率相同,互相排斥并包含所有可能的 事件出现个的已知结果推导得出的信息量。信息的对数计量单位,它是两种互不相关的并且具有相等概率的事态集合的判定含量, 表示 为以2为底的对数。在信息论中,一组互斥事件的判定量以2为底的对数量度单位。 根据香农公式,设信道带宽为口,信道内所传信号的平均功率为S,信道内部高斯噪声的功率为N,则信道容量C为: C:Blg(1+S/N) 比特/秒

香农公式指出了当信号和噪声的平均功率给定之后,在单位时回内,在给定带宽的信道的最大信息传输量。 香农第一定理,亦即“无噪声(离散)信道编码定理, 为信息论基础中两个主要定理之一。该定理揭示了对信息源符号编码后的码字平均长度与信息源每个符号的平均信息量之间的内在规律。 香农第一定理指出: 码字的平均长度L只能大于或等于,但不能小于 信源的熵即L≥H(S),亦即码字的平均长度以H(S)为极限。 香农第二定理,亦即有噪声信道的编码定理。香农第二定理是信息论基础中两个主要定理中的另一个。 在一个有噪声干扰的信道中,传送消息通常会有错误。错误的大小, 一般用错误概率来表示,但是在通信实践中已经知道,可以有许多方法来降低错误。例如提高发送端信号的功率,即提高功率信噪比,从而提高信道容量,或者把一个消息重复发送几次。即降低传输消息的速 率等。这样就提出了一个问题,就是有无可能定量地来确切描述降低错误的编码方法,有无可能找到一种编码方法,能在有噪声的信遘中进行无错误的消息传输,香农第二定理对上述问题作出了明确的解答。该定理指出,只要传送消息的速率小于信道容量,就存在着一类编码,使传送消息的错误概率可以任意小。 香农定理,可应用于解决以下问题: 如计算事件信息量的问题,掷两粒股子,当其向上的面的小圆点之和是3时,该消息所包含的信息量是多少?当小圆点数之和是7时,该消息所包含的信息量是多少?

信息论与编码理论习题(三)

信息论与编码理论习题(三) 一、填空题(每空2分,共32分)。 1.在现代通信系统中,信源编码主要用于解决信息传输中的 ,信道编码主要用于解决信息传输中的 ,加密编码主要用于解决信息传输中的 2.离散信源?? ????=??????8/18/14/12/1)(4321x x x x x p X ,则信源的熵为 。 3.采用m 进制编码的码字长度为K i ,码字个数为n ,则克劳夫特不等式为 ,它是判断 的充要条件。 4.如果所有码字都配置在二进制码树的叶节点,则该码字为 。 5.齐次马尔可夫信源的一步转移概率矩阵为P ,稳态分布为W ,则W 和P 满足的方程为 。 6.设某信道输入端的熵为H(X),输出端的熵为H(Y),该信道为无噪有损信道,则该信道的容量为 。 7.某离散无记忆信源X ,其符号个数为n ,则当信源符号呈 分布情况下,信源熵取最大值 。 8.在信息处理中,随着处理级数的增加,输入消息和输出消息之间的平均互信息量趋于 。 二.选择题(共10分,每小题2分) 1、有一离散无记忆信源X ,其概率空间为? ? ????=??????125.0125.025.05.04321x x x x P X ,则其无记忆二次扩展信源的熵H(X 2)=( ) A 、1.75比特/符号; B 、3.5比特/符号; C 、9比特/符号; D 、18比特/符号。 2、信道转移矩阵为112132425363(/)(/) 000000(/)(/)000000(/)(/)P y x P y x P y x P y x P y x P y x ?????? ???? ,其中(/)j i P y x 两两不相等,则该信道为 A 、一一对应的无噪信道 B 、具有并归性能的无噪信道 C 、对称信道 D 、具有扩展性能的无噪信道 3、设信道容量为C ,下列说法正确的是:( ) A 、互信息量一定不大于C

香农编码--信息论大作业

信息论与编码课程大作业 题目:香农编码 学生姓名: ****** 学号: &********** 专业班级: ******************* 2013 年 5 月 10 日

香农编码 1.香农编码的原理/步骤 香农第一定理指出了平均码长与信源之间的关系,同时也指出了可以通过编码使平均码长达到极限值,这是一个很重要的极限定理。如何构造这种码香农第一定理指出, 选择每个码字的长度K i 将满足式 I(x i )≤K i <Ip(x i )+1就可以得到这种码。这种编码方 法就是香农编码。 香农编码步骤如下: (1)将信源消息符按从大到小的顺序排列。 (2)计算p[i]累加概率; (3)确定满足自身要求的整数码长; (4)将累加概率变为二进制数; (5)取P[i]二进制数的小数点后Ki位即为该消息符号的二进制码字。 2. 用C语言实现 #include <> #include <> #include <> #define max_CL 10 /*maxsize of length of code*/ #define max_PN 6 /*输入序列的个数*/ typedef float datatype; typedef struct SHNODE { datatype pb; /*第i个消息符号出现的概率*/ datatype p_sum; /*第i个消息符号累加概率*/ int kl; /*第i个消息符号对应的码长*/ int code[max_CL]; /*第i个消息符号的码字*/ struct SHNODE *next; }shnolist; datatype sym_arry[max_PN]; /*序列的概率*/ void pb_scan(); /*得到序列概率*/ void pb_sort(); /*序列概率排序*/ void valuelist(shnolist *L); /*计算累加概率,码长,码字*/ void codedisp(shnolist *L); void pb_scan() { int i; datatype sum=0; printf("input %d possible!\n",max_PN); for(i=0;i>"); scanf("%f",&sym_arry[i]); sum=sum+sym_arry[i]; }

香农信息论的基本理论探究

香农信息论的基本理论探究 摘要:信息是自从人类出现以来就存在于这个世界上了,天地万物,飞禽走兽,以 及人类的生存方式都离不开信息的产生和传播。 人类每时每刻都在不停的接受信息, 传播信 息,以及利用信息。从原来的西汉时期的造纸,到近代西方的印刷术,以及现在的计算机,信息技术在人类历史的进程当中随着生产力的进步而发展。 而信息理论的提出却远远落后于 信息的出现, 它是在近代才被提出来而形成一套完整的理论体系。 信息论的主要基本理论包 括: 信息的定义和度量; 各类离散信源和连续信源的信息熵; 有记忆、 无记忆离散和连续信 道的信道容量;无失真信源编码定理。 【关键词】 : 平均自信息 信道容量 信源编码 霍夫曼码 一.信息的度量 在各种通信系统的信源当中, 离散随机信源是一类最基本的信源, 信源输出是单个的符 号的消息, 并且消息之间是两两互不相容的。 假设有个一维离散无记忆信源, 它的概率分布 函数决定了他所携带的信息。该信源空间中共有 q 个符号,每个符号发生的概率是 Pi, 那么 发出某个符号所携带的信息量是 -logPi , 由于概率是在 和 1

之间的, 使得每一事件的信息 量是非负的。如果该事件发生的概率是 ,或者是 1 ,则表明该事件一定不会发生或者一定 会发生。那么他所携带的信息量是 。从理论上讲,该事件发生的概率越小,那么它的不确 定性也就越大, 它所携带的信息量也就越大。 该事件发生的概率越大, 它所携带的信息量也 就越大。 这也是人们为什么一听到一件不可思议的事情发生了之后, 会感到非常惊讶的原因。 对于通信系统的信源来说, 它不会仅仅只发出一个消息, 这个消息发生的概率也不是 1 。 必然会有别的可能的情况发生。那么对于一个信源来讲,它所包含的信息量是什么样子的,我们可以用平均自信息量来度量, 即对每个事件各自所携带的信息量做一个加权平均。 即可 以得到信源的平均自信息量。 信息熵的定义如下: ) ( log ) ( ) ( 1 log ) ( 1 1 i q i

信息论与编码理论1(A卷答案)

广州大学 2016—2017 学年第 一 学期考试卷 课程 《信息论与编码理论1》 考试形式(闭卷,考试) 学院 系 专业 班级 学号 姓名_ 一、 单项选择题(每题2分,总计10分) 1.当底为e 时,信道容量的单位为( C )。 A 奈特 B 哈特 C 奈特/符号 D 哈特/符号 2.下列量中( D )一定最大。 A );(Y X I B ),(X Y I C )|(Y X H D ),(Y X H 3.下列( A )陈述是错误的。 A 算术编码不需要知道信源的分布 B 游程编码不需要知道信源的分布 C LZ 编码不需要知道信源的分布 D LZW 编码不需要知道信源的分布 4.下列数组中( C )不满足二个字母上的Kraft 不等式。 A (2,2,1) B (2,2) C (1,1,3) D (3,3,3) 5.下列( A )是准对称信道的状态转移概率矩阵。 A ?????? ??613 12121613 1 B ????? ??5.05.05.05.05.05.05.05.05.0 C ??????? ? ??32313231 3231 D ??? ? ??2.02.08.02.08.02.0 二、填空题(每空2分,总计20分) 1.若二元离散无记忆信源25.0)0(=p ,75.0)1(=p ,则当给出10比特的信源序列,其中有4个1,其自信息为3log 4202-比特,整个序列的熵为)3log 4 3 2(102- 比特/符号。 2.若某离散信道信道转移概率矩阵为? ? ? ? ??125.0125.05.025.0125.0125.025.05.0,则其信道容量为4 3log 352-比特/符号;转移概率矩阵为???? ? ?????5.05.04.06.06.04.0,则其信道容量为1比特/符号。

关于经典信息论的Case

关于经典信息论的Case 经典信息论的case首先是现代通信技术的理论基础,而以下就是经典信息论在现代通信技术的的基础作用的体现。 1.香农信息论是通信技术的理论基础 1948年香农在Bell System Technical Journal上发表了《A Mathematical Theory of Communication 》。论文由香农和威沃共同署名。前辈威沃(Warren Weaver,1894-1978)当时是洛克菲勒基金会自然科学部的主任,他为文章写了序言。后来,香农仍然从事技术工作,而威沃则研究信息论的哲学问题。顺便提一句,该论文刚发表时,使用的是不定冠词A,收入论文集时改为定冠词The。 这篇奠基性的论文是建立在香农对通信的观察上,即“通信的根本问题是报文的再生,在某一点与另外选择的一点上报文应该精确地或者近似地重现”。这篇论文建立了信息论这一学科,给出了通信系统的线性示意模型,即信息源、发送者、信道、接收者、信息宿,这是一个新思想。此后,通信就考虑为把电磁波发送到信道中,通过发送1和0的比特流,人们可以传输图像、文字、声音等等。今天这已司空见惯,但在当时是相当新鲜的。他建立的信息理论框架和术语已经成为技术标准。他的理论在通信工程师中立即获得成功,并刺激了技术。香农考虑的信息源,产生由有限符号组成的词。它们通过信道进行传输,每个符号开销有限的信道时间。这里涉及到统计学问题,如果xn是第n个符号,它是由固定随机过程源xn产生的,香农给出一个分析信号误差序列的方法,它是传输系统固有的,可以通过设计相应

的控制系统控制它。 在这篇论文中,香农首次引入“比特”(bit)一词,如果在信号中附加额外的比特,就能使传输错误得到纠正。按照物理学的习惯,把电流单位叫做“安培”,如果给“比特流”一个单位名,可以叫香农 通信的数学理论是香农在数学与工程研究上的顶峰。他把通信理论的解释公式化,对最有效地传输信息的问题进行了研究。香农的文章立即被世界各国的通信工程师和数学家采用,大家详细地论述它、扩展它、完善它。这个学科立刻繁荣起来,成为科学史上光辉灿烂的一页。后来,香农感到由他扮演重要角色而开始与通信革命走得有些过远。他写道:“信息理论可能像一个升空的气球,其重要性超过了它的实际成就”,真是大师的气魄。 2.香农的信息论对传播学的影响 香农的单向传播行为的模式有助于奠定传播学的学术领域。比起任何其他的理论概念化工作来,它更适合于作为传播学的范式,即为传播行为中的主要组成部分提供了一个单一的、易于理解的明确说明。这些主要组成部分是:信源、讯息、信道、接受器。因此,对于传播行为iede传播研究可以确定出信源变量(诸如可信度),讯息变量(就像使用恐惧诉求)、信道变量(诸如大众媒体与人际信道)和接受者变量(如受众个体的可说服性)。传播研究中的因变量对效果进行测度,诸如接受者一方的认识变化、态度变化等。香农信息论的第三个要素,也就是在他信息的定义、测度以及他的传播模式之后,是他关于信道能力的命题。香农的命题论述了诸如带或不带噪音的信

信息论之父—香农范文

信息论之父—香农 20世纪中叶,信息论、控制论、系统论等标新立异的新理论相继问世,有力地“晃动”着传统的科学框架。克劳德·香农是一位美国数学工程师,作为信息论的创始人,人们认为他是20世纪最伟大的科学家之一。他在通信技术与工程方面的创造性工作,为计算机与远程通信奠定了坚实的理论基础。人们尊崇香农为信息论及数字通信时代的奠基之父。确实,他对人类的贡献超过了一般的诺贝尔获奖者。回顾20世纪的信息革命风暴,经他阐明的信息概念、连同“比特”这个单位已经深入人心,成为今天日常生活都离不开的词汇。 家庭背景 克劳德·香农(Claude Elwood Shannon,1916-2001)1916年4月30日诞生于美国密西根州的Petoskey。在Gaylord小镇长大,当时镇里只有三千居民。父亲是该镇的法官,他们父子的姓名完全相同,都是Claude Elwood Shannon。母亲是镇里的中学校长,姓名是Mabel Wolf Shannon。他生长在一个有良好教育的环境,不过父母给他的科学影响好像还不如祖父的影响大。香农的祖父是一位农场主兼发明家,发明过洗衣机和许多农业机械,这对香农的影响比较直接。此外,香农的家庭与大发明家爱迪生(Thomas Alva Edison,1847-1931)还有远亲关系。 香农的大部分时间是在贝尔实验室和MIT(麻省理工学院)度过的。在“功成名就”后,香农与玛丽(Mary Elizabeth Moore)1949年3月27日结婚,他们是在贝尔实验室相识的,玛丽当时是数据分析员。他们共有四个孩子:三个儿子Robert、James、Andrew Moore和一个女儿Margarita Catherine。后来身边还有两个可爱的孙女。

信息论的奠基人——香农

信息论的奠基人——香农 ——“通信的基本问题就是在一点重新准确地 或近似地再现另一点所选择的消息”。 ——这是数学家香农(Claude E.Shanon)在他 的惊世之著《通信的数学理论》中的一句铭言。 正是沿着这一思路他应用数理统计的方法来研究通信系统,从而创立了影响深远的信息论。 ——香农,1916年4月30日生于美国密执安州的加洛德。在大学中他就表现出了对数理问题的高度敏感。1938年,香农发表了著名的论文《继电器和开关电路的符号分析》,为计算机具有逻辑功能奠定了基础,从而使电子计算机既能用于数值计算,又具有各种非数值应用功能,使得以后的计算机在几乎任何领域中都得到了广泛的应用。后来,他就职于贝尔电话研究所。在这个世界上最大的通信公司(美国电话电报公司)的研究基地里,他受着前辈的工作的启示,其中最具代表性的是《贝尔系统技术杂志》上所披露的奈奎斯特的《影响电报速率的一些因素》和哈特莱的《信息的传输》。正是他们最早研究了通信系统的信息传输能力,第一次提出了信息量的概念,并试图用教学公式予以描述。而香衣则创造性地继承了他们的事业,在信息论的领域中钻研了8年之久,终于在1948年也在《贝尔系统技术杂志》上发表了244页的长篇论著,这就是上面提到的那篇《通信的数学理论》。

次年,他又在同一杂志上发表了另一篇名著《噪声下的通信》。在这两篇文章中,他解决了过去许多悬而未决的问题:经典地阐明了通信的基本问题,提出了通信系统的模型,给出了信息量的数学表达式,解决了信道容量、信源统计特性、信源编码、信道编码等有关精确地传送通信符号的基本技术问题。两篇文章成了现在信息论的奠基著作。而香农,也一鸣惊人,成了这门新兴学科的奠基人。那时,他才不过刚刚三十出头。曾获电气和电子工程师学会(IEEE)的诺贝尔奖等多项世界性科学大奖。1956年当选美国科学院院士,并是多个学会的资深会员。确实,他对人类的贡献超过了一般的诺贝尔获奖者。回顾20世纪的信息革命风暴,经他阐明的信息概念、连同“比特”这个单位已经深入人心,成为今天日常生活都离不开的词汇。2001年2月24日,香农在马萨诸塞州Medford辞世,享年85岁。 ——他的成就轰动了世界,激起了人们对信息论的巨大热情,它向各门学科冲击,研究规模象浪雪球一样越来越大。不仅在电子学的其他领域,如计算机、自动控制等方面大显身手,而且遍及物理学、化学、生物学、心理学、医学、经济学、人类学、语音学、统计学、管理学……等学科。它已远远地突破了香衣本人所研究和意料的范畴,即从香农的所谓“狭义信息论”发展到了“广义信息论”。——进入80年代以来,当人们在议论未来的时候,人们的注意力又异口

信息论与编码之香农信息论的局限性

香农信息论的局限性分析 制作者:xxx 指导老师:xxx 【内容摘要】: 从新的角度指出了香农信息论的局限性,指出了它没有考虑信息的可靠性,完备性等特点,指出条件熵的计算公式问题并且进行了纠正,并且举例证明了条件熵可能增加,进而香农信息定义中的不确定性的减少也不是绝对的。说明了为什么信息论能够在通信中得到应用,却不能很好地在日常生活中应用。在这些分析的基础上给出了信息的新定义以及信息相关的一些模型。 【关键词】:信息论;条件熵;定义;可靠性 引言 香农(又译仙农,Shannon)信息论对信息技术的发展具有深远的影响。但是信息论的应用一直现有通信等一些很局限的领域,信息论并不能够完全地适用于一些信息技术相关的领域。关于香农信息论的局限性,许多学者都有认识,香农本人也反对将信息论滥用。国内外一些学者从许多角度讨论了信息论的局限性,比如没有考虑语义,语用,没有考虑信息的模糊性和事件之间的相似性,没有考虑事件划分可能存在包含关系等。笔者则指出,目前信息的定义都没有考虑信息的可靠性这一因素,则导致了信息论无法应用在众多的信息技术领域,比如人工智能,信息融合等领域。 1 信息定义的局限 关于信息的定义据笔者搜索超过60种,香农的信息定义是比较流行的一个,他定义如下:信息是用以消除随机不确定性的东西。还有许多学者对这个定义有所修改,但是这些定义都是考虑到消除的随机不确定性,并没有考虑到信息的可靠性。还有一类定义,比如信息是被反映的物质的属性,信息是结构的表达等,都明显蕴含一个意思,信息是可靠的,是对物质、事物或者结构的一种正确的反映或者表达。在所有的信息定义中,都没有发现它们对于可靠性以及类似的属性的考虑。 然而,信息之所以能够被利用,信息之所以被重视,它的可靠性是前提。一旦信息足够的不可靠,信息的价值完全丧失,而且可能起反作用。 香农对信息的定义,对信息的度量,以及它的信息论,基本上都是考虑的是用熵来计算的随机不确定性,并没有考虑信息的可靠度,对信息的可靠度的考虑最多是从信息传递过程中的失真进行了考虑。当然香农也对冗余有所考虑,但是他的冗余度是一个整体的,平均的量。为什么信息论在通信领域非常适用,因为在通信中,无需考虑信息的可靠性。那是发送者在发送之前或者是接受者在接受之后考虑的,在通信的过程中,一切的目的是如此快速,可靠地发送信息。接受信息的可靠与否,失真与否,与被发送的信息的可靠性,完备程度和真实程度没有关系,它只需要与发送的信息相比较是可靠真实的就达到了通信的目的。 在香农信息论中,信息是不变的,它不考虑信息的不一致性,乃至信息的互相矛盾,因此不需要接受反馈和进行折衷调整。信息论中,还没有考虑到信息往往是不完全的片面的,需要进行融合,人们往往可以由已知的信息得出新的信息,但是香农信息论并没有涉及到如何利用已知的信息推理衍生新的信息。这些问题显然是信息技术所需要的,也是现实生活中广泛存在的问题。当然目前的知识工程、人工智能、信息融合技术已经开始研究这些问题[5]。

相关文档