这是一个概念性的问题.信息量也就是熵是一个建立在随机型性基础上的概念.信息量是随机性大小的度量.信源X是随机,可以认为信源X发出符号1,2 ,3的概率都是1/3,即可以按公式I(a)=-log p(a)来计算.但是 信源y是一个确定的信源,t=0时刻发1,t=1时刻发2,t=2时刻发3等等,这是有规律可循的,随机性为0,即信源y是确定的,它的信源熵为0,不能提供任何信息,信息量为0!所以信源x的消息每一个消息符号所含的消息量大于信源y的每个消息符号所含的信息量(信源y的每个消息符号所含的信息量为0)
信息论中关于信息量概念的问题假设信源X发出的消息符号集合为{1,2,3},且是随机的.信源y的消息符号集合也是{1,2,
1个回答
相关问题
-
Huffman编码的步骤.如信源符号及其概率如下:
-
一些集合的数学题!1、 下面关于集合的表示正确的个数是①{2,3}≠{3,2}②{(x,y)|x+y=1}={y|x+y
-
交流电源的符号怎么画给张图,是在画电路图中的符号,直流电是 + |1 -
-
如果消息A发生的概率为P(A) ,那么消息A所含的信息量
-
1. 已知6个符号的信源A={a1,a2,……a6},若其概率分布为P={0.32, 0.25, 0.17, 0.12,
-
什么是信源编码
-
集合包含符号的问题(数学)看符号:A ⊆ B :集合 A 的所有元素同时都是集合 B 的元素,则 A 称作是
-
关于传统逻辑的问题“共产党”是非集合概念还是集合概念“中国共产党”是非集合概念还是集合概念?为什么?
-
从集合{-1,1,2,3}中随机选取一个数记为m,从集合{-1,1,2}中随机选取一个数记为n,则方程x2m+y2n=1
-
集合符号含义{│}符号的意义是什么(附带解释一下{(x,y)│x+y=6,x、y∈N}的含义.