假设硬币下落出现正反两种状态的概率都是1/2,则投掷硬币的信息量为多少.

1个回答

  • 信息量或者熵(Entropy),又称Shannon Entropy,定义为:∑_i -pi log_2(pi)

    现在,硬币正反的概率都是1/2,所以p1=1/2,p2=1/2,

    所以,Entropy = - (1/2) log_2 (1/2) - (1/2) log_2 (1/2) = - log_2 (1/2) = 1 .

    其实,你只有一个硬币,且出现0,1的机会均等,当然是有1个bit的信息量.

    所以,计算和直觉是一致的.

    推广之,如果你抛这个硬币n次,或者同时抛n个硬币,熵就是n.

    如果要算,只要记住,概率是相乘的,而熵是以log_2 定义的,所以,概率相乘就变成熵相加,

    n次或n个就是n个1相加.