信息量 : 信息论关于信息数量的计量。1948年,香农在《通信的数学理论》一文中首先提出信息的计量问题,并运用概率论确定并证明了信息量的数学表达式。由于信息是用来消除事物不定性的,所以信息的数量也就是事物被消除掉的不定性数量。如果某事物具有几种独立的可能状态或结果:X1,X2,…Xn,每一状态出现的概率分别为P(x1),P(x2),P(xn),且有概率之和等于1,那么,它的某个状态所具有的不定性数量为hxi=-log2P(xi),i=1,2,…n,而事物的各个状态所具有的平均不定性数量就是h(xj)的数学期望,记为H(x),这正是统计热力学的熵函数。在统计热力学中,熵是对某种情形、状态混乱无序程度的计量,“混乱无序”与“不定性”的意义恰好相通,因而香农对信息量的表述是与熵一样的表述。上述表达式中,当对数的底取2,特。比特是信息量的单位。任何一个事物,如果能够分解成几个可能的二中择一的选择,它的信息量就是几个比特。从信息量计算公式可以看出,事物的可能性概率较小,信息量越大;可能性概率越大,信息量越小。在现实生活中,事情越出人意料,即可能性概率越小,信息量就越大,也就越具有传播价值。
值得注意的是,香农的信息量计算公式只能适用于概率性语法信息的计量,不能解决非概率信息如模糊信息的计量,也不能解决语义信息、语用信息的计量。关于广义信息的计量以及信息量计量一体化问题,目前仅仅处于探索阶段。在我国新闻传播研究中,对新闻的信息量存在着两种理解和计量方式。一是把新闻的信息量理解为具有新鲜度的事实的集合,根据新闻中包含新闻事实的多少来判断新闻的信息量。二是把新闻的信息量理解为受众对新闻的“关切度”的平均值,即有效消除受众对事物认识的不定性的平均值。其计量方法是把新闻的事实划分为不可再分的“基本事实”(事实元),设一有限线(0—1之间),用语义极差的模糊量表示不同程度,如“极感兴趣、很感兴趣、较感兴趣、无所谓、不感兴趣、很不感兴趣、极不感兴趣”,并在有限线段上划定刻度,用公式I=log2P来计算。其中,I是信息量,P是概率,指划定的刻度,取P的以2为底的对数,即得到该新闻的信息量。从总体上看,新闻信息量的计量方法还处于模糊定量阶段,仍需要进一步探索。
- 欢迎来到文学网!