如何理解量子信息熵

如题所述

理解量子信息熵如下:

一条信息的信息量与其不确定性有着直接的关系。比如说:我们要搞清楚一件非常非常不确定的事,就需要了解大量的信息。相反,如果已对某件事了解较多,则不需要太多的信息就能把它搞清楚。所以,从这个角度上来看,信息量就等于不确定性的多少。

概率与信息熵:

例1:比如有人今天告诉你2019年的冬天,北京将不会再有雾霾。我们十分不确定这件事情,因为近五年以来,冬天的北京无雾霾的日子寥寥无几。此时为了弄清楚这件事,你需要查阅气象资料,专家预测等等,这就是一个用外界信息消除不确定性的过程,这件事不确定性越强,需要的外界信息就越多。此时信息熵很大。

例2:反之,比如有人今天告诉你2019年的冬天,北京将继续雾霾天气。根据以往的认知,这是一个不确定性极小的事件,也就是说几乎不需要外界信息。此时信息熵很小。

如果将2019年冬天的北京是否有雾霾看做随机变量 ,那么由以上例子可知:信息熵的度量依赖于概率分布。

温馨提示:答案为网友推荐,仅供参考
相似回答