<aside> 📖 熵 Entropy

原意:一个系统不受外部干扰时往内部稳定状态发展的特性。

信息论中:熵是接受的每条消息中包含的信息的平均值。又被称为信息熵、信源熵、平均自信息量。可以被理解为不确定性的度量,熵越大,信源的分布越随机。

</aside>

1. 信息与熵

<aside> 📖 信息熵公式

消息m的熵为:

$$ H(m)=H(p_1,p_2,…,p_n)=-\sum_{i=1}^n{p_i\cdot\log_2{p_i}} $$

</aside>

<aside> 📖 信息熵性质

  1. 单调性:
  2. 非负性:
  3. 累加性: