<aside> 📖 熵 Entropy
原意:一个系统不受外部干扰时往内部稳定状态发展的特性。
信息论中:熵是接受的每条消息中包含的信息的平均值。又被称为信息熵、信源熵、平均自信息量。可以被理解为不确定性的度量,熵越大,信源的分布越随机。
</aside>
<aside> 📖 信息熵公式
消息m的熵为:
$$ H(m)=H(p_1,p_2,…,p_n)=-\sum_{i=1}^n{p_i\cdot\log_2{p_i}} $$
<aside> 📖 信息熵性质