• home
  • about
  • 全ての投稿
  • ソフトウェア・ハードウェアの設定のまとめ
  • 分析関連のまとめ
  • ヘルスケア関連のまとめ
  • 生涯学習関連のまとめ

entropy

date: 2020-11-19 excerpt: entropy

tag: entropy


entropy

シャノンの情報量

値域の導出

Cを文字の情報とし、pを確率とする。

\({log}_{e}x \leq x-1\) が成り立っているから、

\[log_{e}\frac{1}{|C|p_{i}} \le \frac{1}{|C|p_{i}} - 1\]

も成り立ち、

更に変形すると、

\[\sum_{i \in C}p_{i}log_{e}\frac{1}{|C|p_{i}} = \\ -\sum_{i \in C}p_{i}log_{e}p_{i} + \sum_{i \in C}p_{i}log_{e} \frac{1}{|C|} \\ \le \sum_{i \in C}p_{i} \left(\frac{1}{|C|p_{i}} - 1 \right) \\ = \left(\frac{1}{|C|} - p_{0} \right) + \left(\frac{1}{|C|} - p_{1} \right) + ... \\ = \frac{1}{|C|}\times|C| - \sum p_{i} = 1 - 1 = 0\]

よって

\[-\sum_{i \in C}p_{i}log_{e}p_{i} \le log_{e} |C|\]

となり、正しさを担保しないものの少なくとも情報限界を数式的に定義することに成功している。

シャノン・ハートレーの定理



entropy Share Tweet