スポンサーリンク
スポンサーリンク

エントロピーからKLダイバージェンスを理解する

マサムネのイメージ図 ベイズ統計学

エントロピーの定義から始めて、KLダイバージェンスの意味を理解するのが目標です。
エントロピーがデータの分布の違いを見分けるのに役立つことを説明し、KLダイバージェンスが確率分布同士の距離を測る道具になっていることを解説します。
最後に応用について少しだけ説明します。応用についての詳しい解説は別の記事を読んでください。

参考書として、以下の2冊を挙げておきます。

広告
スポンサーリンク

エントロピーと分布の形

まずはエントロピーの定義を確認します。

pを(離散)確率分布とします。以下の量Hエントロピーと呼びます。
H(p)=pilogpi
pが連続の場合1は、以下のようにします。
H(p)=p(x)logp(x)dx
また、2つの確率分布p(x),q(x)があるとき、pによるq のエントロピーHp(q)logq(x)p(x)の期待値で定義します。
Hp(q)=p(x)logq(x)dx

この定義だけでは、エントロピーが何を表す量なのか分かりません。エントロピーは以下の性質を持つことが知られています。

[エントロピーの持つ性質]
p={pi}を離散な確率分布とします。つまり、Npi=1とします。

  1. H(p)0
  2. もしも、pi=1となるiがあると、H=0
  3. H が最大になるのは、pi=1/Nのとき。

2番の性質から、データのヒストグラムが尖った形な程エントロピーは小さな値を取る事が分かります。逆に、均質的でなだらかなヒストグラムに対しては大きな値を取ります。

性質の証明

性質を確かめてみます。前半2つは簡単です。
0pi1なのでlogpi0です。これから、エントロピーが0以上であることが分かります。 pi=1 という事は、logpi=0という事です。このとき、他のpi0となります。従って、H(p)=0です。これで性質1,2が分かります。
最後の性質を確かめます。
ラグランジュの未定乗数法で、Hの最大値となる条件を求めます。
ラグランジアンは以下です。
L=Hλ(pi1)
pi での微分は以下のように計算出来ます。
Lpi=logpi1+λ
上の式を0とすると、
logpi=λ+1=
となります。pが確率分布になるためには全てのiについて pi=1/Nとなるしかありません。
これで3つ目の性質が分かりました。

エントロピーでデータの変化を捉える

実際のデータを使って、エントロピーを計算してみます。 西暦毎に 都道府県別の人口を記録したデータを使います。昔と比べて、都市に人が集中していってるので、エントロピーが小さくなっていくはずです。データはe-Stat に置いてある人口推計を使いました。年代別でグラフを描くと以下のようになっています。

1960年の人口分布
1960年の人口分布
 2000年の人口分布
2000年の人口分布

都市部だけ、人口比率が大きくなっていることが分かります。適当な年代でエントロピーを計算させてみます。

年毎の県別人口のエントロピー
年毎の県別人口のエントロピーの推移

エントロピーが順調に減少しています。人口の分布がある場所に集中し、尖った分布に遷移している事を表しています。これは、都市部に人が集中しているという事実と合致しています。
上で挙げた例のように、エントロピーを計算することで確率分布やデータがどのように変化しているのかを捉える事が出来ます。
基本的な確率分布に対して、エントロピーを計算した記事があるので、興味がある方はどうぞ。

確率分布の基本統計量まとめ
確率分布のパラメーター毎のグラフを描いて、平均値、分散、エントロピーを計算しています。

KLダイバージェンス

エントロピーが、一つの確率分布の変化を捉えられることが分かりました。
二つの確率分布 p(x),q(x) がある時、エントロピーHq(p)を考える事が出来ました。
この量は、qを基準としたpのエントロピーと解釈できます。エントロピーHq(q)の最小値は0でしたが、 Hq(p) の最小値はHq(q)です。
Hq(p) は、pqにどれだけ似ているのかの基準になります。
これを踏まえて、以下の量をKLダイバージェンス(Kullback-Leibler divergence)と呼びます。
KL(qp)=Hq(p)Hq(q)=q(x)logp(x)q(x)dx
KLダイバージェンスは距離と似た性質を持っています。

[KLダイバージェンスの性質]
p(x),q(x),q1(x),q2(x) を確率分布とします

  1. KL(qp)0
  2. KL(qp)=0となるのは、 q=p となる場合のみ
  3. KL(q1p)+KL(q2p)KL(q1+q2p)

距離っぽい性質を持っているのですが、KL(qp)KL(pq)なので、数学的には距離とは呼びません。しかし、KL(q) というpについての関数だと考えれば、任意の確率分布とqとの距離を測る事が出来ます。

性質の証明

上に挙げた性質を示すにはイエンセンの不等式( Jensen’s inequality ) を使います。詳しい説明はしませんが、以下の関係式を使います。
log(f(x))p(x)dxlog(f(x)p(x)dx)
この関係を認めて、上に挙げた3つの性質を証明しましょう。
KL(qp)=q(x)logp(x)q(x)dxlog(p(x)dx)0
これで1つ目は証明出来ました。2つ目はlogが良い関数なので成り立ちます。3つ目を考えます。
 KL(q1p)+KL(q2p)KL(q1+q2p)=q1(x)log(1+q2(x)q1(x))+q2(x)log(q1(x)q2(x)+1)dx2log20
1行目から2行目への計算は少し端折ってますが、積分のlogp(x)に関する部分は消える事が分かるので、q1,q2に関してまとめると2行目の結果が出ます。次にイエンセンの不等式を使う事で 2log2が出ます。

正規分布同士のKLダイバージェンス

次に、KLダイバージェンスが、確率分布同士の距離を測っていることを確かめてみます。
具体的には、標準正規分布p=N(x|0,1)と、平均値が違う確率分布 q=N(x|μ,1) を用意し、μを変化させたときのKL(q|p)を計算してみます。2

Loading
Sorry, something went wrong. Reload?
Sorry, we cannot display this file.
Sorry, this file is invalid so it cannot be displayed.

gist にも載ってますが、与えたデータは、平均値を変えた正規分布です。それらと、標準正規分布のKLダイバージェンスを計算します。

使うデータたち
使うデータたち

scipy のentropy ライブラリを使うと、KLダイバージェンスを計算出来ます。にentropy(q,p ) のように、サンプルしたデータを与えるだけです。3

KLダイバージェンス
KLダイバージェンス

平均値の値μが 0と一致している時のみKLダイバージェンスが0になり、0から離れると大きくなっていく様子が分かります。
確率分布のパラメーターを動かしながらKLダイバージェンスを監視する事で、確率分布が目的の確率分布に近付いているかどうか調べる事が出来るのです。

KLダイバージェンスの応用

KLダイバージェンスは、得られたデータを確率分布で近似するときによく使われます。
最も有名な例が、EMアルゴリズムです。
大まかな議論は以下のようなものです。
元のデータが確率分布p(x|θ)に従うと仮定します。また、 元のデータが陽には見えていない構造を持つと考えます。それを司る確率変数Z が従う確率分布をq(Z)と置きます。
対数尤度 logp(x|θ)KL(p|q)を使って分解できることが計算から分かります。
logp(X|θ)=L(q,θ)+KL(qp)
KLダイバージェンスを0にして、対数尤度を最大化しよう、という流れで最適なパラメーターθ,Zを推定するのがEMアルゴリズムです。詳しい話は解説記事をどうぞ。KLダイバージェンスが大事な役割を果たすアルゴリズムです。
https://masamunetogetoge.com/em-algorithm
https://masamunetogetoge.com/em-algorithm-python
https://masamunetogetoge.com/general-em-algorithm

まとめ

  • エントロピーはlogの期待値
  • エントロピーを比べる事で、分布の変化を捉える事が出来る。
  • KLダイバージェンスで確率分布同士の距離を測れる
  • 確率分布の近似を考えたいときにKLダイバージェンスが使われる
  1. logp の期待値です。
  2. コードを埋め込むと文字化けしていたので、gist を埋め込んでおきます。
  3. pp(x1),p(x2),,p(xn)と格納したら、qには q(x1),q(x2),,q(xn) と与える必要がある事に注意です。scipy なら、 .pdf で大体の確率分布の値が得られます。
タイトルとURLをコピーしました