ml-formulas
ml-formulas copied to clipboard
確率分布間の距離尺度のまとめページ
確率分布間距離の比較についてのエントリが複数あるため (Le Camの不等式,Pinskerの不等式),距離尺度の定義の一覧と,それらの強弱関係をまとめたページがあると良いかもと思いました.
距離尺度の例
- Total variation distance
- Hellinger distance
- Wasserstein distance
- Kullback--Leibler divergence
- chi^2-divergence
- Renyi divergence
- Levy metric, Prokhorov metric
- Ky Fan metric
強弱関係の例
- Le Camの不等式
- Pinskerの不等式
- Wasserstein距離とKLの比較
- Weighted Pinsker (Villani 2009, Theorem 22.10)
- どの位相の距離付けになっているか
Gibbs and Su (2002) Figure 1が有益
参考文献
- Tsybakov. Introduction to Nonparametric Estimation. (2009) Section 2.4.1
- Villani. Optimal Transport: Old and New. (2009)
- Gibbs and Su. On choosing and bounding probability metrics. (2002)
- A summary on “On choosing and bounding probability metrics” AIP松井さんのスライド
いいですね.KLの亜種ですが,JS距離などもでしょうか?
まとめページとは別に,これらの不等式はまとめて「確率分布間の比較」として1つのカテゴリに入れてもいいかなと思います
JS距離という呼び方はGANの文脈でしか見たことがないんですが、もしご存知でしたら他の出典があると嬉しいです
JS距離という呼び方はGANの文脈でしか見たことがないんですが、もしご存知でしたら他の出典があると嬉しいです
KLの亜種ということなのでKL(q||p)とKL(p||q)の混合であるJensen-Shannonと推測しますが、 JS情報量・JSダイバージェンスだと何か不都合があるのでしょうか? 原典ではダイバージェンスですが……。 Fuglede B, and Topsøe F., 2004, Jensen-Shannon Divergence and Hilbert Space Embedding, IEEE Int Sym Information Theory.