主题建模槌:如何解释Kullback-Leibler发散

时间:2014-03-12 11:11:01

标签: java mallet

在从槌中的各种文件中获得各种概率分布后,我已应用以下代码来计算第一和第二文件之间的KL差异:

        Maths.klDivergence(double[] d1,double[] d2);

我应该如何解释所获得的数据?例如,我得到:12.3640 ...... 这是什么意思?这两个分布是近还是远?

1 个答案:

答案 0 :(得分:0)

顾名思义,KL-Divergence给出了一个分布与另一个分布的分歧。它基本上是分布失去的信息,而接近另一个分布意味着 - 价值越小,相似性越大。如果更相似,你不会丢失任何信息