微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

能否以及如何在 R 中对来自正态分布的一对样本进行互信息测试?

如何解决能否以及如何在 R 中对来自正态分布的一对样本进行互信息测试?

我想问一个例子,计算从 R 中的标准正态分布中选择的两个样本的互信息,因为到目前为止我找到的所有帖子都是关于离散变量的。这包括entropy 的文档:

# load entropy library
library("entropy")
# joint distribution of two discrete variables
freqs2d = rbind( c(0.2,0.1,0.15),c(0.1,0.2,0.25) )
# corresponding mutual information
mi.plugin(freqs2d)
# MI computed via entropy
H1 = entropy.plugin(rowSums(freqs2d))
H2 = entropy.plugin(colSums(freqs2d))
H12 = entropy.plugin(freqs2d)
H1+H2-H12
# and corresponding (half) chi-squared divergence of independence
0.5*chi2indep.plugin(freqs2d)

需要正态分布的 pdf,但函数是否需要离散化,例如对样本中的值进行分箱?

互信息可能只参考随机变量,而不是样本,但它不会像相关性那样通用。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。