如何解决如何在 Spark Dataframe 中执行 Tukey HSD 测试?
我正在尝试使用 pyspark 在非常大的数据集上执行 Tukey 测试。
现在我知道在 python 中我们可以使用 pairwise_tukeyhsd
模块中的 statsmodels.stats.multicomp
库。
这将需要我将我的 spark 数据框转换为 Pandas 数据框,这违背了使用 RDD 的目的,并且不适用于我的大型数据集。
另一种方法是手动对火花数据帧进行数学测试,这很简单,如图here
但是,要将 means
与 Q_crit
值进行比较,我需要 Tukey 的临界值表。
有没有办法计算 Tukey 表上的临界值?
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。