我是文本挖掘的新手,这是我的情况.
假设我有一个单词列表[[car],’dog’,’puppy’,’vehicle’],我想将单词聚类为k组,我希望输出为[[‘car’,’vehicle’ ],[‘dog’,’puppy’]].
我首先计算每个成对单词的相似度得分,以获得4×4矩阵(在这种情况下)M,其中Mij是单词i和j的相似度得分.
将单词转换为数字数据后,我利用不同的聚类库(例如sklearn)或自己实现它以获得单词聚类.
我想知道这种方法是否有意义?此外,如何确定k的值?更重要的是,我知道存在不同的聚类技术,我在考虑是否应该使用k-means或k-medoids进行单词聚类?
解决方法:
按照Brian O’Donnell的答案,计算出与word2vec(或FastText或GLoVE,…)的语义相似度后,便可以使用sklearn.clustering
对该矩阵进行聚类.我发现对于较小的矩阵,谱聚类给出了最好的结果.
值得记住的是,单词向量通常嵌入在高维球体中.具有欧几里得距离矩阵的K均值无法捕捉到这一点,并且可能会导致与不是直接邻居的单词相似度较差的结果.
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。