如何解决使用python NLP查找句子相似度和性能提升
我正在研究为给定的输入句子显示 slangs
的项目。我有一个 csv
文件,其中包含 500 个 slangs
及其含义。所以我想要的是当用户输入一个句子时,我会将输入的句子与我的 csv 文件的所有含义一一匹配,并建议一个适合该句子的俚语。 (意思是和输入的句子意思最相似的俚语)
目前我正在用 Wordnet synset Matching 做这个,但结果不好,有没有人建议最好的句子相似性库或算法来做到这一点。
此外,匹配同义词集的时间大约需要 20 秒来处理结果,如何加快速度?这是我正在使用的代码:
for sent in csv_list:
input_sentence = pos_tag(word_tokenize(input_sentence))
sent = pos_tag(word_tokenize(sent))
# Get the synsets for the tagged words
input_synsets = [self.tagged_to_synset(*tagged_word) for tagged_word in input_sentence]
sent_synsets = [self.tagged_to_synset(*tagged_word) for tagged_word in sent]
score = self.get_sentence_similarity(input_synsets,sent_synsets)
get_sentence_similarity 方法只匹配同义词集并返回结果。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。