微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

适用于Python的轻量级NLP框架

我现在正在使用spaCy来确定两个字符串之间的语义相似性.它运行良好,只需要几行代码,所有的工作都在幕后完成:

>>> import spacy
>>> nlp = spacy.load('en')
>>> nlp('string').similarity(nlp('another string'))
0.796

但是它需要大约600mb的模块数据.因为我在Heroku上主持这远远超过了可用的slu size尺寸.我正在寻找托管的其他替代方案,但是我可以使用另一个框架吗?我不需要spacy的“工业强度”,但是其他框架似乎不能正常工作/不能快速实现.

解决方法:

spaCy models, as of v1.7.0, can be installed as Python packages. This
means that they’re a component of your application, just like any
other module.

这是最近在2017年3月20日推出的50 MB型号:

en_core_web_sm 50 MB Vocab, Syntax, entities, word vectors

您在网页上有更多详细信息
https://spacy.io/docs/usage/models

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐