前几天断更了,现在根据阅读的材料进行一些补充。
模型驱动 + 数据驱动 = 自然语言表示学习
sentiment
classification
entity extraction
translation
topic modeling
深度学习 = 表示学习 + 浅层学习
分布式表示:压缩、低维、稠密向量
词、短语:组合语义模型
句子:序列模型、递归模型、卷积模型、自注意力模型
篇章:层次模型
Transformer:可能是目前为止最适合NLP的模型
ALBERT: A Lite BERT for Self-Supervised Learning of Language Representations (Lan et al., arXiv:1909.11942) 更小的词向量维度(128) 跨层参数共享(类似循环神经网络) 将下句预测(NSP)改为句子顺序预测(SOP)
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。