如何解决bert_en_uncased_preprocess 是如何制作的?例如通过训练神经网络或手动编码?
我是深度学习的新手,遇到了 BERT。我像 Tensorflow 教程一样尝试了 small_bert/bert_en_uncased_L-4_H-512_A-8
,结果非常惊人。我想更深入地挖掘并想知道相应的 bert_en_uncased_preprocess
是如何制作的。
据我所知,它完成了所有 WordPiece 标记化工作,因此它应该涉及一些编码,而不仅仅是训练。 https://tfhub.dev/tensorflow/bert_en_uncased_preprocess/3
提供 SavedModel。有没有源代码或类似的东西?它是如何制作的?
与使用无关。用法很好很清楚。目的是学习。
提前致谢。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。