微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

Tensorflow 和 Bert 它们究竟是什么,它们之间有什么区别?

如何解决Tensorflow 和 Bert 它们究竟是什么,它们之间有什么区别?

我对 NLP 很感兴趣,我想出了 Tensorflow 和 Bert,它们似乎都来自 Google,而且它们似乎都是目前最适合情感分析的东西,但我不明白它们究竟是什么以及什么它们之间的区别是......有人可以解释一下吗?

解决方法

Bert 和 Tensorflow 没什么不同,BERT 不仅有 2 个,而且有很多实现。大多数基本上是等效的。

您提到的实现是:

Google 的原始代码,在 Tensorflow 中。 https://github.com/google-research/bert Huggingface 在 Pytorch 和 Tensorflow 中的实现,重现了与原始实现相同的结果,并使用了与原始 BERT 文章相同的检查点。 https://github.com/huggingface/transformers 这些是不同方面的差异:

就结果而言,使用一个或另一个没有区别,因为它们都使用相同的检查点(相同的权重)并且它们的结果经过检查是相等的。 在可重用性方面,HuggingFace 库可能更具可重用性,因为它是专门为此而设计的。此外,它让您可以自由选择 TensorFlow 或 Pytorch 作为深度学习框架。 在性能方面,它们应该是相同的。 在社区支持方面(例如在 github 或 stackoverflow 中提问),HuggingFace 库更适合,因为有很多人在使用它。 除了 BERT,HuggingFace 的 Transformers 库还有许多模型的实现:OpenAI GPT-2、RoBERTa、ELECTRA ......

,

Tensorflow 是一个用于机器学习的开源库,可让您构建深度学习模型/架构。但是 BERT 是架构本身之一。您可以使用 TensorFlow 构建许多模型,包括 RNNLSTM,甚至是 BERT。如果您只想在数据上部署模型并且不关心深度学习领域本身,像 BERT 这样的转换器是一个不错的选择。为此,我推荐了 HuggingFace 库,它提供了一种简单的方法,只需几行代码即可使用转换器模型。但是如果你想更深入地了解这些模型,我建议你学习众所周知的文本数据深度学习架构,如RNNLSTM、CNN 等,并尝试使用 TensorflowPyTorch 之类的 ML 库来实现它们。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。