如何解决PyTorch与Tensorflow中的RNN实施
我刚开始使用PyTorch,并在Tensorflow v1上有几年的经验。我对RNN在PyTorch中的工作方式感到困惑。
在我看来,“ nn”中提供的RNN都是C实现,而且我似乎找不到与Tensorflow的“ scan”或“ dynamic_rnn”功能等效的功能。此外,PyTorch中所有RNN的自定义实现似乎都可以使用Python for循环工作。这样会不会导致对GPU的多次调用而使一切变慢?
第二个:我习惯于通过向RNN函数提供每个序列的长度来处理Tensorflow中包含可变长度序列的小批处理。这样做的优点是(与使用显式填充令牌相比)无需在词汇表中为填充令牌创建无用的条目。填充的数据可以是任何现有令牌,因为它们位于声明的长度之外,因此将被忽略。但是似乎PyTorch像Keras一样采用了填充令牌。我了解这个权利吗?我必须在我的嵌入矩阵中为填充令牌保留一个条目吗?
谢谢!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。