如何解决如何设计训练数据集,让 NN 翻译模型捕获模式并增加可扩展性?
标题有点模糊,所以让我放在上下文中。目前我的任务是将英文句子翻译成 sql 子句。我使用了带有编码器-解码器网络的经典 seq2seq 模型,非常类似于语言翻译模型(具体来说,框架是 Keras,Python 3 环境)。
为了说明,这里是数据库中的表的演示(这几乎是真实表的样子,只有3列,是一个简单的知识图):
来源 | 边缘 | 目标 |
---|---|---|
约翰 | 访问 | StackOverflow |
...... | ...... | ...... |
理想的模型应该能够理解输入并尽可能灵活地做出预测。例如,模型不仅要理解:
句子:列出所有访问过 Stack Overflow 的人
sql:select source from table where edge='visit' and target='Stack Overflow'
还有:
句子:列出所有访问过 Stack Overflow 的人或询问 Ubuntu
sql:select source from table where edge='visit' and target in ('Stack Overflow','Ask Ubuntu)
我第一关注的是:可以添加无数 or
个条件,这意味着理想情况下模型应该能够对预测中的这种变化做出反应;
其次:target
/source
/edge
的值可能无法枚举(例如,想象一下 target
有 1000 多个可能的值) ,这意味着测试数据中总会有新词显示,而训练数据集中没有。
我想这两个问题都指向了明智地设计训练数据集的问题,以及如何让模型对这些变化做出反应。有什么想法吗?
谢谢!
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。