如何解决有哪些方法可以更好地控制 BERT 输出?在多标签文本分类任务中增加/减少某些词的相关性
我想更好地了解如何更好地控制基于 BERT 的语言模型的分类能力,该模型针对多标签文本分类任务(或任何其他 LM 架构)进行了微调。
我的基本用例是能够增加或减少输入中包含的某些词与已经训练和微调的模型的相关性。
例如,假设在微调过程中对于某些特定标签的训练数据样本太少。然后我想在输入中包含某些单词的情况下对该标签的输入进行分类。
我想在它的注意力机制中有一些调整方法,但我仍然不知道应该做什么和在哪里做。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。