尝试在 onnotes 上训练 AllenNLP 共指解析模型:使 CUDA 内存不足

如何解决尝试在 onnotes 上训练 AllenNLP 共指解析模型:使 CUDA 内存不足

我正在尝试使用以下配置文件在 16GB GPU 上训练 AllenNLPs 共指模型:https://github.com/allenai/allennlp-models/blob/main/training_config/coref/coref_spanbert_large.jsonnet

我使用以下脚本创建了训练、测试和开发文件https://github.com/allenai/allennlp/blob/master/scripts/compile_coref_data.sh

我几乎立即就让 CUDA 内存不足,所以我尝试将“spans_per_word”和“max_antecedents”更改为较低的值。将 spans_per_words 设置为 0.1 而不是 0.4,我可以运行更长的时间,但不会接近一个完整的 epoch。 16GB GPU 还不够吗?或者我可以尝试更改其他参数吗?

回溯(最近一次调用最后一次): 文件“/home/ubuntu/anaconda3/envs/allennlp/bin/allennlp”,第8行,在 sys.exit(运行()) 运行文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/ma​​in.py”,第34行 主要(编=“allennlp”) 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/commands/init.py”,第119行,主目录 args.func(args) 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/commands/train.py”,第119行,train_model_from_args file_friendly_logging=args.file_friendly_logging, 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/commands/train.py”,第178行,train_model_from_file file_friendly_logging=file_friendly_logging, 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/commands/train.py”,第242行,train_model file_friendly_logging=file_friendly_logging, 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/commands/train.py”,第466行,在_train_worker 指标 = train_loop.run() 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/commands/train.py”,第528行,运行中 返回 self.trainer.train() 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/training/trainer.py”,第740行,火车 指标,纪元 = self._try_train() 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/training/trainer.py”,第772行,在_try_train train_metrics = self._train_epoch(epoch) 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/allennlp/training/trainer.py”,第523行,在_train_epoch 损失.向后() 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/torch/tensor.py”,第245行,向后 torch.autograd.backward(自我,渐变,retain_graph,create_graph,输入=输入) 文件“/home/ubuntu/anaconda3/envs/allennlp/lib/python3.7/site-packages/torch/autograd/init.py”,第147行,向后 allow_unreachable=True,accumulate_grad=True) # allow_unreachable 标志 运行时错误:CUDA 内存不足。尝试分配 1.33 GiB(GPU 0;14.76 GiB 总容量;11.69 GiB 已分配;639.75 MiB 空闲;PyTorch 总共预留 13.09 GiB)

解决方法

16GB 是该型号的低端。

当这个模型接收到大量文本时,它会将文本分成多个较短的序列,每个序列为 512 个词段,并同时运行它们。这样一来,即使批大小为 1,您也会同时在内存中获得大量序列。

尝试将 max_sentence 设置为较低的值(默认为 110),看看是否有效。

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


Selenium Web驱动程序和Java。元素在(x,y)点处不可单击。其他元素将获得点击?
Python-如何使用点“。” 访问字典成员?
Java 字符串是不可变的。到底是什么意思?
Java中的“ final”关键字如何工作?(我仍然可以修改对象。)
“loop:”在Java代码中。这是什么,为什么要编译?
java.lang.ClassNotFoundException:sun.jdbc.odbc.JdbcOdbcDriver发生异常。为什么?
这是用Java进行XML解析的最佳库。
Java的PriorityQueue的内置迭代器不会以任何特定顺序遍历数据结构。为什么?
如何在Java中聆听按键时移动图像。
Java“Program to an interface”。这是什么意思?
Java在半透明框架/面板/组件上重新绘画。
Java“ Class.forName()”和“ Class.forName()。newInstance()”之间有什么区别?
在此环境中不提供编译器。也许是在JRE而不是JDK上运行?
Java用相同的方法在一个类中实现两个接口。哪种接口方法被覆盖?
Java 什么是Runtime.getRuntime()。totalMemory()和freeMemory()?
java.library.path中的java.lang.UnsatisfiedLinkError否*****。dll
JavaFX“位置是必需的。” 即使在同一包装中
Java 导入两个具有相同名称的类。怎么处理?
Java 是否应该在HttpServletResponse.getOutputStream()/。getWriter()上调用.close()?
Java RegEx元字符(。)和普通点?