如何解决您如何在GPU上运行ONNX模型?
我正在尝试运行ONNX模型
import onnxruntime as ort
import onnxruntime.backend
model_path = "model.onnx"
#https://microsoft.github.io/onnxruntime/
ort_sess = ort.InferenceSession(model_path)
print( ort.get_device() )
这将打印出来
cpu
如何使它在我的GPU上运行?我如何确认其正常工作?
解决方法
您可能安装了CPU版本。尝试卸载onnxruntime并安装GPU版本,例如pip install onnxruntime-gpu
。
然后:
>>> import onnxruntime as ort
>>> ort.get_device()
'GPU'
,
get_device() 命令为您提供 onnxruntime 支持的设备。 对于 CPU 和 GPU,有不同的运行时包可用。
目前您的 onnxruntime 环境仅支持 CPU,因为您安装了 CPU 版本的 onnxruntime。
如果您想构建用于 GPU 的 onnxruntime 环境,请执行以下简单步骤。
第一步:卸载你当前的onnxruntime
>> pip uninstall onnxruntime
第 2 步:安装 GPU 版本的 onnxruntime 环境
>>pip install onnxruntime-gpu
第 3 步:验证设备对 onnxruntime 环境的支持
>> import onnxruntime as rt
>> rt.get_device()
'GPU'
第 4 步:如果您遇到任何问题,请检查您的 cuda 和 CuDNN 版本,它们必须相互兼容。 请参阅此链接 here 以了解 cuda 和 CuDNN 之间的版本兼容性。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。