微信公众号搜"智元新知"关注
微信扫一扫可直接关注哦!

TensorRT Engine File不能与tritonserver进行推理,但不能与python一起使用

如何解决TensorRT Engine File不能与tritonserver进行推理,但不能与python一起使用

我的环境:

  • centos 7
  • nvidia 440.36
  • CUDA 10.2
  • cudnn 8
  • TensorRT-7.1.3.4
  • CUDA 10.2
  • nvcr.io/nvidia/tritonserver 20.09-py3(docker) 我的模型使用tf1进行训练,将常数值冻结到图形中并在Frozen.pb中序列化。但是我的模型将使用trtserver.triton进行推断,其中包含tensorflow2.3。我已经使用cuda10.2,cudnn8,tensorrt.tensorflow的2.4版本从源代码编译了tensorflow。 .0。我使用convert-to-uff工具将冻结的文件转换为model.uff,并使用TensorRT(python)读取文件并将反序列化的引擎文件转换为model.plan。我可以对引擎文件使用python推理,但不能使用与triton.My代码enter image description here

config.pbtxt: config.pbtxt

uff转换日志: uff-convert log

tritonserver log

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。