如何解决我可以将两个 ONNX 图组合在一起,将一个输出作为输入传递给另一个吗?
我有一个从 pytorch 导出的模型,我将调用 main_model.onnx
。它有一个我称之为 main_input
的输入节点,它需要一个整数列表。我可以在 onnxruntime 中加载它并发送一个整数列表,效果很好。
我制作了另一个 ONNX 模型,我将其称为 pre_model.onnx
,输入为 pre_input
,输出为 pre_output
。这会预处理一些文本,因此输入就是文本,而 pre_output
是一个整数列表,完全符合 main_model.onnx
对输入的需求。
我的目标是,使用 Python onnx.helper
工具,创建一个接受文本作为输入的超级模型,并贯穿我的 pre-model.onnx
,可能是某个连接器节点(Identity
可能?),然后通过 main_model.onnx
全部在一个大 combined.onnx
模型中。
我曾尝试使用 pre_model.graph.node
+Identity connector+main_model.graph.node
作为新图中的节点,但是从 pytorch 导出的参数以这种方式丢失了。有没有办法保留所有这些参数和所有内容,并导出这个更大的组合 ONNX 模型?
解决方法
虽然有点棘手,但这是可以实现的。您可以探索 ONNX (https://github.com/onnx/onnx/blob/master/docs/PythonAPIOverview.md) 提供的 Python API。这将允许您将模型加载到内存中,并且您必须使用公开的 API“组合”您的组合模型(将两个 GraphProto 消息合并为一个 - 这说起来容易做起来难 - 你必须确保你不在执行此操作时不违反 onnx 规范),最后将新的 Graphproto 存储在新的 ModelProto 中,您就拥有了组合模型。我还会在完成时通过 onnx 检查器运行它,以确保模型在创建后有效。
版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。