[TOC]
ONNX环境配置
Install
1 | # CPU版本 |
OnnxRun
1 | import onnxruntime |
如果GPU不可用,可以在 ~/.bashrc
中添加下面两行内容:
1 | export PATH=/usr/local/cuda/bin:$PATH |
Demo:
1 | import onnxruntime |
pth导出onnx
多输入模型
1 | dummy_input0 = torch.LongTensor(Batch_size, seg_length).to(torch.device("cuda")) |
https://blog.csdn.net/qq_38003892/article/details/89543299
固定batchsize导出ONNX模型
1 | import torch |
原文链接:https://blog.csdn.net/m0_51004308/article/details/116152611
多batchsize导出ONNX模型
Demo1
1 | b, h, w, c = model.shape |
Demo2
1 | import argparse |
Run
1 | import onnxruntime as ort |
存在的问题,动态输入的onnx模型简化是失败,但是可以转tensorrt
原文链接:https://blog.csdn.net/qq_17127427/article/details/115749006
Demo3
https://www.freesion.com/article/2565433278/
pth 导出TRT
1 |
ONNX导出TensorRT
场景1
PyTorch 1.3,TensorRT 6.0,ONNX 1.5
PyTorch 训练好的 CRNN 模型,转换为 ONNX 之后无法转为 TensorRT
原因:
https://github.com/onnx/onnx-tensorrt/blob/master/operators.md
↑ onnx-tensorrt 支持的操作列表,根本就不支持 RNN,包括 LSTM、GRU 等都不支持
用 TensorRT 重新构建网络,并载入训练好的权重
————————————————
原文链接:https://blog.csdn.net/tsukumo99/article/details/103498390
Pth不同版本的模型之间转换
https://blog.csdn.net/u010454261/article/details/114936724