我用以下命令 生成onnx格式模型:
python export_onnx.py --model-type mattingrefine --model-backbone resnet50 --model-checkpoint ./Weight/Pytorch/pytorch_resnet50.pth --output ./onnx/resnet50_hd.onnx
然后用onnxruntime C++ SDK做模型推理,但发现生成的alpha图与原生TorchScript模型生成的差别较大,我也试过mobilenetV2和resnet101主干的onnx模型,发现他们生成的图与原生模型差别很小,但就是resnet50差别较大,这是为什么?我的转换命令正确吗?
我用以下命令 生成onnx格式模型:
python export_onnx.py --model-type mattingrefine --model-backbone resnet50 --model-checkpoint ./Weight/Pytorch/pytorch_resnet50.pth --output ./onnx/resnet50_hd.onnx
然后用onnxruntime C++ SDK做模型推理,但发现生成的alpha图与原生TorchScript模型生成的差别较大,我也试过mobilenetV2和resnet101主干的onnx模型,发现他们生成的图与原生模型差别很小,但就是resnet50差别较大,这是为什么?我的转换命令正确吗?