New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
修改batchSize实际上不起作用 #27
Comments
@XiaotaoChen 谢谢指出!这是由于原版本中存在的错误,现已修正。 PS:在修正前,由于编辑操作的错误实现,导致得到的模型中,输入输出batch_size维度上的 |
ok感谢,之前还遇到其他复杂一点的问题:比如截断网络后,再新增带算子参数的op节点(比如transpose),设置参数后,download会报错。 |
谢谢反馈!我这边简单测试了一下,截断网络,再新增transpose节点,可以正常编辑。所以可否再提供一些更详细的问题描述?可以新开一个issue. |
okok我明天详细整理一下哈 |
我重新试了下,能正常编辑导出来,感谢感谢,这个工具很赞 |
场景描述:将原来onnx模型
batch_size
改为1(即输入尺寸由[batch_size, 3, 224, 224]
改为[1, 3,224,224]
),nerton可视化结果符合预期,但在解析modified onnx模型时通过onnx::ValueInfoProto
获取输入尺寸,如tensorInfo.shape().dim(i).dim_value()
,结果和batch_size
相同,均为[0,3,224,224], 模型为开源mobilenet onnx可视化
原始模型
修改batch_size=1后模型
The text was updated successfully, but these errors were encountered: