Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

修改batchSize实际上不起作用 #27

Closed
XiaotaoChen opened this issue Nov 24, 2022 · 5 comments
Closed

修改batchSize实际上不起作用 #27

XiaotaoChen opened this issue Nov 24, 2022 · 5 comments

Comments

@XiaotaoChen
Copy link

场景描述:将原来onnx模型batch_size改为1(即输入尺寸由[batch_size, 3, 224, 224]改为[1, 3,224,224]),nerton可视化结果符合预期,但在解析modified onnx模型时通过onnx::ValueInfoProto获取输入尺寸,如tensorInfo.shape().dim(i).dim_value(),结果和batch_size相同,均为[0,3,224,224], 模型为开源mobilenet onnx

可视化
原始模型
image

修改batch_size=1后模型
image

@ZhangGe6
Copy link
Owner

ZhangGe6 commented Nov 24, 2022

@XiaotaoChen 谢谢指出!这是由于原版本中存在的错误,现已修正。

PS:在修正前,由于编辑操作的错误实现,导致得到的模型中,输入输出batch_size维度上的1,实际上是一个字符串...(完美地骗过了眼睛)。所以得到的模型本质上还是dynamic inference的,这时候的dim_param = "1"1是字符串),dim_value = 0。这也就解释了上述现象。

@XiaotaoChen
Copy link
Author

@XiaotaoChen 谢谢指出!这是由于原版本中存在的错误,现已修正。

PS:在修正前,由于编辑操作的错误实现,导致得到的模型中,输入输出batch_size维度上的1,实际上是一个字符串...(完美地骗过了眼睛)。所以得到的模型本质上还是dynamic inference的,这时候的dim_param = "1"1是字符串),dim_value = 0。这也就解释了上述现象。

ok感谢,之前还遇到其他复杂一点的问题:比如截断网络后,再新增带算子参数的op节点(比如transpose),设置参数后,download会报错。

@ZhangGe6
Copy link
Owner

之前还遇到其他复杂一点的问题:比如截断网络后,再新增带算子参数的op节点(比如transpose),设置参数后,download会报错。

谢谢反馈!我这边简单测试了一下,截断网络,再新增transpose节点,可以正常编辑。所以可否再提供一些更详细的问题描述?可以新开一个issue.

@XiaotaoChen
Copy link
Author

之前还遇到其他复杂一点的问题:比如截断网络后,再新增带算子参数的op节点(比如transpose),设置参数后,download会报错。

谢谢反馈!我这边简单测试了一下,截断网络,再新增transpose节点,可以正常编辑。所以可否再提供一些更详细的问题描述?可以新开一个issue.

okok我明天详细整理一下哈

@XiaotaoChen
Copy link
Author

我重新试了下,能正常编辑导出来,感谢感谢,这个工具很赞

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants