-
Notifications
You must be signed in to change notification settings - Fork 2.9k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Bug of quant-aware training of tinypose ! #6365
Comments
@2050airobert Paddleslim已经发布2.3.0版本,之前的代码位置有所改动,请使用正式版代码再试下吧:https://github.com/PaddlePaddle/PaddleSlim/tree/release/2.3/example/auto_compression/detection pip insyall paddleslim==2.3.0 如有问题,请再将报错详细log发出来~ |
@2050airobert 你的问题没有复现,重新安装下paddleslim2.3.0,然后代码也更新下试下呢? |
@yghstill |
perlayer是支持的,加载的模型是fp32训好的模型,需要先训好fp32模型再进行量化蒸馏,如果想要QAT训练,目前只支持部分量化,不支持全量化。 |
部分量化和auto compression精度相差多少还没对比,先提供了全量化的auto compression的这个配置。 |
@2050airobert fp32模型评估精度正常吗? |
不正常啊! 麻烦您看下我上面几个问题,多谢 |
@2050airobert 先验证正确fp32模型再进行压缩吧,确认下输入shape、预处理过程是否一致?https://github.com/PaddlePaddle/PaddleSlim/blob/develop/example/auto_compression/detection/configs/tinypose_reader.yml#L37 |
hi,guanghua |
@2050airobert 确认了下,是normalize加不加进网络的区别, 已经提交PR适配了下,参考修改下就可以了:PaddlePaddle/PaddleSlim#1267 |
|
@yghstill
|
|
@2050airobert 你试过coco上官方发布的模型吗?我这边测试自动化压缩这个demo,AP可以到48左右 |
@2050airobert 配置文件改了哪些地方?weight_quantize_type保持channel_wise_abs_max不变吗?abs_max这个没有验证调试 |
is_full_quantize这个删掉试下吧 |
其实这是我试过你原始的不行才加上的,结果一样错 |
实在不行,可以把您的版本打包发下呗? 我验证下 可以吗? |
@2050airobert https://github.com/PaddlePaddle/PaddleDetection/blob/release/2.4/configs/keypoint/tiny_pose/tinypose_128x96.yml#L147 你将fuse_normalize设为False,然后Reader还是保持修改PR之前的设置再试下吧,我这边复现,fuse_normalize=Ture的是会有问题 |
不对啊,你这个改动的是paddle detection里面的文件,可是我用的slim采用的是你的方法一,qat全量化方式,我应该改动的文件是 tinypose_qat_dis.yaml 和 tinypose_reader.yml ? |
如果你怀疑输入的模型有问题,您可以给我一个你那边验证没问题的模型 pdiparam 和pdmode info.yml infoxxx四个文件打包给我下就好 |
问题确认 Search before asking
bug描述 Describe the Bug
@yghstill TinyPose模型的自动化压缩代码整理完成了:https://github.com/PaddlePaddle/PaddleSlim/tree/develop/demo/auto_compression/detection
配置文件是:configs/tinypose_qat_dis.yaml,启动方式和readme中完全一致,如果全量化的话可以先使用这个
上面是你说的话,可是出现了几个问题。
1 你给出的这个链接 404打不开了,于是我找到了其他的位置,找到你说的yml,运行程序
2 python3 -m paddle.distributed.launch --log_dir=log0705 --gpus 0,1 run.py --config_path=./configs/tinypose_qat_dis.yaml --save_dir='./output0705/'
python3 run.py --config_path=./configs/tinypose_qat_dis.yaml --save_dir='./output0705/'
以上两种方式都尝试了,可是报错如下
请大佬能认真帮忙看下吗?
3 是否有真正的可复现而且无bug的版本发出来,是否可以进行自测再发出来,多谢
BR
复现环境 Environment
是否愿意提交PR Are you willing to submit a PR?
The text was updated successfully, but these errors were encountered: