-
Notifications
You must be signed in to change notification settings - Fork 7.5k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
关于Serving0.8.3部署OCR模型检测精度下降和识别结果问题 #6367
Comments
请问你解决了吗?我也遇到了这样的问题,修改web_service.py中的self.post_func = DBPostProcess({ |
|
cpu,性能的话,目前还没处理。漏检的我已经解决了,将unclip_ratio修改为1.8后,就没有漏检的了,但是识别的有部分数据,识别的有缺漏,比如少了”c或者)“。 |
哈哈好的,这个我看到了开启mkldnn加速,程序会报错抛异常导致识别失败,不知道什么原因所以目前没开启, |
|
识别方面的漏缺,我也解决了,修改下,ocr_readr.py中的 |
好的好的,我已经迫不及待要试下了,晚点我去试试,再来给反馈,哈哈哈,谢谢啦 如果性能的问题您也有解决的话,也可以说下,我这边解决了也会把解决方式发出来 |
这样改也不行,仍然只识别部分。 |
你的其他后处理有没有修改成跟推理模型一致的呢?比如如果你是ppocrv3,识别的图形要设置为3, 48, 320。如果你是ppocrv2,,识别的图形要设置为3, 32, 320。总之你检查下serving部署的后处理各参数是否与推理一致,我的是一致后,还有缺漏,才注销那段代码的。 |
我用的v3,没有改 |
模型加速:根据serving模型配置,可以开启mkldnn(cpu)和tensorRT(GPU)加速。此外还可进行模型剪枝和修改ocr_reader中的resize_long的大小,减小输入图片的大小,从而提高识别速度。最后还可以修改config.yml中worker_num,concurrency降低并发数和线程数加速,还有降低精度precision提速,关闭use_profile提速。开启mkldnn和tensorRT需要cpu支持avx,Linux命令:cat /proc/cpuinfo | grep avx |
大佬们,模型部署后的结果准确率低于部署前的准确率,怎么解决啊? |
根据你的部署方式,修改其前置处理和后置处理,让它们和你的训练或推理的处理一致即可。 |
python=3.8
paddlepaddle==2.2.2
paddle-serving-server==0.8.3
服务器是centos7,cpu
1.paddle_serving_client.convert转换ch_PP-OCRv3_rec_infer和ch_PP-OCRv3_det_infer模型
2.python3 web_service.py
通过post请求预测接口,同一张图片的预测结果和tools/infer/predict_system.py预测结果不一致,相差在20%
请问这个问题该如何解决
The text was updated successfully, but these errors were encountered: