New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
paddleocr with paddle serving on tensorrt #7401
Comments
升级下paddle版本,推荐2.3,同时serving也升级一下吧,可以用0.8.3,另外paddleocr已经更新到2.6分支,也可以更新下代码 |
用了新的serving镜像registry.baidubce.com/paddlepaddle/serving:0.9.0-cuda11.2-cudnn8-devel |
好的,谢谢。我先试试,另外还想问一下,发布的ppocr训练模型和推理模型的关系是什么 |
怎么修改推理模型使用的算法 |
训练模型是动态图模型,可以用来作预训练模型,推理模型是导出的静态图模型,便于部署推理,可以适配c++,python等不同部署方式 |
具体是哪种使用方式呢? |
我用的paddle serving,python http pipeline,模型用的ch_PP-OCRv3_det_slim和ch_PP-OCRv3_rec_slim的推理模型 |
paddle serving部署目前只支持pp系列模型,因为其他算法的前后处理会不太一样,serving需要单独适配,感兴趣的话可以自己编写前后处理的代码适配serving |
我用的这个是pp系列模型吧?您的意思是推理模型使用的算法是固定的,不能更换? |
文档里这么写的:PP-OCRv3的识别模型默认使用的rec_algorithm为SVTR_LCNet,注意和原始SVTR的区别。 |
是的,PP-OCRv3的识别模型就是SVTR_LCNet,serving部署的话,直接下载对应的pp系列的推理模型就行 |
那我如果想使用其他算法呢?我看见使用训练模型预测时可以在配置文件修改算法。能否将训练模型转化为推理模型? |
我的目的就是在服务器上部署一个模型服务,而且可以更换检测和识别的算法。这个现在可以实现吗? |
Python预测是支持不同算法的,serving目前不支持pp系列以外的算法 |
serving部署更换的话,也只能使用PP系列的模型,比如v2或者v3,其他暂不支持 |
好的,谢谢。那后续serving会支持算法更换吗? |
比如在配置文件里修改 |
我试了很多种paddle开发镜像和serving镜像部署tensorrt模式的服务,但是都失败了。您能推荐一个版本组合吗?开发/serving镜像+paddlepaddle-gpuXX+tensorrtXX+PaddleOCR-releaseXX |
目前还没计划,后续可能会有 |
我刚试了一下 运行python http pipeline的webservice报错: |
nvidia-smi命令正常: +-----------------------------------------------------------------------------+ cat /usr/include/cudnn_version.h | grep CUDNN_MAJOR -A 2 #define CUDNN_MAJOR 8
|
首先确保gpu版本的paddle安装正确,看报错你的基础环境还没安装成功 |
我用10.2的镜像就不报cuda的错误,11.2的这个镜像我试了不同python3的版本、paddle-gpu的版本,cuda都驱不起来 |
另外还想问一下,serving的rpc方式比http速度要快吧?调用rpc返回paddle_serving_server.pipeline.proto.pipeline_service_pb2.Response这个对象,要怎么解析呢?文档里没找到相关说明 |
镜像安装问题可以到paddle的repo下提issue |
这个是serving相关的问题,可以到PaddleServing的repo下面问问 |
好的,谢谢 |
环境配置如下:
paddleocr-release2.5
docker_image: registry.baidubce.com/paddlepaddle/paddle:2.1.3-gpu-cuda10.2-cudnn7
tensorrt: 7.2.1.6
paddle-gpu: 2.1.1(用来适配tensorrt7.2)
paddle-serving-app: 0.7.0
paddle-serving-client: 0.7.0
paddle-serving-server-gpu: 0.7.0.post102
问题:
运行paddle serving
运行python pipeline: python web_service.py报错如下:
The input [conv2d_252.tmp_0] shape of trt subgraph is [-1,96,-1,-1], please enable trt dynamic_shape mode by SetTRTDynamicShapeInfo
之前根据https://gitee.com/paddlepaddle/Serving/blob/v0.8.2/doc/TensorRT_Dynamic_Shape_CN.md已在web_service.py中的DetOp和RecOp类加入set_dynamic_shape_info函数,但是无效,依然报错
The text was updated successfully, but these errors were encountered: