在服务化部署前,需确认
-
- 服务化镜像的软硬件环境要求和镜像拉取命令请参考 FastDeploy 服务化部署
以下示例展示如何基于 FastDeploy 库完成 ERNIE 3.0 模型在 CLUE Benchmark 的 AFQMC 数据集上进行文本分类任务以及 MSRA_NER 数据集上进行序列标注任务的服务化部署。按照ERNIE 3.0 训练文档分别训练并导出文本分类模型以及序列标注模型,并将导出的模型移动到 models 目录下相应位置。注意:模型与参数文件必须命名为 model.pdmodel 和 model.pdiparams。
模型移动好之后,文本分类任务的 models 目录结构如下:
models
├── ernie_seqcls # 分类任务的 pipeline
│ ├── 1
│ └── config.pbtxt # 通过这个文件组合前后处理和模型推理
├── ernie_seqcls_model # 分类任务的模型推理
│ ├── 1
│ │ ├── model.pdiparams
│ │ └── model.pdmodel
│ └── config.pbtxt
├── ernie_seqcls_postprocess # 分类任务后处理
│ ├── 1
│ │ └── model.py
│ └── config.pbtxt
└── ernie_tokenizer # 预处理分词
├── 1
│ └── model.py
└── config.pbtxt
序列标注任务的 models 目录结构如下:
models
├── ernie_tokencls # 序列标注任务的 pipeline
│ ├── 1
│ └── config.pbtxt # 通过这个文件组合前后处理和模型推理
├── ernie_tokencls_model # 序列标注任务的模型推理
│ ├── 1
│ │ ├── model.pdiparams
│ │ └── model.pdmodel
│ └── config.pbtxt
├── ernie_tokencls_postprocess # 序列标注任务后处理
│ ├── 1
│ │ └── model.py
│ └── config.pbtxt
└── ernie_tokenizer # 预处理分词
├── 1
│ └── model.py
└── config.pbtxt
# x.y.z为镜像版本号,需参照 serving 文档替换为数字
# GPU镜像
docker pull registry.baidubce.com/paddlepaddle/fastdeploy:x.y.z-gpu-cuda11.4-trt8.4-21.10
# CPU镜像
docker pull registry.baidubce.com/paddlepaddle/fastdeploy:x.y.z-cpu-only-21.10
# GPU 运行
nvidia-docker run -it --net=host --name fastdeploy_server --shm-size="1g" -v /path/serving/models:/models rregistry.baidubce.com/paddlepaddle/fastdeploy:x.y.z-gpu-cuda11.4-trt8.4-21.10 bash
# CPU 运行
docker run -it --net=host --name fastdeploy_server --shm-size="1g" -v /path/serving/models:/models registry.baidubce.com/paddlepaddle/fastdeploy:x.y.z-cpu-only-21.10 bash
serving 目录包含启动 pipeline 服务的配置和发送预测请求的代码,包括:
models # 服务化启动需要的模型仓库,包含模型和服务配置文件
seq_cls_rpc_client.py # AFQMC 分类任务发送 pipeline 预测请求的脚本
token_cls_rpc_client.py # 序列标注任务发送 pipeline 预测请求的脚本
注意:启动服务时,Server 的每个 python 后端进程默认申请 64M 内存,默认启动的 docker 无法启动多个 python 后端节点。有两个解决方案:
-
启动容器时设置 shm-size 参数, 比如: docker run -it --net=host --name fastdeploy_server --shm-size="1g" -v /path/serving/models:/models registry.baidubce.com/paddlepaddle/fastdeploy:x.y.z-gpu-cuda11.4-trt8.4-21.10 bash
-
启动服务时设置 python 后端的 shm-default-byte-size 参数, 设置 python 后端的默认内存为10M: fastdeployserver --model-repository=/models --backend-config=python,shm-default-byte-size=10485760
在容器内执行下面命令启动服务:
# 默认启动 models 下所有模型
fastdeployserver --model-repository=/models
# 可通过参数只启动分类任务
fastdeployserver --model-repository=/models --model-control-mode=explicit --load-model=ernie_seqcls
输出打印如下:
I0209 09:15:49.314029 708 model_repository_manager.cc:1183] successfully loaded 'ernie_seqcls_model' version 1
I0209 09:15:49.314917 708 model_repository_manager.cc:1022] loading: ernie_seqcls:1
I0209 09:15:49.417014 708 model_repository_manager.cc:1183] successfully loaded 'ernie_seqcls' version 1
...
I0209 09:15:49.417394 708 server.cc:549]
+------------+---------------------------------------------------------------+--------+
| Backend | Path | Config |
+------------+---------------------------------------------------------------+--------+
| python | /opt/tritonserver/backends/python/libtriton_python.so | {} |
| fastdeploy | /opt/tritonserver/backends/fastdeploy/libtriton_fastdeploy.so | {} |
+------------+---------------------------------------------------------------+--------+
I0209 09:15:49.417552 708 server.cc:592]
+--------------------------+---------+--------+
| Model | Version | Status |
+--------------------------+---------+--------+
| ernie_seqcls | 1 | READY |
| ernie_seqcls_model | 1 | READY |
| ernie_seqcls_postprocess | 1 | READY |
| ernie_seqcls_tokenizer | 1 | READY |
+--------------------------+---------+--------+
在容器内执行下面命令启动序列标注服务:
fastdeployserver --model-repository=/models --model-control-mode=explicit --load-model=ernie_tokencls --backend-config=python,shm-default-byte-size=10485760
输出打印如下:
I0209 09:15:49.314029 708 model_repository_manager.cc:1183] successfully loaded 'ernie_tokencls_model' version 1
I0209 09:15:49.314917 708 model_repository_manager.cc:1022] loading: ernie_tokencls:1
I0209 09:15:49.417014 708 model_repository_manager.cc:1183] successfully loaded 'ernie_tokencls' version 1
...
I0209 09:15:49.417394 708 server.cc:549]
+------------+---------------------------------------------------------------+--------+
| Backend | Path | Config |
+------------+---------------------------------------------------------------+--------+
| python | /opt/tritonserver/backends/python/libtriton_python.so | {} |
| fastdeploy | /opt/tritonserver/backends/fastdeploy/libtriton_fastdeploy.so | {} |
+------------+---------------------------------------------------------------+--------+
I0209 09:15:49.417552 708 server.cc:592]
+----------------------------+---------+--------+
| Model | Version | Status |
+----------------------------+---------+--------+
| ernie_tokencls | 1 | READY |
| ernie_tokencls_model | 1 | READY |
| ernie_tokencls_postprocess | 1 | READY |
| ernie_tokencls_tokenizer | 1 | READY |
+----------------------------+---------+--------+
客户端请求可以在本地执行脚本请求;也可以在容器中执行。
本地执行脚本需要先安装依赖:
pip install grpcio
pip install tritonclient[all]
# 如果bash无法识别括号,可以使用如下指令安装:
pip install tritonclient\[all\]
注意执行客户端请求时关闭代理,并根据实际情况修改main函数中的ip地址(启动服务所在的机器)
python seq_cls_grpc_client.py
输出打印如下:
{'label': array([0, 0]), 'confidence': array([0.54437345, 0.98503494], dtype=float32)}
acc: 0.7224281742354032
注意执行客户端请求时关闭代理,并根据实际情况修改main函数中的ip地址(启动服务所在的机器)
python token_cls_grpc_client.py
输出打印如下:
input data: 北京的涮肉,重庆的火锅,成都的小吃都是极具特色的美食。
The model detects all entities:
entity: 北京 label: LOC pos: [0, 1]
entity: 重庆 label: LOC pos: [6, 7]
entity: 成都 label: LOC pos: [12, 13]
input data: 乔丹、科比、詹姆斯和姚明都是篮球界的标志性人物。
The model detects all entities:
entity: 乔丹 label: PER pos: [0, 1]
entity: 科比 label: PER pos: [3, 4]
entity: 詹姆斯 label: PER pos: [6, 8]
entity: 姚明 label: PER pos: [10, 11]
当前分类任务( ernie_seqcls_model/config.pbtxt )默认配置在 CPU上 运行 OpenVINO 引擎; 序列标注任务默认配置在 GPU 上运行 Paddle Inference 引擎。如果要在 CPU/GPU 或其他推理引擎上运行, 需要修改配置,详情请参考配置文档。