(简体中文|English)
【更新说明】 我们在新开源项目FastDeploy里面,基于Triton Inference Server,集成FastDeploy Runtime(包括Paddle Inference、ONNX Runtime、TensorRT以及OpenVINO等),可支持飞桨模型的高性能服务化部署,对服务化部署有需求的开发者,可以参考如下文档进行使用,有任何问题,欢迎在FastDeploy开源项目里通过issue反馈。
Paddle Serving 依托深度学习框架 PaddlePaddle 旨在帮助深度学习开发者和企业提供高性能、灵活易用的工业级在线推理服务。Paddle Serving 支持 RESTful、gRPC、bRPC 等多种协议,提供多种异构硬件和多种操作系统环境下推理解决方案,和多种经典预训练模型示例。核心特性如下:
- 集成高性能服务端推理引擎 Paddle Inference 和端侧引擎 Paddle Lite,其他机器学习平台(Caffe/TensorFlow/ONNX/PyTorch)可通过 x2paddle 工具迁移模型
- 具有高性能 C++ Serving 和高易用 Python Pipeline 2套框架。C++ Serving 基于高性能 bRPC 网络框架打造高吞吐、低延迟的推理服务,性能领先竞品。Python Pipeline 基于 gRPC/gRPC-Gateway 网络框架和 Python 语言构建高易用、高吞吐推理服务框架。技术选型参考技术选型
- 支持 HTTP、gRPC、bRPC 等多种协议;提供 C++、Python、Java 语言 SDK
- 设计并实现基于有向无环图(DAG) 的异步流水线高性能推理框架,具有多模型组合、异步调度、并发推理、动态批量、多卡多流推理、请求缓存等特性
- 适配 x86(Intel) CPU、ARM CPU、Nvidia GPU、昆仑 XPU、华为昇腾310/910、海光 DCU、Nvidia Jetson 等多种硬件
- 集成 Intel MKLDNN、Nvidia TensorRT 加速库,以及低精度量化推理
- 提供一套模型安全部署解决方案,包括加密模型部署、鉴权校验、HTTPs 安全网关,并在实际项目中应用
- 支持云端部署,提供百度云智能云 kubernetes 集群部署 Paddle Serving 案例
- 提供丰富的经典模型部署示例,如 PaddleOCR、PaddleClas、PaddleDetection、PaddleSeg、PaddleNLP、PaddleRec 等套件,共计40+个预训练精品模型
- 支持大规模稀疏参数索引模型分布式部署,具有多表、多分片、多副本、本地高频 cache 等特性、可单机或云端部署
- 支持服务监控,提供基于普罗米修斯的性能数据统计及端口访问
- AIStudio 使用教程 : Paddle Serving服务化部署框架
- AIStudio OCR 实战 : 基于Paddle Serving的OCR服务化部署实战
- 视频教程 : 深度学习服务化部署-以互联网应用为例
- 边缘 AI 解决方案 : 基于Paddle Serving&百度智能边缘BIE的边缘AI解决方案
- 政务问答解决方案 : 政务问答检索式 FAQ System
- 智能问答解决方案 : 保险智能问答
- 语义索引解决方案 : In-batch Negatives
- 论文 : JiZhi: A Fast and Cost-Effective Model-As-A-Service System for Web-Scale Online Inference at Baidu
- 论文 : ERNIE 3.0 TITAN: EXPLORING LARGER-SCALE KNOWLEDGE ENHANCED PRE-TRAINING FOR LANGUAGE UNDERSTANDING AND GENERATION
部署
此章节引导您完成安装和部署步骤,强烈推荐使用Docker部署Paddle Serving,如您不使用docker,省略docker相关步骤。在云服务器上可以使用Kubernetes部署Paddle Serving。在异构硬件如ARM CPU、昆仑XPU上编译或使用Paddle Serving可阅读以下文档。每天编译生成develop分支的最新开发包供开发者使用。
- 使用 Docker 安装 Paddle Serving
- Linux 原生系统安装 Paddle Serving
- 源码编译安装 Paddle Serving
- Kuberntes集群部署 Paddle Serving
- 部署 Paddle Serving 安全网关
- 异构硬件部署[ARM CPU、百度昆仑、华为昇腾、海光DCU、Jetson]
- Docker 镜像列表
- 下载 Python Wheels
使用
安装Paddle Serving后,使用快速开始将引导您运行Serving。具体步骤如下:
第一步,调用模型保存接口,生成模型参数配置文件(.prototxt)用以在客户端和服务端使用;
第二步,阅读配置和启动参数并启动服务;
第三步,根据API和您的使用场景,基于SDK编写客户端请求,并测试推理服务。您想了解跟多特性的使用场景和方法,请详细阅读以下文档。
- 快速开始
- 保存用于Paddle Serving的模型和配置
- 配置和启动参数的说明
- RESTful/gRPC/bRPC API指南
- 低精度推理
- 常见模型数据处理
- 普罗米修斯
- 设置 TensorRT 动态shape
- C++ Serving 概述
- Python Pipeline 概述
- 客户端SDK
- 大规模稀疏参数索引服务
开发者
为Paddle Serving开发者,提供自定义OP,变长数据处理。
Paddle Serving与Paddle模型套件紧密配合,实现大量服务化部署,包括图像分类、物体检测、语言文本识别、中文词性、情感分析、内容推荐等多种类型示例,以及Paddle全链条项目,共计46个模型。
图像分类与识别 | NLP | 推荐系统 | 人脸识别 | 目标检测 | 文字识别 | 图像分割 | 关键点检测 | 视频理解 |
---|---|---|---|---|---|---|---|---|
14 | 6 | 3 | 1 | 10 | 8 | 2 | 1 | 1 |
更多模型示例进入模型库
您想要同开发者和其他用户沟通吗?欢迎加入我们,通过如下方式加入社群
- 微信用户请扫码
- 飞桨推理部署交流群(Group No.:697765514)
贡献代码
如果您想为Paddle Serving贡献代码,请参考 Contribution Guidelines(English)
- 感谢 @w5688414 提供 NLP Ernie Indexing 案例
- 感谢 @loveululu 提供 Cube python API
- 感谢 @EtachGu 更新 docker 使用命令
- 感谢 @BeyondYourself 提供grpc教程,更新FAQ教程,整理文件目录。
- 感谢 @mcl-stone 提供faster rcnn benchmark脚本
- 感谢 @cg82616424 提供unet benchmark脚本和修改部分注释错误
- 感谢 @cuicheng01 提供PaddleClas的11个模型
- 感谢 @Jiaqi Liu 新增list[str]类型输入的预测支持
- 感谢 @Bin Lu 提供PP-Shitu C++模型示例
反馈
如有任何反馈或是bug,请在 GitHub Issue提交
License