Skip to content

核心定位:AI模型全生命周期管理 关键技术: 模型版本热切换(不中断服务更新v1→v2) 动态批处理(自动合并推理请求提升GPU利用率) 灰度发布流量镜像(同时跑新旧模型对比指标) 内置Model Drift检测(PSI/KL散度计算) Triton Inference Server集成

License

Notifications You must be signed in to change notification settings

CRDX-sys/Machine-Learning-Model-Service-Platform

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 
 
 

Repository files navigation

ML Model Serving Platform

Python FastAPI License

机器学习模型服务化平台,支持:

  • 多模型并行服务
  • 自动版本控制
  • 性能监控
  • A/B测试

核心功能

✨ 模型热加载
✨ 自动扩缩容
✨ 请求批处理
✨ 模型性能分析
✨ 灰度发布

安装

使用Docker

docker-compose up --build

本地开发

  1. 创建虚拟环境
python -m venv venv
source venv/bin/activate
  1. 安装依赖
pip install -r requirements.txt
  1. 启动服务
uvicorn app.main:app --reload

API文档

访问 http://localhost:8000/docs 查看交互式API文档

模型部署示例

from app.models.model_manager import ModelManager

manager = ModelManager()
manager.load_model(
    model_name="sentiment-analysis",
    version="1.0",
    path="models/sentiment/v1"
)

监控指标

平台暴露Prometheus指标端点:

GET /metrics

贡献

请阅读贡献指南后提交PR

About

核心定位:AI模型全生命周期管理 关键技术: 模型版本热切换(不中断服务更新v1→v2) 动态批处理(自动合并推理请求提升GPU利用率) 灰度发布流量镜像(同时跑新旧模型对比指标) 内置Model Drift检测(PSI/KL散度计算) Triton Inference Server集成

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published