XTuner Chat GUI 是建立在 XTuner 后端框架之上的用户友好界面。它通过支持多个后端推理引擎,提供对本地模型的快速而高效的部署。除了支持批量处理和多模态 Llava Chat 等功能,XTuner Chat GUI 旨在满足您多样化的推理需求。
- 快速部署: 利用 XTuner 后端框架,快速高效地部署本地模型。
- 后端引擎支持: XTuner Chat GUI 支持多个后端推理引擎,提供灵活性和兼容性。
- 批量处理: 通过批量处理本地文件中的推理请求,轻松提高大规模任务的效率。
- 多模态 Llava Chat: 支持多模态 Llava Chat 功能,实现多样化的交互方式。
按照以下步骤开始使用 XTuner Chat GUI:
-
安装: 克隆存储库并安装所需的依赖项。
git clone https://github.com/limafang/Xtuner-GUI cd Xtuner-GUI pip install -r requirements.txt
-
运行 XTuner Chat GUI:
python web_demo.py
-
访问界面: 打开您的 Web 浏览器,导航至 http://localhost:7086 以访问 XTuner Chat GUI。
一旦 XTuner Chat GUI 运行,您可以探索各种功能:
- 本地模型部署: 上传并部署本地模型,利用 XTuner 后端。
- 后端引擎选择: 从多个支持的后端推理引擎中选择。
- 批量处理: 通过上传本地文件批量处理推理请求。
- Llava Chat: 通过 Llava Chat 功能体验多模态交互。
有关详细的使用说明,请参阅 用户指南。
-
支持 LMDeploy,Vllm,Openai等更多推理引擎
-
支持 本地启动 web server 服务,支持 openai 服务对接
-
支持更多 llava 模型
感谢 @pppppM 的技术支持!
感谢 @limafang @PrinceRay7 的贡献!
感谢 @wuyingxue1230 提供的UI设计思路!
我们欢迎社区的贡献。如果您有想法、错误报告或功能请求,请提出问题或提交拉取请求。
XTuner Chat GUI 根据 MIT 许可证 授权。请根据许可证的条款自由使用、修改和分发。
感谢选择 XTuner Chat GUI。祝您愉快部署!