You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
reacted with thumbs up emoji reacted with thumbs down emoji reacted with laugh emoji reacted with hooray emoji reacted with confused emoji reacted with heart emoji reacted with rocket emoji reacted with eyes emoji
Uh oh!
There was an error while loading. Please reload this page.
Uh oh!
There was an error while loading. Please reload this page.
-
🎉 令人兴奋的好消息:FastDeploy2.0强势上线!🔥
🥳 只需一行代码,即可完成跨硬件部署体验,提供类vLLM的接口使用方式,且服务API兼容OpenAI协议!
😻 对于ERNIE 4.5模型的部署,它提供了工业级的多机PD分离解决方案,并支持多级负载均衡、低比特量化推理、上下文缓存和投机解码等多种加速技术。
💰依托本次升级,我们发起了基于FastDeploy 2.0的模型部署实测活动,并配备丰富奖励!即刻体验该高效大模型部署工具包吧!🔥
🎯 题目:文心4.5系列开源模型部署实测
🧑💻 任务描述 基于飞桨FastDeploy2.0,将文心4.5系列开源模型中的任一模型部署为API服务,并通过API调用验证部署结果。
📕 官方文档 10分钟高效部署
💰 完成标准
第1步:部署完成后,API服务正常启动并且能够响应对话请求
第2步:完成下方投票
第3步:在官方指定位置提交(https://www.wjx.top/vm/eMhNIhk.aspx# )
截止时间 2025年7月20日
💡获取帮助
你可以通过以下方式获取更多帮助,或与开发者们共同讨论并获得研发人员的技术支持

更多FD文档 技术文档
向我们提issue New issues
FastDeploy2.0官方答疑群
其它:如果以上任务都无法满足您技术探索的需求,欢迎联系我们(在下方评论、在FD讨论板块提出你的想法、联系群主等),秀出你的代码、需求、blog等内容,如需技术、奖金、算力支持,我们会尽全力为你提供!
4 votes ·
Beta Was this translation helpful? Give feedback.
All reactions