注:当前项目为 Serverless Devs 应用,由于应用中会存在需要初始化才可运行的变量(例如应用部署地区、函数名等等),所以不推荐直接 Clone 本仓库到本地进行部署或直接复制 s.yaml 使用,强烈推荐通过
s init ${模版名称}
的方法或应用中心进行初始化,详情可参考部署 & 体验 。
使用serverless devs将 开源Bert模型部署到函数计算上,内置bge-large-zh、text2vec-large,支持模型自定义
使用该项目,您需要有开通以下服务并拥有对应权限:
您还需要注意:
您还需要注意:
1.项目依赖阿里云函数计算和阿里云文件存储 Nas,这两款产品都会产生资费,请关注您的资源包使用情况和费用情况 2.项目部署成功之后确保模型加载完毕(左上角选择框有模型显示)再开始推理 3.项目初始启动有大约 1 分钟的白屏时间,这是服务完全冷启动的状态,请耐心等待
免责声明:
免责声明:
- 该项目的构建镜像及应用模板完全开源,由社区开发者贡献,阿里云仅提供了算力支持;
- 🔥 通过 Serverless 应用中心 ,
该应用。
- 通过 Serverless Devs Cli 进行部署:
- 安装 Serverless Devs Cli 开发者工具 ,并进行授权信息配置 ;
- 初始化项目:
s init fc3-embedding-api -d fc3-embedding-api
- 进入项目,并进行项目部署:
cd fc3-embedding-api && s deploy -y
基于本案例,您可以将bge-large-zh 模型部署到 阿里云,并且以api的方式进行访问
在以LLM为核心的应用场景中,向量嵌入(embedding)已被广泛应用于知识库,Agent 长记忆等场景,然而该基础服务随着业务量的增加,会带来较大的成本,因此我们期望有一种极致成本优化的方案来解决这个问题,基于开源模型的自托管是一种方案,更重要的是,我们采用CPU的方式实现了跟GPU差不多的效果,而成本却低很多。
部署专属的向量算法模型(bge-large-zh),并且充分利用阿里云产品函数计算的弹性能力,低成本优势(基于cpu方案),能够满足您的自用或者商用需求,不管是大规模还是中小规模的服务调用都适用,并且是最佳的方案
您需要开通阿里云Nas服务 我们使用该服务存储beg-large-zh 模型,它越会占用你1.2G的空间
您如果有关于错误的反馈或者未来的期待,您可以在 Serverless Devs repo Issues 中进行反馈和交流。如果您想要加入我们的讨论组或者了解 FC 组件的最新动态,您可以通过以下渠道进行:
微信公众号:serverless |
微信小助手:xiaojiangwh |
钉钉交流群:33947367 |