Skip to content

devsapp/fc-embedding-api

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

31 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

注:当前项目为 Serverless Devs 应用,由于应用中会存在需要初始化才可运行的变量(例如应用部署地区、函数名等等),所以不推荐直接 Clone 本仓库到本地进行部署或直接复制 s.yaml 使用,强烈推荐通过 s init ${模版名称} 的方法或应用中心进行初始化,详情可参考部署 & 体验

fc3-embedding-api 帮助文档

使用serverless devs将 开源Bert模型部署到函数计算上,内置bge-large-zh、text2vec-large,支持模型自定义

前期准备

使用该项目,您需要有开通以下服务并拥有对应权限:

您还需要注意:
您还需要注意:
1.项目依赖阿里云函数计算和阿里云文件存储 Nas,这两款产品都会产生资费,请关注您的资源包使用情况和费用情况 2.项目部署成功之后确保模型加载完毕(左上角选择框有模型显示)再开始推理 3.项目初始启动有大约 1 分钟的白屏时间,这是服务完全冷启动的状态,请耐心等待

免责声明:
免责声明:

  1. 该项目的构建镜像及应用模板完全开源,由社区开发者贡献,阿里云仅提供了算力支持;

部署 & 体验

案例介绍

简介

基于本案例,您可以将bge-large-zh 模型部署到 阿里云,并且以api的方式进行访问

背景

在以LLM为核心的应用场景中,向量嵌入(embedding)已被广泛应用于知识库,Agent 长记忆等场景,然而该基础服务随着业务量的增加,会带来较大的成本,因此我们期望有一种极致成本优化的方案来解决这个问题,基于开源模型的自托管是一种方案,更重要的是,我们采用CPU的方式实现了跟GPU差不多的效果,而成本却低很多。

价值

部署专属的向量算法模型(bge-large-zh),并且充分利用阿里云产品函数计算的弹性能力,低成本优势(基于cpu方案),能够满足您的自用或者商用需求,不管是大规模还是中小规模的服务调用都适用,并且是最佳的方案

使用流程

  1. 访问应用中心,选择fc3-embedding-api应用模板进行部署
  2. 根据指引进行选择部署 部署fc3-embedding-api 部署fc3-embedding-api 3.访问 api测试界面进行测试 访问embedding api

注意事项

您需要开通阿里云Nas服务 我们使用该服务存储beg-large-zh 模型,它越会占用你1.2G的空间

开发者社区

您如果有关于错误的反馈或者未来的期待,您可以在 Serverless Devs repo Issues 中进行反馈和交流。如果您想要加入我们的讨论组或者了解 FC 组件的最新动态,您可以通过以下渠道进行:

微信公众号:serverless 微信小助手:xiaojiangwh 钉钉交流群:33947367

About

embedding api

Resources

License

Stars

Watchers

Forks

Packages

No packages published