Cloudflare Workers AI 提供了一个强大的平台,允许开发者在 Cloudflare 的全球网络上运行 AI 模型。以下是一个简单的快速开始示例,展示如何使用 Cloudflare Workers AI 运行一个流行的大型语言模型,如 Llama 2。
首先,你需要创建一个新的 Workers 项目。打开终端或命令行界面,运行以下命令:
npm create cloudflare@latest
在设置过程中,请按照以下指示回答问题:
- 应用名称(app name): 输入
workers-ai
- 应用类型(type of application): 选择
Hello World
脚本 - 是否使用 TypeScript: 选择
yes
- 是否使用 Git: 选择
yes
- 是否立即部署(deploying): 选择
no
完成后,导航到你的新应用目录:
cd workers-ai
接下来,你需要创建一个 Workers AI 绑定,这允许你的 worker 访问 Workers AI 服务,而无需自己管理 API 密钥。为了将 Workers AI 绑定到你的 worker,请在你的 wrangler.toml
文件末尾添加以下内容:
[ai]
binding = "AI"
这段配置将 Workers AI 服务绑定到你的 worker,允许你在 worker 中直接调用 AI 模型。
现在,你可以在你的 worker 中使用 Workers AI 服务了。编辑你的 index.ts
文件,添加代码以调用一个 AI 模型。例如,如果你想运行 Llama 2 模型,你可以添加如下代码:
export interface Env {
AI: any;
}
export default {
async fetch(request: Request, env: Env) {
// 解析 URL
const url = new URL(request.url)
// 获取查询参数中的 'input' 参数
const userInput = url.searchParams.get('input') || '没有提供输入'
const response = await env.AI.run('@cf/meta/llama-2-7b-chat-int8', {
prompt: userInput,
max_tokens: 30,
}
);
return new Response(JSON.stringify(response), {
headers: { 'content-type': 'text/plain' },
})
// return new Response(JSON.stringify(response));
},
};
这段代码在接收到 HTTP 请求时,会调用 Llama 2 模型,并以 "Hello, world!" 作为提示。然后,它将模型的回答作为 HTTP 响应返回。
最后,使用以下命令部署你的 worker:
wrangler publish
然后测试代码如下:
https://twilight-silence-cd73.lininruc.workers.dev/?input=hello
这就完成了一个简单的 Cloudflare Workers AI 快速开始示例,展示了如何在 Cloudflare 的全球网络上运行 AI 模型[5]。