chatgpt-on-wechat(简称CoW)项目是基于大模型的智能对话机器人,支持自由切换多种模型,可接入网页、微信公众号、企业微信应用、飞书、钉钉中使用,能处理文本、语音、图片、文件等多模态消息,支持通过插件访问操作系统和互联网等外部资源,以及基于自有知识库定制企业AI应用。
该项目既是一个可以开箱即用的对话机器人,也是一个支持高度扩展的AI应用框架,可以通过为项目添加大模型接口、接入渠道、自定义插件来灵活实现各种定制需求。支持的功能如下:
- ✅ 多端部署: 有多种部署方式可选择且功能完备,目前已支持网页、微信公众号、企业微信应用、飞书、钉钉等部署方式
- ✅ 基础对话: 私聊及群聊的AI智能回复,支持多轮会话上下文记忆,基础模型支持OpenAI, Claude, Gemini, DeepSeek, 通义千问, Kimi, 文心一言, 讯飞星火, ChatGLM, MiniMax, GiteeAI, ModelScope, LinkAI
- ✅ 语音能力: 可识别语音消息,通过文字或语音回复,支持 openai(whisper/tts), azure, baidu, google 等多种语音模型
- ✅ 图像能力: 支持图片生成、图片识别、图生图,可选择 Dall-E-3, stable diffusion, replicate, midjourney, CogView-3, vision模型
- ✅ 丰富插件: 支持自定义插件扩展,已实现多角色切换、敏感词过滤、聊天记录总结、文档总结和对话、联网搜索、智能体等内置插件
- ✅ Agent能力: 支持访问浏览器、终端、文件系统、搜索引擎等各类工具,并可通过多智能体协作完成复杂任务,基于 AgentMesh 框架实现
- ✅ 知识库: 通过上传知识库自定义专属机器人,可作为数字分身、智能客服、企业智能体使用,基于 LinkAI 实现
- 本项目遵循 MIT开源协议,仅用于技术研究和学习,使用本项目时需遵守所在地法律法规、相关政策以及企业章程,禁止用于任何违法或侵犯他人权益的行为。任何个人、团队和企业,无论以何种方式使用该项目、对何对象提供服务,所产生的一切后果,本项目均不承担任何责任
- 境内使用该项目时,建议使用国内厂商的大模型服务,并进行必要的内容安全审核及过滤
- 本项目当前主要接入协同办公平台,推荐使用网页、公众号、企微自建应用、钉钉、飞书等接入通道,其他通道为历史产物暂不维护
DEMO视频:https://cdn.link-ai.tech/doc/cow_demo.mp4
添加小助手微信加入开源项目交流群:
LinkAI 是面向企业和开发者的一站式AI智能体平台,聚合多模态大模型、知识库、Agent 插件、工作流等能力,支持一键接入主流平台并进行管理,支持SaaS、私有化部署等多种模式。
LinkAI 目前已在智能客服、私域运营、企业效率助手等场景积累了丰富的AI解决方案,在消费、健康、文教、科技制造等各行业沉淀了大模型落地应用的最佳实践,致力于帮助更多企业和开发者拥抱 AI 生产力。
产品咨询和企业服务 可联系产品客服:
2025.05.23: 1.7.6版本 优化web网页channel、新增 AgentMesh多智能体插件、百度语音合成优化、企微应用
access_token
获取优化、支持claude-4-sonnet
和claude-4-opus
模型
2025.04.11: 1.7.5版本 新增支持 wechatferry 协议、新增 deepseek 模型、新增支持腾讯云语音能力、新增支持 ModelScope 和 Gitee-AI API接口
2024.12.13: 1.7.4版本 新增 Gemini 2.0 模型、新增web channel、解决内存泄漏问题、解决
#reloadp
命令重载不生效问题
2024.10.31: 1.7.3版本 程序稳定性提升、数据库功能、Claude模型优化、linkai插件优化、离线通知
更多更新历史请查看: 更新日志
项目提供了一键安装、启动、管理程序的脚本,可以选择使用脚本快速运行,也可以根据详细指引一步步安装运行。
bash <(curl -sS https://cdn.link-ai.tech/code/cow/install.sh)
- 项目管理脚本说明:项目管理脚本
项目默认使用ChatGPT模型,需前往 OpenAI平台 创建API Key并填入项目配置文件中。同时支持其他国内外产商以及第三方自定义模型接口,详情参考:模型说明。
同时支持使用 LinkAI平台 接口,可聚合使用 OpenAI、Claude、DeepSeek、Kimi、Qwen 等多种常用模型,并支持知识库、工作流、联网搜索、MJ绘图、文档总结等能力。修改配置即可一键启用,参考 接入文档。
支持 Linux、MacOS、Windows 系统,同时需安装 Python
,Python版本需要在3.7以上,推荐使用3.9版本。
注意:选择Docker部署则无需安装python环境和下载源码,可直接快进到下一节。
(1) 克隆项目代码:
git clone https://github.com/zhayujie/chatgpt-on-wechat
cd chatgpt-on-wechat/
若遇到网络问题可使用国内仓库地址:https://gitee.com/zhayujie/chatgpt-on-wechat
(2) 安装核心依赖 (必选):
pip3 install -r requirements.txt
(3) 拓展依赖 (可选,建议安装):
pip3 install -r requirements-optional.txt
如果某项依赖安装失败可注释掉对应的行后重试。
配置文件的模板在根目录的config-template.json
中,需复制该模板创建最终生效的 config.json
文件:
cp config-template.json config.json
然后在config.json
中填入配置,以下是对默认配置的说明,可根据需要进行自定义修改(注意实际使用时请去掉注释,保证JSON格式的规范):
# config.json 文件内容示例
{
"channel_type": "web", # 接入渠道类型,默认为web,支持修改为:terminal, wechatmp, wechatmp_service, wechatcom_app, dingtalk, feishu
"model": "gpt-4o-mini", # 模型名称, 支持 gpt-4o-mini, gpt-4.1, gpt-4o, deepseek-reasoner, wenxin, xunfei, glm-4, claude-3-7-sonnet-latest, moonshot等
"open_ai_api_key": "YOUR API KEY", # 如果使用openAI模型则填入上面创建的 OpenAI API KEY
"open_ai_api_base": "https://api.openai.com/v1", # OpenAI接口代理地址,修改此项可接入第三方模型接口
"proxy": "", # 代理客户端的ip和端口,国内环境开启代理的需要填写该项,如 "127.0.0.1:7890"
"single_chat_prefix": ["bot", "@bot"], # 私聊时文本需要包含该前缀才能触发机器人回复
"single_chat_reply_prefix": "[bot] ", # 私聊时自动回复的前缀,用于区分真人
"group_chat_prefix": ["@bot"], # 群聊时包含该前缀则会触发机器人回复
"group_name_white_list": ["ChatGPT测试群", "ChatGPT测试群2"], # 开启自动回复的群名称列表
"group_chat_in_one_session": ["ChatGPT测试群"], # 支持会话上下文共享的群名称
"image_create_prefix": ["画", "看", "找"], # 开启图片回复的前缀
"conversation_max_tokens": 1000, # 支持上下文记忆的最多字符数
"speech_recognition": false, # 是否开启语音识别
"group_speech_recognition": false, # 是否开启群组语音识别
"voice_reply_voice": false, # 是否使用语音回复语音
"character_desc": "你是基于大语言模型的AI智能助手,旨在回答并解决人们的任何问题,并且可以使用多种语言与人交流。", # 系统提示词
# 订阅欢迎语,公众号和企业微信channel中使用,当被订阅时会自动回复以下内容
"subscribe_msg": "感谢您的关注!\n这里是AI智能助手,可以自由对话。\n支持语音对话。\n支持图片输入。\n支持图片输出,画字开头的消息将按要求创作图片。\n支持tool、角色扮演和文字冒险等丰富的插件。\n输入{trigger_prefix}#help 查看详细指令。",
"use_linkai": false, # 是否使用LinkAI接口,默认关闭,设置为true后可对接LinkAI平台的智能体
"linkai_api_key": "", # LinkAI Api Key
"linkai_app_code": "" # LinkAI 应用或工作流的code
}
详细配置说明:
1. 单聊配置
- 个人聊天中,需要以 "bot"或"@bot" 为开头的内容触发机器人,对应配置项
single_chat_prefix
(如果不需要以前缀触发可以填写"single_chat_prefix": [""]
) - 机器人回复的内容会以 "[bot] " 作为前缀, 以区分真人,对应的配置项为
single_chat_reply_prefix
(如果不需要前缀可以填写"single_chat_reply_prefix": ""
)
2. 群聊配置
- 群组聊天中,群名称需配置在
group_name_white_list
中才能开启群聊自动回复。如果想对所有群聊生效,可以直接填写"group_name_white_list": ["ALL_GROUP"]
- 默认只要被人 @ 就会触发机器人自动回复;另外群聊天中只要检测到以 "@bot" 开头的内容,同样会自动回复(方便自己触发),这对应配置项
group_chat_prefix
- 可选配置:
group_name_keyword_white_list
配置项支持模糊匹配群名称,group_chat_keyword
配置项则支持模糊匹配群消息内容,用法与上述两个配置项相同。(Contributed by evolay) group_chat_in_one_session
:使群聊共享一个会话上下文,配置["ALL_GROUP"]
则作用于所有群聊
3. 语音配置
- 添加
"speech_recognition": true
将开启语音识别,默认使用openai的whisper模型识别为文字,同时以文字回复,该参数仅支持私聊 (注意由于语音消息无法匹配前缀,一旦开启将对所有语音自动回复,支持语音触发画图); - 添加
"group_speech_recognition": true
将开启群组语音识别,默认使用openai的whisper模型识别为文字,同时以文字回复,参数仅支持群聊 (会匹配group_chat_prefix和group_chat_keyword, 支持语音触发画图); - 添加
"voice_reply_voice": true
将开启语音回复语音(同时作用于私聊和群聊)
4. 其他配置
model
: 模型名称,目前支持gpt-4o-mini
,gpt-4.1
,gpt-4o
,gpt-3.5-turbo
,wenxin
,claude
,gemini
,glm-4
,xunfei
,moonshot
等,全部模型名称参考common/const.py文件temperature
,frequency_penalty
,presence_penalty
: Chat API接口参数,详情参考OpenAI官方文档。proxy
:由于目前openai
接口国内无法访问,需配置代理客户端的地址,详情参考 #351- 对于图像生成,在满足个人或群组触发条件外,还需要额外的关键词前缀来触发,对应配置
image_create_prefix
- 关于OpenAI对话及图片接口的参数配置(内容自由度、回复字数限制、图片大小等),可以参考 对话接口 和 图像接口 文档,在
config.py
中检查哪些参数在本项目中是可配置的。 conversation_max_tokens
:表示能够记忆的上下文最大字数(一问一答为一组对话,如果累积的对话字数超出限制,就会优先移除最早的一组对话)rate_limit_chatgpt
,rate_limit_dalle
:每分钟最高问答速率、画图速率,超速后排队按序处理。clear_memory_commands
: 对话内指令,主动清空前文记忆,字符串数组可自定义指令别名。hot_reload
: 程序退出后,暂存等于状态,默认关闭。character_desc
配置中保存着你对机器人说的一段话,他会记住这段话并作为他的设定,你可以为他定制任何人格 (关于会话上下文的更多内容参考该 issue)subscribe_msg
:订阅消息,公众号和企业微信channel中请填写,当被订阅时会自动回复, 可使用特殊占位符。目前支持的占位符有{trigger_prefix},在程序中它会自动替换成bot的触发词。
5. LinkAI配置
注:完整配置项说明可在 config.py
文件中查看。
如果是个人计算机 本地运行,直接在项目根目录下执行:
python3 app.py # windows环境下该命令通常为 python app.py
运行后默认会启动一个web服务,可以通过访问 http://localhost:9899/chat
在网页端对话。如果需要接入其他应用通道只需修改 config.json
配置文件中的 channel_type
参数,详情参考:通道说明。
向机器人发送 #help
消息可以查看可用指令及插件的说明。
在服务器中可使用 nohup
命令在后台运行程序:
nohup python3 app.py & tail -f nohup.out
执行后程序运行于服务器后台,可通过 ctrl+c
关闭日志,不会影响后台程序的运行。使用 ps -ef | grep app.py | grep -v grep
命令可查看运行于后台的进程,如果想要重新启动程序可以先 kill
掉对应的进程。 日志关闭后如果想要再次打开只需输入 tail -f nohup.out
。
此外,项目的 scripts
目录下有一键运行、关闭程序的脚本供使用。 运行后默认channel为web,通过可以通过修改配置文件进行切换。
使用docker部署无需下载源码和安装依赖,只需要获取 docker-compose.yml
配置文件并启动容器即可。
前提是需要安装好
docker
及docker-compose
,安装成功后执行docker -v
和docker-compose version
(或docker compose version
) 可查看到版本号。安装地址为 docker官网 。
(1) 下载 docker-compose.yml 文件
wget https://cdn.link-ai.tech/code/cow/docker-compose.yml
下载完成后打开 docker-compose.yml
填写所需配置,例如 CHANNEL_TYPE
、OPEN_AI_API_KEY
和等配置。
(2) 启动容器
在 docker-compose.yml
所在目录下执行以下命令启动容器:
sudo docker compose up -d # 若docker-compose为 1.X 版本,则执行 `sudo docker-compose up -d`
运行命令后,会自动取 docker hub 拉取最新release版本的镜像。当执行 sudo docker ps
能查看到 NAMES 为 chatgpt-on-wechat 的容器即表示运行成功。最后执行以下命令可查看容器的运行日志:
sudo docker logs -f chatgpt-on-wechat
(3) 插件使用
如果需要在docker容器中修改插件配置,可通过挂载的方式完成,将 插件配置文件
重命名为 config.json
,放置于 docker-compose.yml
相同目录下,并在 docker-compose.yml
中的 chatgpt-on-wechat
部分下添加 volumes
映射:
volumes:
- ./config.json:/app/plugins/config.json
注:使用docker方式部署的详细教程可以参考:docker部署CoW项目
以下对所有可支持的模型的配置和使用方法进行说明,模型接口实现在项目的 bot/
目录下。
OpenAI
-
API Key创建:在 OpenAI平台 创建API Key
-
填写配置
{
"model": "gpt-4.1-mini",
"open_ai_api_key": "YOUR_API_KEY",
"open_ai_api_base": "https://api.openai.com/v1"
}
model
: 与OpenAI接口的model参数一致,支持包括 gpt-4.1系列, gpt-4o系列, o系列模型open_ai_api_base
: 如果需要接入第三方代理接口,可通过修改该参数进行接入
LinkAI
-
API Key创建:在 LinkAI平台 创建API Key
-
填写配置
{
"use_linkai": true,
"linkai_api_key": "YOUR API KEY",
"linkai_app_code": "YOUR APP CODE"
}
更多模型说明:Coming soon...
以下对可接入通道的配置方式进行说明,应用通道代码在项目的 channel/
目录下。
Web
项目启动后默认运行web通道,可以通过访问 http://localhost:9899/chat 在网页端进行对话,通过修改 web_port
配置可自定义服务端口。
{
"channel_type": "web",
"web_port": 9899
}
Terminal
修改 config.json
中的 channel_type
字段:
{
"channel_type": "terminal"
}
运行后可在终端与机器人进行对话。
更多通道说明:Coming soon...
- bot-on-anything:轻量和高可扩展的大模型应用框架,支持接入Slack, Telegram, Discord, Gmail等海外平台,可作为本项目的补充使用。
- AgentMesh:开源的多智能体(Multi-Agent)框架,可以通过多智能体团队的协同来解决复杂问题。本项目基于该框架实现了Agent插件,可访问终端、浏览器、文件系统、搜索引擎 等各类工具,并实现了多智能体协同。
FAQs: https://github.com/zhayujie/chatgpt-on-wechat/wiki/FAQs
或直接在线咨询 项目小助手 (知识库持续完善中,回复供参考)
欢迎接入更多应用通道,参考 Terminal代码 新增自定义通道,实现接收和发送消息逻辑即可完成接入。 同时欢迎贡献新的插件,参考 插件开发文档。
欢迎提交PR、Issues进行反馈,以及通过 🌟Star 支持并关注项目更新。项目运行遇到问题可以查看 常见问题列表 ,以及前往 Issues 中搜索。个人开发者可加入开源交流群参与更多讨论,企业用户可联系产品客服咨询。