Skip to content

YouRanCoder/ArisuBot

Repository files navigation

ArisuBot

形象来自蔚蓝档案-天童爱丽丝

在本地部署(不使用Docker)

  1. clone我的项目到本地

  2. 配置 在项目目录下创建Lagrange文件夹,存放Lagrange框架, 在这里下载对应你系统的版本
    下载后可以试运行一次,但是此时不要扫码登陆
    并且把项目目录下面的appsettings.json复制进去(千万别忘了更改你的bot QQ号到配置文件)
    先复制然后再改!

    "Account": {
         "Uin": 这里写你的QQ号,
         "Password": "",
         "Protocol": "Linux",
         "AutoReconnect": true,
         "GetOptimumServer": true
     },
    
  3. Larange文件夹下创建jmcache文件

  4. 做好这一切后,在项目目录下编辑eg_.env文件,并且按要求填写(带有*表示必填项,非必填项除非你知道你在干什么,请不要更改)

    配置项 描述 示例值 是否必需 默认值
    APPID Bot 的 QQ 账号。 123456789 -
    API_TOKEN 用于调用 WorkerAI 服务的 API Token。 一大串乱码 -
    ACCOUNT_ID WorkerAI 服务的账户 ID。 -
    PROMPT WorkerAi的提示词 一大堆话 请提醒用户没有设置提示词
    TEMPURATURE WorkerAi温度 1-5的数 0.75
    ACCESS_TOKEN 用于连接 Lagrange 框架的 Access Token。 “”
    WS_PORT 正向 WebSocket 服务的监听端口号。 8080 8080
    HTTP_PORT HTTP API 服务的监听端口号。 8081 8081
  5. eg.env最后改名为.env

  6. 运行uv sync(确保你安装了uv)

  7. 运行Lagrange框架扫码登录,运行main.py


Docker部署

我觉得你都看这个了不应该问我

待实现功能

  • Pixiv插件
  • 多文件插件化配置
  • Jmcomic下载后上传压缩包有一定概率会失败的问题
  • 更好的免费LLM Api,以及自然语言的function calling
  • 更简单的快速部署,弃用LLM插件的功能

鸣谢

Amiyabot框架
Lagrange.Core
以及大力支持的群u们,感谢你们。

配图和佐料

Cloudflare免费模型食用指南
这里会教你获取LLM API的一切

About

高性能ですから!

Topics

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages