Version 2.0.0 (Stable Release)
Xiaoyou Core is a high-performance, asynchronous AI Agent infrastructure designed for resource-constrained environments. It features a hybrid Python (FastAPI) + C++ (Scheduler) architecture that enables efficient resource isolation and scheduling for LLM inference (GPU), TTS (CPU), and image generation tasks. Key capabilities include a sophisticated Anthropomorphic Biological System for simulating emotions and circadian rhythms, seamless VTube Studio integration for expressive 2D avatar interaction, and a self-healing Immune System for robust service availability. With support for multimodal interaction (Voice, Vision, Text), dynamic persona management, and cross-platform clients (Web, Mobile, Desktop, QQ Bot, Telegram), Xiaoyou Core provides a complete solution for building intelligent, lifelike AI companions.
小优核心是一个基于大语言模型的智能AI伴侣系统,具备情感交互、记忆管理、主动关怀、多模态处理等核心能力。系统采用 Python (FastAPI) + C++ (Scheduler) 混合架构,结合Python高层业务逻辑与C++高性能调度引擎,支持本地部署和云端扩展。
- 智能对话: 基于LLM的自然语言理解与生成
- 情感系统: 13种基本情绪的动态管理
- 记忆系统: 权重记忆、向量检索、概率召回
- 主动关怀: 上下文感知的主动交互
- 多模态: 图像生成、视觉理解、语音合成/识别
- 生物模拟: 神经递质系统、能量系统、昼夜节律
- 多端支持: Web、Android、Electron、QQ机器人、Telegram
| 文档 | 路径 | 说明 |
|---|---|---|
| 技术参考文档 | PROJECT_TECHNICAL_REFERENCE.md |
完整的技术架构参考 |
| 核心技术亮点 | TECHNICAL_HIGHLIGHTS.md |
12个核心技术亮点深度解析 |
| 更新日志 | UPDATES.md |
最新更新记录 |
| 模块 | 文档路径 |
|---|---|
| 客户端层 | clients/README.md |
| QQ机器人 | clients/bots/README.md |
| Web前端 | clients/frontend/README.md |
| 核心层 | core/README.md |
| 服务层 | core/services/README.md |
| 调度服务 | core/services/scheduler/README.md |
| 主动关怀 | core/services/active_care/README.md |
| 记忆系统 | memory/README.md |
| 路由层 | routers/README.md |
| 测试系统 | tests/README.md |
| 维护工具 | maintenance/README.md |
| 学习工具 | core/tools/study/README.md |
请查看 UPDATES.md 获取最新更新日志。
🚀 核心技术亮点深度解析: 查看项目的12个最具特色和技术难度的核心技术亮点:
| 亮点 | 说明 |
|---|---|
| C++资源隔离调度器 | 硬件级资源隔离,GPU/CPU任务分离调度 |
| 拟人化生物系统 | 神经递质模拟、昼夜节律、认知延迟 |
| 全链路GPU语音管线 | TTS/STT GPU加速,CPU自动回退 |
| 贪婪式模型恢复策略 | OOM自动恢复,模型热切换 |
| 免疫系统自愈机制 | 服务监控、自动重启、资源保护 |
| 概率召回记忆系统 | 权重记忆、向量检索、记忆蒸馏 |
| VTube Studio深度集成 | 情绪同步、双向通信、表情触发 |
| 事件驱动架构 | EventBus、模块解耦、异步处理 |
| 多模态融合处理 | 图像生成、视觉理解、语音交互 |
| 全局背压机制 | 任务队列、优先级调度、过载保护 |
| Active Care主动关怀 | 上下文感知、智能决策、硬件联动 |
| Study智能学习模块 | 多学科工具、3D可视化、题目生成 |
📖 详细内容请阅读: TECHNICAL_HIGHLIGHTS.md
graph TB
subgraph Clients["客户端层"]
Web["Web前端"]
Android["Android应用"]
Electron["Electron桌面"]
QQ["QQ机器人"]
Telegram["Telegram机器人"]
end
subgraph Interface["接口层"]
HTTP["HTTP REST API"]
WS["WebSocket"]
end
subgraph Core["核心层"]
Engine["核心引擎"]
Services["服务层"]
Modules["模块层"]
Tools["工具层"]
end
subgraph Memory["记忆层"]
WeightedMemory["权重记忆"]
VectorSearch["向量检索"]
Cache["缓存系统"]
end
subgraph Scheduler["调度层"]
CPPScheduler["C++调度器"]
GlobalScheduler["全局任务调度器"]
end
subgraph Storage["存储层"]
JSON["JSON文件"]
ChromaDB["向量数据库"]
end
Clients --> Interface
Interface --> Core
Core --> Memory
Core --> Scheduler
Memory --> Storage
Scheduler --> Storage
小优核心采用清晰的分层架构设计:
| 层级 | 目录 | 职责 |
|---|---|---|
| 客户端层 | clients/ |
Web、Android、Electron、QQ/Telegram机器人 |
| 接口层 | routers/ |
HTTP REST API、WebSocket实时通信 |
| 核心层 | core/ |
核心引擎、服务层、模块层、工具层 |
| 记忆层 | memory/ |
权重记忆、向量检索、缓存系统 |
| 调度层 | cpp_scheduler/ |
C++高性能调度引擎 |
| 存储层 | companion_data/ |
用户数据与角色数据分仓的JSON存储 |
| 组件 | 要求 |
|---|---|
| Python | 3.10+ |
| Node.js | 18+ |
| CUDA | 11.8+ (GPU推理) |
| 内存 | 16GB+ (推荐32GB) |
| GPU显存 | 8GB+ (推荐12GB) |
-
安装Python依赖:
pip install -r requirements/core.txt pip install -r requirements/models-gpu.txt # 或 models-cpu.txt -
配置:
cp config/config_example.py config/config.py cp .env.example .env
-
启动服务:
# Windows start_services.bat # Linux/Mac python main.py
-
访问前端:
- Web端: http://localhost:8000
- API文档: http://localhost:8000/docs
xiaoyou-core/
├── clients/ # 客户端层
│ ├── bots/ # 机器人适配器 (QQ/Telegram)
│ │ ├── handlers/ # 业务逻辑处理模块
│ │ ├── qq_adapter_main.py # QQ适配器主入口
│ │ └── telegram_adapter.py # Telegram适配器
│ └── frontend/ # 前端项目
│ ├── aveline-web/ # Web前端 (React + Vite)
│ ├── aveline-android/ # Android原生应用
│ └── aveline-electron/ # Electron桌面应用
├── core/ # 核心层
│ ├── core_engine/ # 核心引擎
│ ├── modules/ # 模块层 (LLM/Vision/Memory/Voice)
│ ├── services/ # 服务层
│ │ ├── aveline/ # Aveline对话服务
│ │ ├── active_care/ # 主动关怀服务
│ │ ├── scheduler/ # 调度服务
│ │ ├── workspace/ # 工作空间服务
│ │ ├── immune/ # 免疫系统服务
│ │ └── ... # 其他服务
│ ├── tools/ # 工具层
│ ├── emotion/ # 情绪系统
│ └── voice/ # 语音处理
├── memory/ # 记忆系统
│ ├── core/ # 核心操作模块
│ └── weighted_memory_manager.py
├── routers/ # 路由层
│ ├── api_v1/ # API v1版本路由
│ └── *.py # 各领域路由
├── cpp_scheduler/ # C++调度引擎
├── config/ # 配置管理
├── tests/ # 测试系统
├── maintenance/ # 维护工具
├── scripts/ # 脚本工具
├── main.py # 主入口
└── server_run.py # 服务器启动
| 路由前缀 | 说明 |
|---|---|
/api/v1/chat |
聊天相关API |
/api/v1/image |
图像生成API |
/api/v1/memory |
记忆管理API |
/api/v1/system |
系统状态API |
/api/v1/workspace |
工作空间API |
/api/v1/media |
多媒体处理API |
/v1 |
OpenAI兼容API |
- 路径:
/api/v1/ws - 功能: 实时消息推送、流式对话、心跳检测、主动关怀通知
| 层级 | 技术栈 |
|---|---|
| 后端框架 | FastAPI + Uvicorn |
| 前端框架 | React 18 + TypeScript + Vite |
| 移动端 | Android (Kotlin) + Capacitor |
| 桌面端 | Electron |
| LLM推理 | llama-cpp-python (GGUF) / Transformers |
| 调度引擎 | C++ (自定义调度器) |
| 数据库 | JSON文件存储 + ChromaDB向量库 |
| 状态管理 | Zustand (前端) |
支持通过前端 UI 动态配置,或修改配置文件:
| 配置文件 | 说明 |
|---|---|
config/yaml/app.yaml |
主配置文件 |
config/integrated_config.py |
集成配置 |
.env |
环境变量 |
# 示例配置
llm:
backend: "cpp" # cpp | python | cloud
model_path: "models/qwen-7b.gguf"
vtube:
enabled: true
host: "127.0.0.1"
port: 8001
immune_system:
enabled: true
check_interval: 60欢迎提交 Pull Request!请遵循以下规范:
- Python: PEP 8 规范
- 前端: ESLint + Prettier
- 文档: Markdown 规范
- 测试: 确保通过所有测试用例
详细技术文档请参阅 PROJECT_TECHNICAL_REFERENCE.md。
LGPLv3