Skip to content

hakituo/xiaoyou-core

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

143 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Xiaoyou Core (小优核心)

High-Performance Asynchronous AI Agent Core for Resource-Constrained Environments
Version 2.0.0 (Stable Release)

Abstract

Xiaoyou Core is a high-performance, asynchronous AI Agent infrastructure designed for resource-constrained environments. It features a hybrid Python (FastAPI) + C++ (Scheduler) architecture that enables efficient resource isolation and scheduling for LLM inference (GPU), TTS (CPU), and image generation tasks. Key capabilities include a sophisticated Anthropomorphic Biological System for simulating emotions and circadian rhythms, seamless VTube Studio integration for expressive 2D avatar interaction, and a self-healing Immune System for robust service availability. With support for multimodal interaction (Voice, Vision, Text), dynamic persona management, and cross-platform clients (Web, Mobile, Desktop, QQ Bot, Telegram), Xiaoyou Core provides a complete solution for building intelligent, lifelike AI companions.


项目简介

小优核心是一个基于大语言模型的智能AI伴侣系统,具备情感交互、记忆管理、主动关怀、多模态处理等核心能力。系统采用 Python (FastAPI) + C++ (Scheduler) 混合架构,结合Python高层业务逻辑与C++高性能调度引擎,支持本地部署和云端扩展。

核心特性

  • 智能对话: 基于LLM的自然语言理解与生成
  • 情感系统: 13种基本情绪的动态管理
  • 记忆系统: 权重记忆、向量检索、概率召回
  • 主动关怀: 上下文感知的主动交互
  • 多模态: 图像生成、视觉理解、语音合成/识别
  • 生物模拟: 神经递质系统、能量系统、昼夜节律
  • 多端支持: Web、Android、Electron、QQ机器人、Telegram

详细文档

文档 路径 说明
技术参考文档 PROJECT_TECHNICAL_REFERENCE.md 完整的技术架构参考
核心技术亮点 TECHNICAL_HIGHLIGHTS.md 12个核心技术亮点深度解析
更新日志 UPDATES.md 最新更新记录

各系统模块文档

模块 文档路径
客户端层 clients/README.md
QQ机器人 clients/bots/README.md
Web前端 clients/frontend/README.md
核心层 core/README.md
服务层 core/services/README.md
调度服务 core/services/scheduler/README.md
主动关怀 core/services/active_care/README.md
记忆系统 memory/README.md
路由层 routers/README.md
测试系统 tests/README.md
维护工具 maintenance/README.md
学习工具 core/tools/study/README.md

最新动态

请查看 UPDATES.md 获取最新更新日志。


核心技术亮点

🚀 核心技术亮点深度解析: 查看项目的12个最具特色和技术难度的核心技术亮点:

亮点 说明
C++资源隔离调度器 硬件级资源隔离,GPU/CPU任务分离调度
拟人化生物系统 神经递质模拟、昼夜节律、认知延迟
全链路GPU语音管线 TTS/STT GPU加速,CPU自动回退
贪婪式模型恢复策略 OOM自动恢复,模型热切换
免疫系统自愈机制 服务监控、自动重启、资源保护
概率召回记忆系统 权重记忆、向量检索、记忆蒸馏
VTube Studio深度集成 情绪同步、双向通信、表情触发
事件驱动架构 EventBus、模块解耦、异步处理
多模态融合处理 图像生成、视觉理解、语音交互
全局背压机制 任务队列、优先级调度、过载保护
Active Care主动关怀 上下文感知、智能决策、硬件联动
Study智能学习模块 多学科工具、3D可视化、题目生成

📖 详细内容请阅读: TECHNICAL_HIGHLIGHTS.md


系统架构

graph TB
    subgraph Clients["客户端层"]
        Web["Web前端"]
        Android["Android应用"]
        Electron["Electron桌面"]
        QQ["QQ机器人"]
        Telegram["Telegram机器人"]
    end

    subgraph Interface["接口层"]
        HTTP["HTTP REST API"]
        WS["WebSocket"]
    end

    subgraph Core["核心层"]
        Engine["核心引擎"]
        Services["服务层"]
        Modules["模块层"]
        Tools["工具层"]
    end

    subgraph Memory["记忆层"]
        WeightedMemory["权重记忆"]
        VectorSearch["向量检索"]
        Cache["缓存系统"]
    end

    subgraph Scheduler["调度层"]
        CPPScheduler["C++调度器"]
        GlobalScheduler["全局任务调度器"]
    end

    subgraph Storage["存储层"]
        JSON["JSON文件"]
        ChromaDB["向量数据库"]
    end

    Clients --> Interface
    Interface --> Core
    Core --> Memory
    Core --> Scheduler
    Memory --> Storage
    Scheduler --> Storage
Loading

小优核心采用清晰的分层架构设计:

层级 目录 职责
客户端层 clients/ Web、Android、Electron、QQ/Telegram机器人
接口层 routers/ HTTP REST API、WebSocket实时通信
核心层 core/ 核心引擎、服务层、模块层、工具层
记忆层 memory/ 权重记忆、向量检索、缓存系统
调度层 cpp_scheduler/ C++高性能调度引擎
存储层 companion_data/ 用户数据与角色数据分仓的JSON存储

快速开始

环境要求

组件 要求
Python 3.10+
Node.js 18+
CUDA 11.8+ (GPU推理)
内存 16GB+ (推荐32GB)
GPU显存 8GB+ (推荐12GB)

安装与启动

  1. 安装Python依赖:

    pip install -r requirements/core.txt
    pip install -r requirements/models-gpu.txt  # 或 models-cpu.txt
  2. 配置:

    cp config/config_example.py config/config.py
    cp .env.example .env
  3. 启动服务:

    # Windows
    start_services.bat
    
    # Linux/Mac
    python main.py
  4. 访问前端:


项目结构

xiaoyou-core/
├── clients/                   # 客户端层
│   ├── bots/                  # 机器人适配器 (QQ/Telegram)
│   │   ├── handlers/          # 业务逻辑处理模块
│   │   ├── qq_adapter_main.py # QQ适配器主入口
│   │   └── telegram_adapter.py # Telegram适配器
│   └── frontend/              # 前端项目
│       ├── aveline-web/       # Web前端 (React + Vite)
│       ├── aveline-android/   # Android原生应用
│       └── aveline-electron/  # Electron桌面应用
├── core/                      # 核心层
│   ├── core_engine/           # 核心引擎
│   ├── modules/               # 模块层 (LLM/Vision/Memory/Voice)
│   ├── services/              # 服务层
│   │   ├── aveline/           # Aveline对话服务
│   │   ├── active_care/       # 主动关怀服务
│   │   ├── scheduler/         # 调度服务
│   │   ├── workspace/         # 工作空间服务
│   │   ├── immune/            # 免疫系统服务
│   │   └── ...                # 其他服务
│   ├── tools/                 # 工具层
│   ├── emotion/               # 情绪系统
│   └── voice/                 # 语音处理
├── memory/                    # 记忆系统
│   ├── core/                  # 核心操作模块
│   └── weighted_memory_manager.py
├── routers/                   # 路由层
│   ├── api_v1/                # API v1版本路由
│   └── *.py                   # 各领域路由
├── cpp_scheduler/             # C++调度引擎
├── config/                    # 配置管理
├── tests/                     # 测试系统
├── maintenance/               # 维护工具
├── scripts/                   # 脚本工具
├── main.py                    # 主入口
└── server_run.py              # 服务器启动

API 参考

HTTP API

路由前缀 说明
/api/v1/chat 聊天相关API
/api/v1/image 图像生成API
/api/v1/memory 记忆管理API
/api/v1/system 系统状态API
/api/v1/workspace 工作空间API
/api/v1/media 多媒体处理API
/v1 OpenAI兼容API

WebSocket

  • 路径: /api/v1/ws
  • 功能: 实时消息推送、流式对话、心跳检测、主动关怀通知

技术栈

层级 技术栈
后端框架 FastAPI + Uvicorn
前端框架 React 18 + TypeScript + Vite
移动端 Android (Kotlin) + Capacitor
桌面端 Electron
LLM推理 llama-cpp-python (GGUF) / Transformers
调度引擎 C++ (自定义调度器)
数据库 JSON文件存储 + ChromaDB向量库
状态管理 Zustand (前端)

配置说明

支持通过前端 UI 动态配置,或修改配置文件:

配置文件 说明
config/yaml/app.yaml 主配置文件
config/integrated_config.py 集成配置
.env 环境变量
# 示例配置
llm:
  backend: "cpp"  # cpp | python | cloud
  model_path: "models/qwen-7b.gguf"

vtube:
  enabled: true
  host: "127.0.0.1"
  port: 8001

immune_system:
  enabled: true
  check_interval: 60

贡献指南

欢迎提交 Pull Request!请遵循以下规范:

  • Python: PEP 8 规范
  • 前端: ESLint + Prettier
  • 文档: Markdown 规范
  • 测试: 确保通过所有测试用例

详细技术文档请参阅 PROJECT_TECHNICAL_REFERENCE.md


License

LGPLv3

About

No description, website, or topics provided.

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors