Skip to content

SmashDreams/synapse-studio

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

1 Commit
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Synapse Studio

一个面向企业知识场景的多智能体 RAG 平台。项目提供完整前后端骨架,支持知识库接入、任务分解、Agent 协作、检索增强生成、运行监控和可扩展的工作流编排。

项目主题

Synapse Studio 聚焦“企业知识运营与复杂任务协作”。一个用户请求会被拆分为多个协作智能体处理:

  • Coordinator Agent 负责目标解析、任务分发和结果汇总
  • Research Agent 负责知识检索和证据整理
  • Planner Agent 负责产出执行计划和风险提示
  • Writer Agent 负责生成最终交付内容
  • Reviewer Agent 负责质量检查和置信度评估

RAG 层支持知识源接入、文档切片、向量检索抽象和上下文拼装。当前默认使用内存检索器,后续可平滑切换到 Milvus、Qdrant、pgvector 或任意 Embedding 服务。

技术栈

  • 前端:Next.js 15、React 19、TypeScript、CSS Modules
  • 后端:FastAPI、Pydantic、Uvicorn
  • 编排:可扩展的多智能体工作流服务
  • RAG:文档切片、关键词检索、上下文组装、来源追踪
  • 工程结构:Monorepo

目录结构

.
├─ apps
│  ├─ api
│  │  ├─ app
│  │  │  ├─ api
│  │  │  ├─ services
│  │  │  └─ main.py
│  │  ├─ tests
│  │  └─ pyproject.toml
│  └─ web
│     ├─ app
│     ├─ components
│     ├─ lib
│     └─ package.json
├─ packages
│  └─ shared
└─ docker-compose.yml

核心能力

  • 多智能体协作任务流
  • 企业知识库 RAG 检索
  • 会话工作台与执行状态可视化
  • 任务结果、证据来源、风险提示统一展示
  • 可替换的 LLM、Embedding、向量库接口层
  • SQLite 持久化会话、消息、任务历史与知识源
  • Demo 数据与样例任务,便于二次开发

快速启动

1. 配置环境变量

复制 .env.example 并按需调整:

cp .env.example .env

2. 启动后端

cd apps/api
python -m venv .venv
.venv\Scripts\activate
pip install -e .[dev]
uvicorn app.main:app --reload --port 8000

3. 启动前端

cd apps/web
npm install
npm run dev

前端默认运行在 http://localhost:3000,后端默认运行在 http://localhost:8000

后端接口

  • GET /health 健康检查
  • GET /api/v1/agents 获取 Agent 列表
  • GET /api/v1/knowledge/sources 获取知识源
  • POST /api/v1/knowledge/ingest 接入知识文档并执行切片
  • POST /api/v1/tasks/demo 运行演示任务
  • POST /api/v1/chat/run 执行多智能体协作
  • POST /api/v1/chat/stream 以 SSE 流式执行任务
  • POST /api/v1/sessions 创建工作会话
  • GET /api/v1/sessions 获取会话列表
  • GET /api/v1/sessions/{sessionId} 获取会话消息与历史
  • GET /api/v1/tasks/history 获取任务历史
  • GET /api/v1/tasks/{taskId} 获取任务完整详情
  • GET /api/v1/platform/stats 获取平台统计
  • GET /api/v1/platform/runtime 获取模型运行时配置

新增工作台能力

  • 独立的 /workspace 控制台页面
  • 会话与任务历史视图
  • 文档接入与切片 API
  • 运行统计聚合接口
  • LLM provider 抽象层,便于替换 mock 实现
  • OpenAI-compatible 实时模型接入
  • 按“创建会话 -> 接入知识 -> 运行任务”的清晰操作流

真实模型配置

当前后端默认预留的是 DeepSeek 官方兼容接口,目标模型为 deepseek-v4-flash。你只需要填入 API Key 即可切换到真实生成;如果不填,则自动回退到本地 mock 模式。

.env 最少需要这些配置:

LLM_PROVIDER=deepseek
LLM_MODEL=deepseek-v4-flash
LLM_API_KEY=your_api_key
LLM_BASE_URL=https://api.deepseek.com
LLM_TIMEOUT_SECONDS=45
LLM_TEMPERATURE=0.3
LLM_MAX_TOKENS=4096
LLM_THINKING_ENABLED=false
SQLITE_PATH=项目根目录/data/synapse.db

说明:

  • POST /api/v1/chat/stream 现在会按事件推送 stepcitationsdeltarisksfollow_upsresultdone
  • SQLite 默认会把 session、message、task history 和 ingest 的知识源写到 data/synapse.db
  • 重启后端后,这些数据仍然保留
  • Recent Activity 现在支持点击回放历史任务详情

如果你之前已经创建过后端虚拟环境,新增依赖后需要重新安装一次:

cd apps/api
.\.venv\Scripts\python.exe -m pip install -e .[dev]

适合继续扩展的方向

  • 接入 DeepSeek 之外的多供应商路由
  • 使用 Celery、Temporal 或 LangGraph 实现异步长任务
  • 增加知识文档上传、切片和索引持久化
  • 增加多租户、权限系统和审计日志
  • 接入评测集,做 RAG 命中率和 Agent 质量评估

质量文档

当前实现说明

为了保证项目可直接理解与扩展,当前实现优先落下“高质量骨架 + 可运行样例服务 + 完整前端控制台”。智能体逻辑使用本地规则和模拟输出实现,可在服务层替换为真实模型调用。

About

一个基于codex的vibe coding项目,简易的多智能体RAG项目,提供了一个前端展示demo和完备的后端框架,短期内不继续更新,主要为练手项目

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors