原生智能体内核 — 为工程的未来而生
当通用 AI 智能体依赖"模糊"文本搜索时,Photon 为工程精度而生。
- 零延迟: 基于 C++17 构建。工具链调用和项目索引以微秒计,而非秒级。
- 最小占用: 仅需 10-30MB 内存运行。无需笨重的 Node.js 或 Python 运行时。
- 单一二进制: 可移植、自包含的引擎,随处可运行——从本地终端到远程 CI/CD 管道。
- 超越 Grep: 不像只能基于文本"猜测"的工具,Photon 使用 Tree-sitter 进行实时 AST 解析。它精确理解函数和类的作用域(精确到行范围)。
- 编译器级智能: 深度 LSP 集成提供 100% 准确的"跳转到定义"和类型感知分析。
- 行级控制: 使用
file_edit_lines以外科手术般的精度修改代码,在提交任何更改前提供实时 Git Diff 预览。
- Token 级精准读取: 永不浪费 Token 在 10,000 行文件上。Photon 生成结构化摘要并使用窗口化上下文读取只给 AI 它需要的内容。
- 神经持久化: 与项目特定编码标准和历史上下文对齐的多态记忆系统。
- 自主推理: 多步骤智能体循环,包括计划、执行、验证和反思。
- 人在回路中: 高风险操作(如 shell 执行或批量编辑)需要明确确认,让你完全掌控。
- 确定性撤销: 每次修改都有备份。如果 AI 出错,一条命令即可恢复到安全状态。
┌──────────────────────────────────────────┐
│ IDE / 终端宿主 │
│ (VS Code, JetBrains, Cursor, Vim 等) │
└───────────────────┬──────────────────────┘
│ (标准 I/O)
┌───────────────────▼──────────────────────┐
│ PHOTON 内核 (C++) │
│ ────────────────────────────────────── │
│ [ 上下文管理器 ] [ 记忆系统 ] │
│ (短期记忆) (JSON/Markdown) │
└───────────┬────────────────────┬─────────┘
│ │
┌────────────▼───────┐ ┌───────▼─────────────┐
│ LLM 客户端 │ │ MCP 工具管理器 │
│ (推理中枢) │ │ (执行中枢) │
└────────────────────┘ └───────┬─────────────┘
│
┌───────────────────────────────────────────┴──────────────────────────┐
│ │ │
┌─────────▼──────────┐ ┌─────────▼──────────┐ ┌─────────▼──────────┐
│ 内置工具 │ │ 专家技能 │ │ 外部 MCP │
│ (C++ 原生) │ │ (模块化逻辑) │ │ (Node / Python) │
├────────────────────┤ ├────────────────────┤ ├────────────────────┤
│• 并行搜索 │ │• 代码架构师 │ │• Puppeteer │
│• AST 分析 │ │• 调试大师 │ │• Google 搜索 │
│• Python 沙箱 │ │• 环境初始化器 │ │• 自定义服务器 │
└────────────────────┘ └────────────────────┘ └────────────────────┘
工具是 AI 与物理世界交互的唯一方式。没有工具,AI 只是聊天框;有了 Photon 的工具,它就是功能性工程师。
- 全息感知: 内置高性能并行检索和 AST 分析,使 AI 能够在不浪费 Token 的情况下解构大规模项目结构。
- 原子干预: 通过确定性代码注入 (Diff Apply) 和隔离沙箱确保每次执行都精确且安全。
- 无限扩展: 基于 MCP (模型上下文协议),支持全球开发者社区的数千个工具服务器。
通用 LLM 在特定领域往往缺乏工程深度。技能系统通过将"经验"转化为"本能"来弥合这一差距。
Photon 采用运行时按需激活、Just-In-Time 注入的 Skill 管理策略:
配置层 (config.json)
↓ 定义 Allowlist (允许列表)
启动时
↓ 加载 Skill 元数据,注入发现列表
运行时 (LLM 决策)
↓ 调用 skill_activate(name)
激活后
↓ 动态注入工具、约束、接口
核心优势:
- ✅ Token 效率: 节省 80-97% Token 成本
- ✅ 可扩展性: 支持 200+ Skill (vs 全量注入 ~20 个)
- ✅ 智能决策: LLM 自主按需激活
- ✅ 安全可控: Allowlist + Runtime 双重验证
详细文档: 查看 Skill 动态激活教程
- 逻辑编码化: 模块化
SKILL.md文件将资深架构师的思维过程(如性能调优、高并发设计)直接注入 AI 的决策层。 - 主动进化: AI 在执行前主动检索和阅读相关技能指南,确保输出是工业级工程实践而非简单概率预测。
没有记忆的 AI 只是单次函数调用;有记忆的 AI 是不断进化的生命。
- 多态记忆: 结合 JSON 碎片化事实(快速检索)和 Markdown 结构化知识(深度理解)。
- 习惯对齐: Photon 持续记录你的项目标准、历史 Bug 教训和特定编码偏好。随着时间推移,从"协作"转向"同步"。
LLM 上下文窗口既昂贵又有限。上下文管理器是 Photon 的"大脑管家"。
- 智能修剪与压缩: 当对话爆炸时,内置上下文管理器识别关键决策点并使用 LLM 进行递归摘要压缩。
- 无损推理: 在显著延长 AI 有效思考长度的同时保持核心逻辑和历史决策,使其能够处理涉及数万行代码的大规模任务。
从 Releases 页面下载适合你操作系统的二进制文件。
在程序同一目录下创建或编辑 config.json:
{
"llm": {
"api_key": "YOUR_API_KEY",
"base_url": "https://api.moonshot.cn/v1",
"model": "kimi-k2-0905-preview"
},
"agent": {
"skill_roots": [
"~/.photon/skills",
"./builtin_skills"
]
}
}在终端中直接运行,指向你的项目目录:
# 授予执行权限 (Linux/macOS)
chmod +x photon
# 开始分析
./photon /path/to/your/project某些提供商(如 Kimi)返回的消息格式在下次请求中不被接受。Photon 在每次发送前规范化消息,确保请求有效。这是设计,而非权宜之计。
normalizeForKimi(messages): 将 assistant 的content从数组展平为字符串;从 tool 消息中移除name。详见 docs/llm-adapters.md。
- Constitution v2.0 - Agent 行为规范
- 重构总结 - 架构重构记录
- 设计文档 - 系统设计详解
- Skill 动态激活完整教程 ⭐ 推荐阅读
- 快速参考 (5 分钟)
- 完整总结 (15 分钟)
- 设计文档 (30 分钟)
- 使用示例 (20 分钟)
- 实现清单 (10 分钟)
- ✅ 工具系统: 基于 MCP 的可扩展工具架构
- ✅ Skill 系统: 动态激活、Just-In-Time 注入
- ✅ 记忆系统: 项目记忆 + 失败记忆
- ✅ 上下文管理: 智能压缩和修剪
- ✅ LSP 集成: 精确符号导航
- ✅ AST 分析: Tree-sitter 深度集成
- ✅ 安全机制: 人在回路 + 确定性撤销
- 🚧 Agent 运行时: Plan-Act-Observe 循环完善
- 🚧 Skill 元数据解析: frontmatter 完整解析
- 🚧 性能优化: 并行执行优化
Photon 不是通用聊天机器人,而是工程执行引擎:
- 精度 > 灵活性: 编译器级的准确性,而非"差不多"
- 性能 > 易用性: 原生 C++ 性能,零妥协
- 确定性 > 概率性: 可预测的行为,可靠的结果
- 三层分离: 配置层 → 加载层 → 激活层
- 按需加载: Token 效率优先
- 安全可控: Allowlist + Runtime 验证
- 可观测性: 完整的激活/执行日志
| Skill 数量 | 全量注入 | 动态激活 | 节省 |
|---|---|---|---|
| 10 | 5K | 1K | 80% |
| 20 | 10K | 2K | 80% |
| 50 | 25K | 2.5K | 90% |
| 200 | 100K | 3K | 97% |
- 启动时间: < 100ms
- 工具调用延迟: < 1ms
- AST 解析: < 10ms (10,000 行代码)
- 内存占用: 10-30MB
欢迎贡献! 请查看 CONTRIBUTING.md 了解详情。
- 🔧 新工具实现
- 📜 Skill 开发
- 📖 文档改进
- 🐛 Bug 修复
- ✨ 功能增强
MIT License - 详见 LICENSE
"Photon: 以光速连接人类意图与机器逻辑"
Made with ⚛️ by Hearn
