Skip to content

val1813/kwcode

Repository files navigation

KWCode · 天工开物

中国开发者的本地 Coding Agent

数据不出网 · Windows 打开就能用 · 越用越懂你的项目

License: MIT Python Platform Tests Version


为什么做这个

很多人问我为什不用ollama+claude code 还担心我不知道命令 教我怎么设置cc的本地api 我表达感谢🙏🏻🙏🏻🙏🏻世界上还是好人多

也有人建议 用opencode做框架就行了呀

我觉得如果真的给本地模型用 现阶段这些框架不太合适 因为我理解这些框架都是给强llm用的,他要能用他强推理能力调用工具、推理、测试、找问题然后完成整个项目。而参数低的本地开源模型做不到,会出错,会有幻觉。

这也是为什么现在那么多人一说本地模型就觉得垃圾。 我很好奇 为什么不用moe框架呢,llm只负责gate,专家组来完成任务,llm根据自然语言指令分派专家,这个能力10b以上模型应该都是有的。然后只要优化专家,完善体验,小模型跑赢大模型机会是有的呀。

我还想了一个方案,我用opus经常找不到解决方案我就让他webserch然后就有思路了,那我只要coding agent配备强大搜索引擎,搞不定的问题问google 问github问axvir不就有解决方案了吗?所以我弄了个搜索引擎做辅助(不过搜索引擎写得是屎山代码别介意)。

所以我觉得只要把问题摆出来都有方案可以解决。最受不了群嘲,好像我是呆子似的,不知道30b模型体验没opus好。我一个月六七千token费我会不知道?算了 不说了,介绍项目:

本地模型跑 Coding Agent,有五个核心痛点

痛点一:上下文爆炸

小模型窗口只有 8K-32K。对话几轮后 context 塞满,模型开始胡说。现有工具没有上下文管理,用着用着就废了。

KWCode 解法:纯算法上下文压缩(头尾保留 + 中间关键词提取,<10ms),自动在 context 快满时压缩历史对话。你能一直聊下去,不会突然变傻。

痛点二:错误重复回复

小模型修 bug 失败后,用同样的方式再试一遍,三次机会全浪费在同一个错误上。

KWCode 解法:三阶段重试策略——第一次正常描述,第二次从错误信息出发,第三次最小化修改。每次重试前先做 Reflection(LLM 一句话分析上次为什么失败),绝不重复同样的错。失败模式还会记录到 PATTERN.md,下次遇到类似任务直接提高风险等级。

痛点三:不能调用工具

大部分本地 agent 框架只能生成代码文本,不能真正执行命令、读写文件、跑测试。生成的代码对不对,全靠人肉验证。

KWCode 解法:内置 5 个确定性工具(read_file / write_file / run_bash / list_dir / git),Generator 生成 patch 后 Verifier 自动执行语法检查 + pytest,失败立即重试。不是"建议你跑一下测试",而是真的帮你跑了。

痛点四:数据安全

Claude Code、Cursor 把代码发到海外服务器。公司代码、内网项目走不通。

KWCode 解法:全部本地运行,代码不出你的电脑。模型跑在 Ollama,搜索跑在本地 SearXNG,统计数据存本地 SQLite。零网络依赖(搜索增强可选)。

痛点五:代码定位靠猜

现有工具把文件列表丢给 LLM 让它猜哪个文件相关。小模型猜错文件,后面全错。

KWCode 解法:BM25 + AST 调用图两阶段定位,毫秒级,不调 LLM。沿调用链追踪隐藏依赖,不靠猜。


核心技术原理

原理一:确定性专家流水线

理论来源:Agentless(ICSE 2025)——确定性流水线在 SWE-bench 上同时达到最高通过率和最低成本,优于复杂 agent 架构。

不让 LLM 自主决定下一步,而是走确定性的专家流水线:

用户输入
  └─► Gate          任务分类,毫秒级路由
        └─► Locator     精准定位文件和函数(BM25+调用图,不调LLM)
              └─► Generator  只生成修改部分(从文件读original,LLM只写modified)
                    └─► Verifier   语法检查 + pytest 自动验证
                          └─► SearchAugmentor  失败时自动搜索补充信息

小模型只需要在极小的 context 里做一件明确的事。失误可以被及时发现和纠正,不会滚雪球。


原理二:BM25 + AST 调用图定位(核心差异化)

理论来源

  • CodeCompass(arXiv:2602.20048,2026):258 次实验证明,隐藏依赖任务(G3类)图遍历准确率 99.4% vs BM25 76.2%,相差 23.2 个百分点
  • KGCompass(arXiv:2503.21710,2025):SWE-bench Lite 成功率 58.3%,89.7% 的成功定位来自多跳图遍历

什么是 G3 类任务:bug 所在的文件名和函数名,与错误描述没有任何关键词重叠,只能通过调用链追踪发现。这是真实项目里最常见、最难定位的一类 bug。

KWCode 的两阶段检索

用户描述 "修复登录失败的 bug"
  │
  ├─► 阶段1:BM25 关键词召回(毫秒级,不调 LLM)
  │     从代码库所有函数/类中,按关键词相关性
  │     召回 top-20 候选函数
  │
  └─► 阶段2:AST 调用图展开(毫秒级,不调 LLM)
        对每个候选函数,沿调用图向上向下各展开 2 跳
        发现那些名字和 bug 毫无关联但实际是根因的隐藏函数

结果:精准的相关函数集合,直接注入 Generator

技术实现:tree-sitter 多语言 AST + rank-bm25 + SQLite 调用图持久化。不需要 Neo4j,不需要 Docker,不需要 embedding 模型。

支持语言:Python(已完成)· JavaScript/TypeScript/Java/Go/Rust(规划中)


原理三:专家飞轮(越用越懂你的项目)

理论来源:EE-MCP(NeurIPS 2025)——从任务执行轨迹自动提取经验,验证可显著提升后续同类任务成功率。

KWCode 的专家会随使用自动生长:

第1天:15 个预置专家开箱即用

使用过程中,飞轮在后台静默积累:
  同类任务成功 ≥5 次 → 触发专家草稿生成
  回测门:新专家成功率 ≥ 原流水线
  AB 测试门:10 次真实对比,提升 >10%
  三道门全过 → 专家正式投产,弹出通知

一个月后:你的项目有了专属专家池

专家可以导出分享:

kwcode expert export SpringBootExpert
# → SpringBootExpert-1.0.0.kwx

kwcode expert install path/to/Vue3Expert.kwx

原理四:模型能力自适应

KWCode 是全球唯一针对本地小模型能力差异做自适应的 coding agent。

模型规模 自动策略
<10B(qwen3:8b) 强制计划确认 · 任务范围≤2文件 · 第1次失败触发搜索
10-30B(qwen3:14b) 可选计划 · 任务范围≤4文件 · 第2次失败触发搜索
>30B(qwen3:72b) 宽松策略 · 任务范围≤8文件 · 自动处理复杂任务

切换模型,策略自动切换,无需配置。


功能特性

代码能力

  • BM25 + 调用图两阶段定位,G3 隐藏依赖准确率 99.4%(论文验证)
  • Generator 只改必要部分,从文件读 original,LLM 只生成 modified
  • 三阶段重试:正常描述 → 从错误出发 → 最小化修改,不重复同样的错
  • Reflection 机制:第一次失败先分析根因再重试

流程控制

  • /plan 计划模式:显示执行步骤+风险等级(High/Medium/Low),确认后才动文件
  • Checkpoint 快照:任务开始前自动备份,失败一键还原,降级建议
  • KWCODE.md 项目规则:写项目约定,按任务类型分段注入,永远不忘

知识积累

  • 三层记忆:PROJECT.md(项目结构)/ EXPERT.md(专家记录)/ PATTERN.md(失败模式)
  • 非代码文件读取:PDF 需求文档 / Word 规范 / Markdown,BM25 匹配相关段落注入
  • 失败模式记录:历史失败积累,/plan 时作为风险评估依据

搜索增强

  • 默认 DuckDuckGo(零配置,pip install 就能用)
  • 可选 SearXNG 自部署:kwcode setup-search 一键安装,数据完全不出网
  • 四级内容提取:trafilatura → newspaper3k → readabilipy → BeautifulSoup
  • 并行搜索 + BM25 重排:结果质量优先
  • 意图感知:代码/论文/包/debug 自动优化搜索词

Office 文档

  • Excel:openpyxl 样式模板,深色表头,斑马纹,公式,冻结首行
  • PPT:python-pptx,商务配色,三明治结构,不用默认白底
  • Word:python-docx,中文首行缩进,规范字体,表格样式

价值可见

  • kwcode stats:完成任务数、节省时间估算、专属专家数
  • 飞轮通知:专家投产时弹出,显示成功率提升和速度对比
  • 里程碑提醒:完成 50/100/200 个任务时自动汇报

中国本地化

场景 CC / Hermes KWCode
Windows 运行 仅 WSL2 / 云端 cmd/PowerShell 原生
搜索增强 DDG/Brave(被墙) SearXNG 自部署 / DDG fallback
推荐模型 GPT / Claude DeepSeek · Qwen3 · GLM
中文交互 英文为主 全中文

与竞品对比

功能 Claude Code Hermes KWCode
数据安全 ❌ 代码上传云端 ✅ 本地 ✅ 本地
Windows 原生 ❌ 仅 WSL2
小模型专家流水线 ✅ 独有
模型能力自适应 ✅ 独有
AST 调用图定位 ✅ 独有
专家飞轮三道门 ✅ 独有
/plan 风险评估
Checkpoint 回滚
非代码文件读取 部分
价值量化仪表盘 ✅ 独有
开源 ✅ MIT ✅ MIT

快速开始

系统要求

  • Python 3.10+
  • 任意 OpenAI 兼容 API(本地 Ollama / DeepSeek / 硅基流动 / Qwen 云端 等)
  • Docker(可选,用于 SearXNG 搜索增强)
使用方式 说明
本地模型 安装 Ollama,拉取 qwen3:8b 等模型
云端 API /api default https://api.deepseek.com your-key,无需本地显卡

本地模型显存参考:

显存 推荐模型
4GB gemma3:4b
8GB qwen3:8b
16GB qwen3:14b
24GB+ qwen3:30b-a3b

安装

# 安装 KWCode
pip install kwcode

# 国内加速:
pip install kwcode -i https://pypi.tuna.tsinghua.edu.cn/simple

# 启动
kwcode

首次启动会引导你配置模型连接,按提示操作即可。

用云端 API 不需要本地显卡:

/api default https://api.deepseek.com your-api-key

可选:安装搜索增强

kwcode setup-search

需要 Docker Desktop 已安装并运行。会自动拉取 SearXNG 镜像(约 200MB)并启动容器。不装也能用,默认走 DuckDuckGo 搜索。


使用指南

交互模式(推荐)

kwcode

进入 REPL,直接输入任务描述:

 > 修复登录验证失败的问题
 > 写一个 FastAPI 登录接口,包含 JWT 认证
 > 把 calculate_price 拆成更小的函数

单次执行

kwcode "修复登录验证失败的问题"
kwcode --plan "重构数据库连接层"

REPL 命令

/plan <任务>          计划模式,显示步骤和风险后再执行
/model qwen3:14b      切换模型
/api                  API 配置(见下方说明)
/experts              查看已注册专家
/memory               查看项目记忆
/init                 初始化项目规则文件
/cd <路径>            切换项目目录
/help                 显示帮助

接入任意 API

KWCode 支持任何 OpenAI 兼容的 API,包括 DeepSeek、Qwen 云端、硅基流动、零一万物、Groq 等。

临时切换(当前窗口有效,关掉就恢复):

/api temp https://api.deepseek.com your-api-key
/api temp https://api.siliconflow.cn/v1 your-api-key

永久保存(写入配置文件,下次启动自动使用):

/api default https://api.deepseek.com your-api-key

查看当前配置

/api show

也可以在启动时通过命令行指定:

kwcode --ollama-url https://api.deepseek.com

项目规则文件

在项目根目录创建 KWCODE.md,写入你的项目约定:

## [all] 通用规则
- 测试框架:pytest
- 运行测试:pytest tests/ -v

## [bugfix] Bug修复规则
- 修复前先理解错误原因
- 不要改测试代码

## [codegen] 代码生成规则
- 变量命名用 snake_case
- 必须写 docstring

KWCode 启动时自动加载,按任务类型注入对应规则。

Office 文档生成

 > 做一个季度销售报表 Excel,包含月份、销售额、环比增长
 > 做一个项目汇报 PPT,商务风格,5页
 > 写一份技术方案 Word,包含架构图描述和接口设计

专家管理

kwcode expert list                    # 查看所有专家
kwcode expert info BugFix             # 查看专家详情
kwcode expert export BugFix           # 导出为 .kwx 文件
kwcode expert install path/to/x.kwx   # 安装外部专家
kwcode expert create MyExpert         # 创建自定义专家

价值报告

kwcode stats

显示过去 30 天的任务完成数、节省时间估算、最活跃专家。数据仅存本地。


开发者安装

git clone https://github.com/val1813/kwcode.git
cd kwcode
pip install -e ".[dev]"
python -m pytest kaiwu/tests/ -v --ignore=kaiwu/tests/bench_tasks
# 282 tests should pass

项目结构

kaiwu/
├── cli/main.py              # CLI 入口,REPL,spinner,结果摘要
├── core/
│   ├── gate.py              # LLM 任务分类
│   ├── orchestrator.py      # 确定性流水线编排
│   ├── planner.py           # /plan 计划模式 + 风险评估
│   ├── checkpoint.py        # 文件快照(git stash / 文件复制)
│   ├── kwcode_md.py         # KWCODE.md 规则加载
│   └── model_capability.py  # 模型能力自适应
├── experts/
│   ├── locator.py           # BM25 + 调用图定位
│   ├── generator.py         # 代码生成(只改必要部分)
│   ├── verifier.py          # 语法检查 + pytest
│   └── search_augmentor.py  # 搜索增强 + BM25 重排
├── search/
│   ├── duckduckgo.py        # SearXNG + DDG 并行搜索
│   ├── extraction_pipeline.py  # 四级内容提取
│   └── intent_classifier.py # 意图感知分类
├── knowledge/doc_reader.py  # PDF/Word/MD 文档读取
├── flywheel/                # 专家飞轮(轨迹→模式→生成→AB测试)
├── registry/                # 专家注册表 + .kwx 打包
├── memory/                  # 三层记忆系统
├── ast_engine/              # tree-sitter AST + 调用图
├── notification/            # 飞轮通知
├── stats/                   # 价值量化(SQLite)
└── llm/                     # Ollama + llama.cpp 双后端

参考文献

  1. Agentless:Xia et al. ICSE 2025 — 确定性流水线优于复杂 agent
  2. CodeCompassarXiv:2602.20048, 2026 — 图遍历 G3 任务 99.4% vs BM25 76.2%
  3. KGCompass:Yang et al. arXiv:2503.21710, 2025 — SWE-bench Lite 58.3%
  4. AgentCoder:Huang et al. EMNLP 2023 — 多专家分工验证
  5. EE-MCPNeurIPS 2025 — 任务轨迹经验提取机制
  6. Agent PsychometricsarXiv:2604.00594, 2026 — 任务特征预测 agent 成功率

参与贡献

KWCode 是中国开发者做的,也需要中国开发者一起来完善。

不管你在北京还是新加坡,在上海还是旧金山,只要你是华人开发者,都欢迎参与。

最需要的贡献

新增预置专家(最简单,编辑一个 YAML 文件):

# 急需认领:
Vue3Expert / DjangoExpert / GoGinExpert / RustActixExpert
K8sExpert / DockerExpert / RedisExpert / MySQLExpert
kwcode expert create MyExpert
# 用自己真实项目测试 ≥5 个任务,跑通率 ≥80%
# 提 PR

语言支持扩展:PHP · C# · Kotlin · Swift · Dart(AST 调用图)

B 站视频教程 / 技术博客

贡献流程

git clone https://github.com/val1813/kwcode.git
cd kwcode
pip install -e ".[dev]"
python -m pytest kaiwu/tests/ -v --ignore=kaiwu/tests/bench_tasks
git checkout -b feat/your-feature
# 开发 → 测试 → PR

Issues:Bug 报告、功能建议 Discussions:技术讨论、专家设计


License

MIT — 自由使用、修改、分发。


如果 KWCode 对你有帮助,请给一个 ⭐

这不只是一个工具,是华人开发者社区共同的技术资产。

天工开物 · KWCode

About

一个能持续增强本地开源模型的cli,专门为本地部署模型优化的coding窗口。

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages