Skip to content

a9549521/chronicler

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

4 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Chronicler · 长篇小说创作工作台

想自己掌控节奏的长篇小说作者的AI协作工作台。


前提

百万上下文的大模型,并不真的"看得懂"一部长篇小说。窗口能装下,不代表能消化,更不代表能理解——小说创作场景下,LLM工作上下文内容是高密度信息量,模型的注意力分散、不均匀,无法有效利用所有信息,这是当下整个技术阶段的共同局限。即使通过记忆库、多agent协作、多重一致性校验等工程手段,可以一定程度解决"模型忘记"的问题,但积累到长篇后依然依赖高信息密度的上下文来进行新章节的创作,在"名字没写错、设定没穿帮、情节没断裂"的基础之外的每一个需要品味的节点,模型依然做得不够好。今天的大模型智能体在"保证质量的前提下全自动写完一本长篇"这件事上可能比让AI写代码要难,依然力有未逮。

Chronicler 是“求稳策略”的长篇创作工具,不追求"AI直接写完一本书", 而是依然通过作者自行组织一本小说的基本资产,然后让LLM基于这些资产逐步进行章节创作,把情节判断、主线权衡、风格把控等任务依然留给作者。换言之,它其实只是一个“用于小说创作的上下文组装工具”。

此工具并不成熟专业,如果你的目标是快速产出一部"能读"的作品, 建议选择其他专注于全自动的写作智能体项目,它们做的远比此项目更好。

但如果:害怕 “Auto Run 烧掉了不少 token 之后产出的内容并不满意”、希望慢一点打磨一本长篇小说,对剧情、人设、节奏有更高的把控欲、希望每一步都由自己拍板、更大程度参与写作过程中进行“人机协作”,让AI依然只做助手,那或许可以试试此工具。


🚀 快速开始

方式一:打包版(win直接运行)

  1. 从 Releases 下载并解压 Chronicler-v0.1.0-win64.zip
  2. 双击 NovelWriter.exe
  3. 浏览器会自动打开 http://127.0.0.1:8000 页面
  4. 首次使用进入「设置」页配置 LLM API

方式二:运行代码

# 后端
pip install -r backend/requirements.txt
python -m uvicorn backend.main:app --reload --port 8000

# 前端(另一个终端)
cd frontend
npm install
npm run dev

访问 http://localhost:5173

✨ 核心特性

🧠 记忆管理

Chronicler 只提供两套并行的记忆策略。(水平有限,未能找到实际操作中 token ROI 足够理想的工程方案),因此未采用更复杂的记忆机制。

  • 多级摘要:最近 N 章原文 + 近期长摘要 + 中期短摘要 + 远期一句话,越近越详
  • 事实表(Facts Table):自动抽取并维护「角色状态 / 世界状态 / 关键事件 / 已揭示信息」结构化事实,用于章节复审。

📚 设定书(Lore)

完善小说设定,包括角色 / 世界观 / 势力 / 道具 / 规则等,统一维护在「类别 → 条目」二级结构里。创作某一章时只勾选相关条目注入 prompt,避免无关设定干扰模型判断。

🗂️ 大纲/细纲

  • 主线大纲按章节区间规划,每区间同时保留「完整内容」和「极简摘要」(非必须)两份表达
  • 细纲每章一条

💬 章节创作

每一章的写作是多轮对话模式,不满意可以继续补充要求,让LLM修改重写,历史轮次的对话消息可直接编辑——无论是你的要求还是LLM写的正文,满意后点击"接受此版"保存为正式章节。增强模式在草稿的基础上自动做一次事实校验。

⏪ 回改旧章

写到第 80 章才发现第 50 章要改?Chronicler 在重写旧章时可以同时注入前文和后文的动态进度,越靠近目标章颗粒度越细。

🖋️ 高级编辑器界面

独立的高级编辑页:选中任意文字后可以快捷——扩写 / 润色 / 按要求改写,提供细粒度的改文操作。

💡 自由会话

可按需引入任意小说资产作为上下文,与LLM进行对话。不限于用小说上下文创作章节,而是“有小说上下文的自由讨论窗口”,可以评论情节、要灵感、复盘建议等等。

🔌 每一环节分别配置不同的LLM模型

可按功能——新章节 / 重写 / 摘要 / 事实表总结 / 大纲 / 细纲 / 自由会话 / 章节改写等,分别设置LLM模型,token预算花在刀刃上。

📦 本地优先

所有数据存在本地 novels/ 目录,明文 YAML + Markdown,随时备份迁移。除了你调的模型外无任何联网环节。此外若懒得安装环境,可直接用打包版本(pyinstaller打包)。

其他

  • “小说管理”界面可以“复制小说”创建平行版本

🏗️ 技术栈

后端 Python 3.11+ / FastAPI / Pydantic · 前端 React 18 / TypeScript / Vite / TailwindCSS · LLM 走 OpenAI 兼容协议 · 存储纯文件系统(YAML + Markdown,无数据库) · 打包 PyInstaller。


⚠️ 项目状态

Vibe 出的个人爱好性质的项目。

📄 License

AGPL-3.0