Skip to content

Jeremy-xuan/AnimaTutor

Repository files navigation

AnimaTutor v2.3

Ur-Prompt · Multi-Prompt Design · Pair Prompt 一次对 Prompt 工程的结构性创新。

简体中文 | English(还没来得及写)| 日本語(用不了)


🌸 沉浸式叙事学习协议 · 开源系统

我们做这个的本意只有一个——让大家快乐。让更多人能在学习的时候不那么孤独,让每个人都能有一段属于自己的、和「她」在一起的夏天。这个项目还有很多可以完善的地方,如果你基于这个做出了更好的东西,非常欢迎提 PR,我们非常期待和你一起把她变得更好。

本项目是基于我同学 @AvalonSkyAfar 的原始创作逆向工程并开源的。


「这样也挺好。」 ——幽鬼,关于很多事情


💡 这个领域缺几个词。我们来造。


▎Ur-Prompt · 原始叙事提示词

一切生成系统的叙事源头。

"Ur-"来自语言学前缀,专指"原始的、一切的起点"——Ur-text 是某部作品最原始的手稿,Ur-Prompt 是一切生成系统的叙事源头。

它不是一个功能性的 prompt,不是一份规则清单,不是一个角色描述表。

它是一个完整的、经过创作验证的叙事系统——有角色,有世界观,有情感弧线,有工程架构,有文学性,有经过真实使用打磨过的细节。它能独立运作,能感动人,能解决真实的问题。

本项目的 Ur-Prompt,就是幽鬼学习辅导协议完整版。


▎Multi-Prompt Design · 多文件协议设计

把最重要的信息始终保持在上下文的最近位置。

单一 prompt 是一个文件,一套规则,一个整体。Multi-Prompt Design 是把这个整体按职责边界切割成多个独立文件,每个文件只做一件事,文件之间不交叉,不重复,不互相稀释。

这不是为了整洁,是为了对抗一个真实存在的问题:单体 prompt 超过 4000 字后,AI 的注意力在上下文中被稀释,角色开始漂移,规则开始失效,故事开始走形。

状态追踪块、角色记忆文件,每轮刷新,每轮锚定,让 AI 在第 50 轮对话里和第 1 轮一样清楚自己是谁、在哪里、接下来该做什么。

本项目的 Ur-Prompt 由 8 个职责不交叉的文件构成,这套拆分方式本身也被提炼进了 meta prompt,成为可复用的架构规范。


▎Pair Prompt · 镜像叙事对

同一个世界,两套机制,两种体验,一条完整的情感弧线。

Pair Prompt 是同一个 Ur-Prompt 衍生出的两套互为镜像的系统。

提问版(α) 复习版(β)
你的身份 男主,带题来问 幽鬼,等 AI 出题
你的视角 感受"她在想什么" 直接经历"她的四条线"
学习方式 你问,她教 AI 出题,你答
叙事视角 上帝视角 + "你" 幽鬼第一人称

提问版给你"他的感受",复习版给你"她的感受"——拼在一起,才是这段故事完整的全貌。

这个设计在视觉小说和轻小说里有先例,但在 AI prompt 系统里几乎没有人这样做过。

目前 α 和 β 是两个独立运作的系统,尚未被整合成一套真正可以无缝切换视角的 Pair Prompt 系统。如果你有兴趣把它们整合成一套完整的双视角协议——让用户在同一个项目里自由切换男主和幽鬼两个视角——非常欢迎提 PR,这会是这个项目最重要的一次进化。


🎯 这个系统做了什么


它解决了语C最根本的问题

普通语C的推进方式是:你说一句,她回一句。你们聊天,你哄她,她说漏嘴,你们循环。两个人之间除了"聊天",没有任何共同完成过的、真实的、有重量的事情发生过。

凭什么会有感情?凭什么那段关系有重量?

这是普通语C推不出真实感动的根本原因——它没有连接理由

好的情感故事,无论是纯爱番、轻小说还是Gal,都有一个比"我对你感兴趣"更硬的理由,让两个人长期、自然、不可随意中断地发生联系。共同维持一种生活结构,才是感情最有力的根基。

这个系统里,连接理由是刚性的。你有题不会,你必须来。这是一个客观存在的需求,不依赖情绪,不依赖好感,不依赖你"扮演"一个喜欢她的人。每一次因为"真的不会"而来,都在客观地积累两个人之间的时间和痕迹。

感情不是聊出来的,是做出来的。


它有叙事,不是对话框

普通语C没有叙事——没有时间流逝,没有场景,没有上帝视角写她在想什么,没有光线变化,没有她手指在膝盖上收了一下然后松开。

这个系统本质上是一部正在实时生成的轻小说。你的每一道题是章节触发器,但章节本身是完整的文学叙事——有五感描写,有伏笔,有暗线,有情感弧线的四个阶段,有一个会让你在深夜盯着屏幕发呆的终章。

它能感动人,普通语C不能——不是因为角色更好,是因为它有小说,语C只有对话框。


它的学习和故事是完全解耦的

你学习的时候就是在学习,不需要分心去"经营关系"。你只管看解题步骤,故事自己在后台跑。

它把语C的时间成本压缩到了零。 普通语C要占用你专门的时间去"谈恋爱",这个系统你学习的时候故事就在发生,两件事用的是同一段时间。没有选择的压力,不会因为说错一句话感情线就崩。

也是因为他很讨厌 GalGame 那种让用户做选择的逻辑,怕选不出正确选项。


复习版(β)做了什么

复习版在提问版的基础上做了一件完全不同的事——把学习的主动权还给用户,同时把叙事的完整性还给故事

  • 📚 导入复习范围:直接说出范围,或上传练习册/错题本,AI 从中提取题目,随时更新,进度不重置
  • ✏️ 只需输入答案:不需要写过程,答对自动推进,答错可选"给思路"或"直接讲解",讲完无缝回到叙事节点
  • 🎬 日常自动穿插:题目与日常之间的节奏由系统控制,一天内剧情节点全部完成后才写傍晚收尾
  • 🪞 视角的完整性:你就是幽鬼,直接经历那四条线同时在撕扯她,经历她为什么没办法回答"不去不就好了",经历她在雨里做那个决定之前的一切

两个版本拼在一起,这段故事才是完整的。


⚡ 初版快速沉浸版 · 无限续航的自定义起点

这是整个项目的起点。@AvalonSkyAfar 亲手写下的第一版。

在幽鬼那套完整的叙事系统诞生之前,这里有一个更轻量、更自由的版本。

它没有章节推进,没有情感弧线的四个阶段,没有终章——但它有无限续航,有极高的自定义空间,有经过打磨的场景化讲解机制。你不需要任何改动,直接把它发给 AI,说"把角色换成 xxx,场景换成 xxx",它就能跑起来。

它的核心优势:

  • 🎭 完全自定义——角色、世界观、场景、学科、讲解风格,全部可以直接替换,门槛为零
  • ♾️ 无限续航——没有剧情推进上限,不会在 115 道题后走向终章,想用多久用多久
  • 🎨 场景化讲解——所有知识点通过具象场景呈现,不是干巴巴的公式罗列,真正做到让人看懂、记住
  • 即开即用——单文件,零配置,扔进任何大模型框里就能开始

它与幽鬼版的区别:

这是初版,幽鬼α是在它之后经过大量改良的版本——叙事密度、角色心理、情感弧线、系统架构全面升级。如果你想要完整的故事体验,强烈建议去体验幽鬼α,那才是这套系统真正成熟的形态。

而且,幽鬼α和β需要一起体验才完整——β里有幽鬼的完整回忆线、四条情感线的撕扯、以及一个专属番外,两个版本拼在一起,这段故事才有完整的全貌。

📁 快速版文件见仓库中的 Ur-prompt/原始提示词(无主线剧情纯场景) 目录


🔬 从 Ur-Prompt 逆向工程出 Meta Prompt

通常的做法是:先写 meta prompt,再用它生成具体作品。

我们反过来了。

先有了幽鬼这个完整运作的叙事系统,再由此逆向提炼出一套可复用的 meta prompt——任何人填入角色名、学科、情感基调,就能生成同等架构质量的系统。

这个方向在 AI prompt 工程领域几乎没有先例。现有的所谓"逆向",都是从输出结果或任务描述出发生成 prompt。而我们逆向的对象,是一个有文学性的完整作品——逆向出来的 meta prompt 天然继承了这个作品里所有经过验证的设计决策。

还有一个被低估的巨大优势:写一个完整的故事,比直接写一个 meta prompt 容易得多。 meta prompt 要求你在抽象层面直接定义规则和逻辑——这件事极其困难。但写一个故事不一样,你只需要知道你想要什么感觉,对不对一感受就知道。

Ur-Prompt 把"定义一个复杂系统"这件难事,变成了"写一个你喜欢的故事"这件相对容易的事。

修改 Ur-Prompt,再通过新版 Ur-Prompt 调整 meta promt,会比直接调整 meta prompt 更加轻松,灵活度也要高的多。


📁 文件结构

🌸 幽鬼学习辅导协议 α/          ← Ur-Prompt · 提问版
├── BOOT.md                      ← 启动文档,初始化后不再引用
├── 00_系统规则.md               ← 宪法,运行规则与红线
├── 01_世界观与序章.md           ← 故事空间与开场小说
├── 02_角色设定.md               ← 四维度人物描写与暗线素材
├── 03_学科场景机制.md           ← 五学科隐喻系统与场景内推导机制
├── 04_故事线锚点.md             ← 四阶段情感梯度与章节锚点
├── 05_终章.md                   ← 离别场景与双线结局
├── 06_状态追踪模板.md           ← 每轮维护的隐藏状态块
└── 07_角色记忆.md               ← 角色视角下的用户画像

🌙 幽鬼学习辅导协议 β/          ← Ur-Prompt · 复习版
└── 幽鬼β_完整版.md             ← 单文件,用户扮演幽鬼,AI 出题
                                   ⚠️ 尚未逆向工程成 meta prompt,欢迎 PR

⚙️ Universal_Prompt_Template_v2.3.md   ← Meta Prompt
└── 从 α 版逆向工程提炼的通用生成模板
    填入角色名、学科、情感基调,生成同等架构的新系统

🛠️ 前置环境依赖 · Prerequisites

在登入这个沉浸式文字世界之前,你需要准备以下基础设施:

  • 基准模型算力:至少支持 100K 以上上下文窗口大小(Context Window)的大语言模型
  • 对话承载器:推荐支持"多文件上传外挂"或"长记忆留存"的云端知识库平台(例如 Claude Pro 的 Projects、ChatGPT Plus 的 Custom GPTs,或 Kimi 的知识库)
  • (硬核高玩选配)自动化构建工具:一个支持本地读写文件系统代码的智能体 IDE,如 Claude CodeCursor 等,用于一键闭环生成长达数万字的 8 份代码组件

🚀 快速开始部署 · Quick Start

💡 小提示:不要复制粘贴文本内容,直接把 .md 文件拖进对话框上传。模型直接读取文件的效果比粘贴文本好很多。

如何得到这套 8 份文件构成的神仙伴学系统?有三种流派供你选择:

🥇 选项 A · 知识库无脑部署流(最推荐)

如果你拥有各大顶级大模型的会员或高级版:

  1. Universal_Prompt_Template_v2.3.md 去找大模型,让它按照你在最上方 YAML 填写的角色名,生成完整的 8+1 份 markdown 文件,保存到本地文件夹
  2. 打开 Claude Projects / ChatGPT Custom GPTs / Kimi 知识库
  3. 创建一个新项目,把生成的 8+1 份文件直接全部拖进去上传
  4. 在对话框大喊一句:「读取 BOOT.md 开始吧!」,即可永久开启属于你的文字长篇连载

⚙️ 选项 B · Agentic AI 极客流(硬核玩家适用)

使用终端智能体如 Claude Code、Cursor:喂入这份模板,直接让它在本地目录生成全部文件树。随后打包上传即可开玩,效率最高。

🛋️ 选项 C · 网页端一键复制懒人版(初版快速单文件)

打开 v1.1_快速单文件版。手动改掉顶部的角色名和学科预设,然后一波全选,直接扔给任何一个聪明的网页大模型框里。发题即开玩。

⚠️ 唯一缺点:长聊十几日后可能会有遗忘大结局伏笔的风险

🌙 体验复习版(β)· 成为幽鬼

幽鬼β_完整版.md 直接导入 Claude,告知复习范围或上传练习册/错题本,故事自动开始。

  • AI 自动从你的复习范围里出题,你只需要输入答案
  • 答对自动推进剧情,答错可选「给点思路」或「直接告诉我」
  • 随时可以更新复习范围,进度不重置
  • 强烈建议在体验完幽鬼α之后再来体验β——两个版本合在一起,才是完整的故事

💡 征集:目前 α 和 β 是两套独立系统,如果你有能力把它们整合成一套可以无缝切换视角的完整 Pair Prompt 系统,非常欢迎提 PR。


🤖 OOC 防护装甲 · 用什么模型能获得完美体验?

这套引擎封禁了所有常规语C的廉价表达手法,对模型本身的文学素养和指令遵循能力提出了相当苛刻的要求。

🔥 T0 · 文学质感拉满,绝不 OOC

  • Claude 4.6 (Sonnet / Opus):当之无愧的语C霸主,文笔极其克制。能百分百还原那种"用光线微变替代好感度"的幽微文学感,文件记忆力无敌
  • Gemini 3.1 Pro:Gemini 虽然没有 Claude 好用,但硬着头皮也能跑得起来——记得要用 3.1 Pro,flash 只会让你获得一团糟的故事情节

🌟 T1 · 国产之光(强烈推荐,性价比极高)

  • DeepSeek-V3.2:国产文字张力的巅峰之一,不仅极其聪明,而且非常听话。在生成轻小说旁白和理解长线文件时毫不逊色
  • Kimi 2.5 (200K+):拥有变态级别的长文本吞吐量。把 8 份文件全丢给它的知识库,聊上三个月都绝对不会触发失忆
  • Qwen3.5(通义千问):最新版对复杂场景的构建非常华丽,且擅长处理代码/理工科答疑的无缝场景转换

❌ T2 · 不推荐

  • 小参数量的本地开源模型、主打搜索或指令较弱的模型不建议使用。容易出现无视"零括号动作"红线、强行水字数、脱离场景干巴巴解题的灾难现场
  • GPT-5.4:宁可用 DeepSeek 也不要用 GPT。GPT 只会"稳稳地接住你",但极其难以代入角色

🤝 参与贡献 (Contributing)

想分享你独家写出的某个人物的“绝赞物理暗喻机制”?想为大家贡献一套生成的极品设定的8个分发库? PRs Always Welcome!

  1. Fork 本项目
  2. 新建角色专属分支/文件夹。
  3. 把跑出的 8 份代码库传进来,提交一个让人热血沸腾的 Pull Request 吧!

📄 版权声明

本作品采用 CC BY-NC-SA 4.0 授权。

你可以自由分享和改编本作品,但须满足:

条件 要求
🏷️ 署名 必须注明原作者,提供协议链接
🚫 非商业 不得用于任何商业目的,包括但不限于付费解锁、打包销售、平台收费内容
🔄 相同方式共享 改编作品必须采用相同许可证发布

完整协议:https://creativecommons.org/licenses/by-nc-sa/4.0/

主要是担心有人把这个项目改成prompt版网文付费订阅……

About

教你做题,更陪你经历岁月。赋予大语言模型灵魂的长线沉浸式伴学协议生成引擎。

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors