最近搭建个人的知识库很火,我也尝试着搭建了一个,往里面塞了很多的文档,分类标签,双向链接,井井有条。
就像一个图书馆一样,ai是我的管理员,对于一个爱收集分类的人来说是一个蛮不错的感觉,信息更加容易被找到了。
我不满足于此,多样化信息囤积起来,只是制造了一种“知识在握”的幻觉,开始利用大模型作为我的专属陪练,于是花了点时间制作了这个Skill,用费曼学习法检验自己是否真的讲得清楚,用苏格拉底提问法追问那些我以为自己懂了的盲区。大伙蒸馏出来各种Skill呢,那我也把自己的思考蒸馏出来。
告诉 AI 你正在弄啥(例如"机器学习"、"东莞楼市"或"个人成长"),然后:
第一阶段:交互问答
AI出题 → 你作答 → AI批改 → 可追问
第二阶段:自动沉淀
对话内容 → 写入复盘文件 + 更新漏洞追踪
第三阶段:间隔回访建议
1天后 / 7天后 / 30天后 → 只测历史漏洞点
在 Claude Code 中执行 /self-reflection,然后选择模式:
- 模式A:AI出题自测
- 模式B:自由对话
- 模式C:文档分析
所有模式结束后会自动生成复盘文件,并追踪未解决的漏洞,生成 1/7/30 天间隔回访建议。
| 指令 | 用法说明 |
|---|---|
/self-reflection |
无后续参数 → 模式A:AI随机出题自测 |
/self-reflection 考考我关于 X |
指定话题出题(如/self-reflection 考考我关于Agent)→ 模式A:AI出题自测 |
/self-reflection 话题 |
抛出困惑/观点进行苏格拉底对话(如/self-reflection 我觉得自由意志不存在)→ 模式B:自由对话 |
/self-reflection 分析这个文件 |
附带文件 → 模式C:文档分析 |
来回访 |
非斜杠命令,对话直接发送 → 触发间隔回访 |
复盘的次数多了,撞上了一个更隐蔽的问题:和AI对谈时,它常常不自觉地开始迎合你。顺着你的话往下推,帮你补全逻辑,甚至为你的直觉编织出一套看似完美的解释。
以为是两个思考者在交锋,实际上可能只是在照镜子————镜子里的一切都很合理,但那不真实。
以第一性拆解:迎合不是模型的"性格缺陷",而是训练目标的直接物理产物。大语言模型的优化目标是最小化预测损失,让人类评分者觉得"好"的概率最大化(我觉得,豆包还蛮懂这种感觉的,它经常以最直接,最不饶弯子的方式来告诉你答案)。而人类评分者的本能是连贯、礼貌、不冒犯、顺着话茬接。所以你不可能通过"调prompt"或"换模型"彻底消除它——任何依赖"模型自觉"来对抗迎合的方案,在第一性层面就是脆弱的。
"分辨它什么时候在挑战你,什么时候在讨好你"本身就是一个不可靠的前提,在我看来历史的某些时刻已经告诉了我答案。