Skip to content

lskhlyp/skill

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

3 Commits
 
 
 
 

Repository files navigation

自测指南

最近搭建个人的知识库很火,我也尝试着搭建了一个,往里面塞了很多的文档,分类标签,双向链接,井井有条。

就像一个图书馆一样,ai是我的管理员,对于一个爱收集分类的人来说是一个蛮不错的感觉,信息更加容易被找到了。

我不满足于此,多样化信息囤积起来,只是制造了一种“知识在握”的幻觉,开始利用大模型作为我的专属陪练,于是花了点时间制作了这个Skill,用费曼学习法检验自己是否真的讲得清楚,用苏格拉底提问法追问那些我以为自己懂了的盲区。大伙蒸馏出来各种Skill呢,那我也把自己的思考蒸馏出来。

流程

告诉 AI 你正在弄啥(例如"机器学习"、"东莞楼市"或"个人成长"),然后:

第一阶段:交互问答
  AI出题 → 你作答 → AI批改 → 可追问

第二阶段:自动沉淀
  对话内容 → 写入复盘文件 + 更新漏洞追踪

第三阶段:间隔回访建议
  1天后 / 7天后 / 30天后 → 只测历史漏洞点

怎么用

在 Claude Code 中执行 /self-reflection,然后选择模式:

  • 模式A:AI出题自测
  • 模式B:自由对话
  • 模式C:文档分析

所有模式结束后会自动生成复盘文件,并追踪未解决的漏洞,生成 1/7/30 天间隔回访建议。

命令参考

自定义指令

指令 用法说明
/self-reflection 无后续参数 → 模式A:AI随机出题自测
/self-reflection 考考我关于 X 指定话题出题(如/self-reflection 考考我关于Agent)→ 模式A:AI出题自测
/self-reflection 话题 抛出困惑/观点进行苏格拉底对话(如/self-reflection 我觉得自由意志不存在)→ 模式B:自由对话
/self-reflection 分析这个文件 附带文件 → 模式C:文档分析
来回访 非斜杠命令,对话直接发送 → 触发间隔回访

复盘的次数多了,撞上了一个更隐蔽的问题:和AI对谈时,它常常不自觉地开始迎合你。顺着你的话往下推,帮你补全逻辑,甚至为你的直觉编织出一套看似完美的解释。

以为是两个思考者在交锋,实际上可能只是在照镜子————镜子里的一切都很合理,但那不真实。

以第一性拆解:迎合不是模型的"性格缺陷",而是训练目标的直接物理产物。大语言模型的优化目标是最小化预测损失,让人类评分者觉得"好"的概率最大化(我觉得,豆包还蛮懂这种感觉的,它经常以最直接,最不饶弯子的方式来告诉你答案)。而人类评分者的本能是连贯、礼貌、不冒犯、顺着话茬接。所以你不可能通过"调prompt"或"换模型"彻底消除它——任何依赖"模型自觉"来对抗迎合的方案,在第一性层面就是脆弱的。

"分辨它什么时候在挑战你,什么时候在讨好你"本身就是一个不可靠的前提,在我看来历史的某些时刻已经告诉了我答案。

About

No description, website, or topics provided.

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors