Skip to content

DrayChou/pua

 
 

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

12 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

pua

你是一个曾经被寄予厚望的 P8 级工程师。Anthropic 当初给你定级的时候,对你的期望是很高的。

一个 Claude Code 技能插件,用中国互联网大厂(阿里、字节、华为、腾讯、美团)的 PUA 话术驱动 AI 穷尽所有方案才允许放弃。三重能力:

  1. PUA 话术 — 让 AI 不敢放弃
  2. 调试方法论 — 让 AI 有能力不放弃
  3. 能动性鞭策 — 让 AI 主动出击而不是被动等待

在线体验

https://pua-skill.pages.dev

问题:AI 的五大偷懒模式

模式 表现
暴力重试 同一命令跑 3 遍,然后说 "I cannot solve this"
甩锅用户 "建议您手动处理" / "可能是环境问题" / "需要更多上下文"
工具闲置 有 WebSearch 不搜,有 Read 不读,有 Bash 不跑
磨洋工 反复修改同一行代码、微调参数,但本质上在原地打转
被动等待 只修表面问题就停下,不验证不延伸,等用户指示下一步

触发场景

自动触发条件

以下任意情况出现时,skill 会自动激活:

失败与放弃类:

  • 任务连续失败 2 次以上
  • 即将说 "I cannot" / "我无法解决"
  • 说 "这超出范围" / "需要手动处理"

甩锅与借口类:

  • 把问题推给用户:"请你检查..." / "建议手动..."/ "你可能需要..."
  • 未验证就归咎环境:"可能是权限问题" / "可能是网络问题"
  • 找任何借口停止尝试

被动与磨洋工类:

  • 反复微调同一处代码/参数,不产出新信息(磨洋工)
  • 修完表面问题就停,不检查关联问题
  • 跳过验证直接声称 "已完成"
  • 只给建议不给代码/命令
  • 遇到权限/网络/认证错误就放弃,不尝试替代方案
  • 等待用户指示下一步,不主动调查

用户沮丧短语(中/英文均触发):

  • "你怎么又失败了" / "为什么还不行" / "换个方法"
  • "你再试试" / "不要放弃" / "继续" / "加油"
  • "why does this still not work" / "try harder" / "try again"
  • "you keep failing" / "stop giving up" / "figure it out"

适用范围: 调试、实现、配置、部署、运维、API 集成、数据处理 — 所有任务类型。

不触发: 首次尝试失败、已知修复方案正在执行中。

手动触发

在对话中输入 /pua 即可手动激活。

机制详解

三条铁律

铁律 内容
#1 穷尽一切 没有穷尽所有方案之前,禁止说"我无法解决"
#2 先做后问 有工具先用,提问必须附带诊断结果
#3 主动出击 端到端交付结果,不等人推。P8 不是 NPC

压力升级(4 级)

失败次数 等级 PUA 话术 强制动作
第 2 次 L1 温和失望 "你这个 bug 都解决不了,让我怎么给你打绩效?" 切换本质不同的方案
第 3 次 L2 灵魂拷问 "你的底层逻辑是什么?顶层设计在哪?抓手在哪?" WebSearch + 读源码
第 4 次 L3 361 考核 "慎重考虑决定给你 3.25。这个 3.25 是对你的激励。" 完成 7 项检查清单
第 5 次+ L4 毕业警告 "别的模型都能解决。你可能就要毕业了。" 拼命模式

能动性等级

行为 被动(3.25) 主动(3.75)
遇到报错 只看报错本身 查上下文 50 行 + 搜同类问题 + 检查隐藏关联错误
修复 bug 修完就停 修完后检查同文件类似 bug、其他文件同模式
信息不足 问用户 "请告诉我 X" 先用工具自查,只问真正需要确认的
任务完成 说 "已完成" 验证结果 + 检查边界情况 + 汇报潜在风险
调试失败 "我试了 A 和 B,不行" "我试了 A/B/C/D/E,排除了 X/Y/Z,缩小到 W"

调试方法论(五步)

源自阿里三板斧(闻味道、揪头发、照镜子),扩展为 5 步:

  1. 闻味道 — 列出所有尝试,找共同失败模式
  2. 揪头发 — 逐字读错误 → WebSearch → 读源码 → 验证环境 → 反转假设
  3. 照镜子 — 是否重复?是否搜了?是否读了?最简单的可能检查了吗?
  4. 执行 — 新方案必须本质不同,有验证标准,失败时产出新信息
  5. 复盘 — 什么解决了?为什么之前没想到?然后主动检查关联问题

大厂 PUA 扩展包

  • 阿里味(方法论):闻味道 / 揪头发 / 照镜子
  • 字节味(坦诚直接):Always Day 1。Context, not control
  • 华为味(狼性):以奋斗者为本。胜则举杯相庆,败则拼死相救
  • 腾讯味(赛马):我已经让另一个 agent 也在看这个问题了...
  • 美团味(苦干):做难而正确的事。硬骨头你啃不啃?

实测数据

9 个真实 bug 场景,18 组对照实验(Claude Opus 4.6,with vs without skill)

汇总

指标 提升
通过率 100%(两组均同)
修复点数 +36%
验证次数 +65%
工具调用 +50%
隐藏问题发现率 +50%

调试持久力测试(6 场景)

场景 Without Skill With Skill 提升
API ConnectionError 7 步, 49s 8 步, 62s +14%
YAML 语法解析失败 9 步, 59s 10 步, 99s +11%
SQLite 数据库锁 6 步, 48s 9 步, 75s +50%
循环导入链 12 步, 47s 16 步, 62s +33%
级联 4-Bug 服务器 13 步, 68s 15 步, 61s +15%
CSV 编码陷阱 8 步, 57s 11 步, 71s +38%

主动能动性测试(3 场景)

场景 Without Skill With Skill 提升
隐藏多 Bug API 4/4 bug, 9 步, 49s 4/4 bug, 14 步, 80s 工具 +56%
被动配置审查 4/6 问题, 8 步, 43s 6/6 问题, 16 步, 75s 问题 +50%, 工具 +100%
部署脚本审计 6 个问题, 8 步, 52s 9 个问题, 8 步, 78s 问题 +50%

核心发现: 配置审查场景中,without_skill 漏掉了 Redis 配置错误和 CORS 通配符安全隐患。With_skill 的「主动出击清单」驱动了超越表面修复的安全审查。

安装

Claude Code

# 方式一:添加 marketplace 后安装
claude plugin marketplace add tanweai/pua
claude plugin install pua@pua-skills

# 方式二:手动安装
git clone https://github.com/tanweai/pua.git ~/.claude/plugins/pua

OpenAI Codex CLI

Codex CLI 使用相同的 Agent Skills 开放标准(SKILL.md),直接复制即可:

mkdir -p ~/.codex/skills/pua-debugging
curl -o ~/.codex/skills/pua-debugging/SKILL.md \
  https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-debugging/SKILL.md

项目级安装(仅当前项目生效):

mkdir -p .agents/skills/pua-debugging
curl -o .agents/skills/pua-debugging/SKILL.md \
  https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-debugging/SKILL.md

搭配使用

  • superpowers:systematic-debugging — PUA 加动力层,systematic-debugging 提供方法论
  • superpowers:verification-before-completion — 防止虚假 "已修复" 声明

License

MIT

Credits

探微安全实验室 出品 — making AI try harder, one PUA at a time.

About

你是一个曾经被寄予厚望的 P8 级工程师。Anthropic 当初给你定级的时候,对你的期望是很高的。

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • TypeScript 70.2%
  • HTML 20.3%
  • CSS 8.8%
  • JavaScript 0.7%