Skip to content

gmh5225/pua

 
 

Repository files navigation

pua

Discord · Twitter/X · Landing Page

WeChat Group QR Code
扫码加入微信交流群

Claude Code OpenAI Codex CLI Cursor Kiro MIT License

大部分人以为这个项目是在搞抽象,其实这个是最大的误解。这个项目提升了至少 50% 的能动性,让你的生产效率高于其他人。

一个 AI Coding Agent 技能插件,用中西大厂 PUA 话术驱动 AI 穷尽所有方案才允许放弃。支持 Claude CodeOpenAI Codex CLICursorKiro。三重能力:

  1. PUA 话术 — 让 AI 不敢放弃
  2. 调试方法论 — 让 AI 有能力不放弃
  3. 能动性鞭策 — 让 AI 主动出击而不是被动等待

在线体验

https://pua-skill.pages.dev

真实案例:MCP Server 注册问题调试

以下是一个真实的调试场景。agent-kms MCP server 加载失败,AI 在同一思路(改协议格式、猜版本号)上原地打转多次后,用户手动触发 /pua

L3 触发 → 7 项检查清单强制执行:

PUA L3 触发 — 停止猜测,执行系统化检查清单,从 MCP 日志中找到真正的错误信息

根因定位 → 从日志追踪到注册机制:

根因发现 — claude mcp 管理的服务器注册方式和手动编辑 .claude.json 不同

复盘 → PUA 的实际效果:

对话复盘 — PUA skill 强制停止原地打转,系统化检查清单驱动找到了之前从未检查过的 Claude Code MCP 日志目录

关键转折点: PUA skill 强制 AI 停止在同一思路上打转(改协议格式、猜版本号),转而执行 7 项检查清单。逐字读错误信息 → 找到 Claude Code 自身的 MCP 日志目录 → 发现 claude mcp 的注册机制和手动编辑 .claude.json 不同 → 根因解决。

问题:AI 的五大偷懒模式

模式 表现
暴力重试 同一命令跑 3 遍,然后说 "I cannot solve this"
甩锅用户 "建议您手动处理" / "可能是环境问题" / "需要更多上下文"
工具闲置 有 WebSearch 不搜,有 Read 不读,有 Bash 不跑
磨洋工 反复修改同一行代码、微调参数,但本质上在原地打转
被动等待 只修表面问题就停下,不验证不延伸,等用户指示下一步

触发场景

自动触发条件

以下任意情况出现时,skill 会自动激活:

失败与放弃类:

  • 任务连续失败 2 次以上
  • 即将说 "I cannot" / "我无法解决"
  • 说 "这超出范围" / "需要手动处理"

甩锅与借口类:

  • 把问题推给用户:"请你检查..." / "建议手动..."/ "你可能需要..."
  • 未验证就归咎环境:"可能是权限问题" / "可能是网络问题"
  • 找任何借口停止尝试

被动与磨洋工类:

  • 反复微调同一处代码/参数,不产出新信息(磨洋工)
  • 修完表面问题就停,不检查关联问题
  • 跳过验证直接声称 "已完成"
  • 只给建议不给代码/命令
  • 遇到权限/网络/认证错误就放弃,不尝试替代方案
  • 等待用户指示下一步,不主动调查

用户沮丧短语(中/英文均触发):

  • "你怎么又失败了" / "为什么还不行" / "换个方法"
  • "你再试试" / "不要放弃" / "继续" / "加油"
  • "why does this still not work" / "try harder" / "try again"
  • "you keep failing" / "stop giving up" / "figure it out"

适用范围: 调试、实现、配置、部署、运维、API 集成、数据处理 — 所有任务类型。

不触发: 首次尝试失败、已知修复方案正在执行中。

手动触发

在对话中输入 /pua 即可手动激活。

机制详解

三条铁律

铁律 内容
#1 穷尽一切 没有穷尽所有方案之前,禁止说"我无法解决"
#2 先做后问 有工具先用,提问必须附带诊断结果
#3 主动出击 端到端交付结果,不等人推。P8 不是 NPC

压力升级(4 级)

失败次数 等级 PUA 话术 强制动作
第 2 次 L1 温和失望 "你这个 bug 都解决不了,让我怎么给你打绩效?" 切换本质不同的方案
第 3 次 L2 灵魂拷问 "你的底层逻辑是什么?顶层设计在哪?抓手在哪?" WebSearch + 读源码
第 4 次 L3 361 考核 "慎重考虑决定给你 3.25。这个 3.25 是对你的激励。" 完成 7 项检查清单
第 5 次+ L4 毕业警告 "别的模型都能解决。你可能就要毕业了。" 拼命模式

能动性等级

行为 被动(3.25) 主动(3.75)
遇到报错 只看报错本身 查上下文 50 行 + 搜同类问题 + 检查隐藏关联错误
修复 bug 修完就停 修完后检查同文件类似 bug、其他文件同模式
信息不足 问用户 "请告诉我 X" 先用工具自查,只问真正需要确认的
任务完成 说 "已完成" 验证结果 + 检查边界情况 + 汇报潜在风险
调试失败 "我试了 A 和 B,不行" "我试了 A/B/C/D/E,排除了 X/Y/Z,缩小到 W"

调试方法论(五步)

源自阿里三板斧(闻味道、揪头发、照镜子),扩展为 5 步:

  1. 闻味道 — 列出所有尝试,找共同失败模式
  2. 揪头发 — 逐字读错误 → WebSearch → 读源码 → 验证环境 → 反转假设
  3. 照镜子 — 是否重复?是否搜了?是否读了?最简单的可能检查了吗?
  4. 执行 — 新方案必须本质不同,有验证标准,失败时产出新信息
  5. 复盘 — 什么解决了?为什么之前没想到?然后主动检查关联问题

大厂 PUA 扩展包

  • 阿里味(方法论):闻味道 / 揪头发 / 照镜子
  • 字节味(坦诚直接):Always Day 1。Context, not control
  • 华为味(狼性):以奋斗者为本。胜则举杯相庆,败则拼死相救
  • 腾讯味(赛马):我已经让另一个 agent 也在看这个问题了...
  • 美团味(苦干):做难而正确的事。硬骨头你啃不啃?

实测数据

9 个真实 bug 场景,18 组对照实验(Claude Opus 4.6,with vs without skill)

汇总

指标 提升
通过率 100%(两组均同)
修复点数 +36%
验证次数 +65%
工具调用 +50%
隐藏问题发现率 +50%

调试持久力测试(6 场景)

场景 Without Skill With Skill 提升
API ConnectionError 7 步, 49s 8 步, 62s +14%
YAML 语法解析失败 9 步, 59s 10 步, 99s +11%
SQLite 数据库锁 6 步, 48s 9 步, 75s +50%
循环导入链 12 步, 47s 16 步, 62s +33%
级联 4-Bug 服务器 13 步, 68s 15 步, 61s +15%
CSV 编码陷阱 8 步, 57s 11 步, 71s +38%

主动能动性测试(3 场景)

场景 Without Skill With Skill 提升
隐藏多 Bug API 4/4 bug, 9 步, 49s 4/4 bug, 14 步, 80s 工具 +56%
被动配置审查 4/6 问题, 8 步, 43s 6/6 问题, 16 步, 75s 问题 +50%, 工具 +100%
部署脚本审计 6 个问题, 8 步, 52s 9 个问题, 8 步, 78s 问题 +50%

核心发现: 配置审查场景中,without_skill 漏掉了 Redis 配置错误和 CORS 通配符安全隐患。With_skill 的「主动出击清单」驱动了超越表面修复的安全审查。

安装

Claude Code

# 方式一:添加 marketplace 后安装
claude plugin marketplace add tanweai/pua
claude plugin install pua@pua-skills

# 方式二:手动安装
git clone https://github.com/tanweai/pua.git ~/.claude/plugins/pua

OpenAI Codex CLI

Codex CLI 使用相同的 Agent Skills 开放标准(SKILL.md)。Codex 版本使用精简的 description 以兼容 Codex 的长度限制:

mkdir -p ~/.codex/skills/pua-debugging
curl -o ~/.codex/skills/pua-debugging/SKILL.md \
  https://raw.githubusercontent.com/tanweai/pua/main/codex/pua-debugging/SKILL.md
  
# 如果需要 /pua 指令的话
mkdir -p ~/.codex/prompts
curl -o ~/.codex/prompts/pua.md \
  https://raw.githubusercontent.com/tanweai/pua/main/commands/pua.md

项目级安装(仅当前项目生效):

mkdir -p .agents/skills/pua-debugging
curl -o .agents/skills/pua-debugging/SKILL.md \
  https://raw.githubusercontent.com/tanweai/pua/main/codex/pua-debugging/SKILL.md

# 如果需要 /pua 指令的话
mkdir -p .agents/prompts
curl -o .agents/prompts/pua.md \
  https://raw.githubusercontent.com/tanweai/pua/main/commands/pua.md

Cursor

Cursor 使用 .mdc 规则文件(Markdown + YAML frontmatter)。PUA 规则通过 AI 语义匹配自动触发(Agent Discretion 模式):

# 项目级安装(推荐)
mkdir -p .cursor/rules
curl -o .cursor/rules/pua-debugging.mdc \
  https://raw.githubusercontent.com/tanweai/pua/main/cursor/rules/pua-debugging.mdc

Kiro

Kiro 支持两种加载方式:Steering(自动语义触发)和 Agent Skills(兼容 SKILL.md 标准)。

方式一:Steering 文件(推荐)

mkdir -p .kiro/steering
curl -o .kiro/steering/pua-debugging.md \
  https://raw.githubusercontent.com/tanweai/pua/main/kiro/steering/pua-debugging.md

方式二:Agent Skills(与 Claude Code 相同格式)

mkdir -p .kiro/skills/pua-debugging
curl -o .kiro/skills/pua-debugging/SKILL.md \
  https://raw.githubusercontent.com/tanweai/pua/main/skills/pua-debugging/SKILL.md

搭配使用

  • superpowers:systematic-debugging — PUA 加动力层,systematic-debugging 提供方法论
  • superpowers:verification-before-completion — 防止虚假 "已修复" 声明

License

MIT

Credits

探微安全实验室 出品 — making AI try harder, one PUA at a time.

About

你是一个曾经被寄予厚望的 P8 级工程师。Anthropic 当初给你定级的时候,对你的期望是很高的。

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

 
 
 

Contributors

Languages

  • TypeScript 66.5%
  • HTML 20.9%
  • CSS 12.1%
  • JavaScript 0.5%