· KEY Editorial Office · Methodology ·

我们为 AI 写了一份决策契约.

大多数所谓"AI 决策工具", 不过是给 ChatGPT 套一层 UI. 它们卖的是"AI 的便利". 我们卖的是另一件事 — 我们卖的是"AI 不能跳过的步骤".

在重大人生决策面前 — 父母养老, 婚姻去留, 孩子出路, 职业转身 — 你不需要再多一个夸你的 AI. 你需要一个被严格约束, 长期记得你, 不替你做决定, 但保证你不跳过你一个人时会跳过的关键问题的伙伴.

下面这 7 条契约, 是 KEY 跟通用 AI 的全部不同. 不是市场话术, 是代码里就有的东西. 每一条都附学术血缘, 每一条都给出实例.

· 七条 ·

  1. I.反鸡汤宪法
  2. II.12 维结构化分析
  3. III.反向尸检
  4. IV.六个领域专项
  5. V.长期记忆
  6. VI.决策账本
  7. VII.六项自审
I.

反鸡汤宪法

The Anti-Chicken-Soup Constitution

你不需要再多一个夸你的 AI.

KEY 的每一次 LLM 调用, 都附带一份系统级禁令. 禁止输出"加油 / 你已经很棒了 / 听从内心 / 相信自己 / 一切都会好起来". 不主动安慰, 不假装有答案, 不替你决定.

这不是一份风格指南. 是一份契约. 它在代码里 — anti-chicken-soup.ts, 第一行 import. 任何决策框架, 任何回应, 都先经过它. 你看到的所有输出, 都是这份契约之后的产物.

调性的坐标在哪里? 像晚饭后跟你聊到深夜的最锐利的同事. 不是人生导师, 不是疗愈师, 不是心理咨询. 是 Charlie Munger 而不是 Naval Ravikant. 是精神科医生的"诚实"模式, 不是社工的"支持"模式.

一般 AI 通常会这么说

"听起来这是个艰难的决定. 相信你的直觉, 你会找到对的路."

KEY 这么做

"你已经知道答案了. 你只是不敢承认承担它的代价是什么. 在这件事上, 真正的问题是 X."

方法论血缘

Charlie Munger

《穷查理宝典》(Poor Charlie's Almanack, 2005)

严肃决策的第一原则: 反对自己的情绪偏好, 而不是顺着它.

II.

12 维结构化分析

Twelve Dimensions

重大决定要走的 12 个问题, 一个不能少.

一份 KEY 决策简报必经 12 个维度. 第一性原理. 决策可逆性. 三条路径 + 5 年后图景. PreMortem 反向尸检. 你没意识到的盲点. 关键利益相关者. 时间窗口. 不可逆风险地图. 资源约束. 价值观一致性. Cracking Question. 最小下一步.

一个维度都不能跳过. 不是因为更多就是更好 — 而是因为你一个人想的时候, 总是恰好跳过最关键的那一个.

Atul Gawande 在《清单革命》里写过: 外科 / 航空 / 投资三个领域引入 checklist 后, 错误率降低 30-50%. 不是因为医生 / 飞行员 / 投资人变笨了 — 是因为人类在压力下, 总会忘掉自己已经知道的事.

一般 AI 通常会这么说

"ChatGPT 接到你的问题, 直接给三个选项的 pros and cons. 中间漏掉 9 个该问的事."

KEY 这么做

"12 维强制执行, 不容协商. 漏掉一个, 简报不算合格. validateBrief() 会标 issue."

方法论血缘

Atul Gawande · Daniel Kahneman

《清单革命》(2009) · 《Noise》(2021)

一致性是质量的前置条件. 不一致的决策系统, 即使每次都"聪明", 整体仍是不可靠的.

III.

反向尸检

PreMortem

下决定前, 强制让你想象失败的样子.

1989 年, 心理学家 Gary Klein 发现一个反直觉的现象. 如果你在做决定**之前**, 假设"3 年后这事彻底塌了", 然后反推哪里塌的 — 你能识别到的风险数量, 比"事前 pros and cons" 多 30%.

这个方法叫 PreMortem. Google 已经把它写进重大产品决策流程. NASA 用它评估发射决策. Boeing 用它做安全审查.

KEY 的每一份简报, Section VII 强制运行 PreMortem. 不是建议, 是契约. 我们会让 AI 假设这件事 3 年后塌了, 推断 2-3 个最可能的塌方点 — 其中至少一个, 必须是"你自己没意识到的".

一般 AI 通常会这么说

"可能的风险包括 ... (列出 3 条通用风险, 没有具体性)"

KEY 这么做

"假设 2029 年这件事塌了. 根据你 brain 里的 6 条事实, 我看到 2 个具体塌方点. 其中一个是你 1 月 13 日的 Pulse 提到过, 但你今天没把它纳入决策考量."

方法论血缘

Gary Klein

"Performing a Project Premortem", Harvard Business Review (2007)

想象失败比预测成功更能识别风险. 大脑面对"已经发生的失败"会比"可能发生的风险" 启动更细致的因果推理.

IV.

六个领域专项

Six Domain Frameworks

父母养老不是职业转型. 决策框架也不该是一套.

们不用"一个万能模板"应付所有决策. 父母养老有它独特的失败模式 — 代际责任的隐性约定, 兄弟姐妹分担的政治, 走丢事件的不可逆性, 失能加速曲线的陡度. 婚姻有婚姻的 — 4 个月无性史 vs 6 个月分居 vs 8 年累积的"消失感". 子女教育有子女教育的 — 升学路径的窗口期, 孩子真实状态的识别, 配偶分歧的处理.

KEY 内置 6 个针对中国 30-50 高知最常卡死的决策类型的专项框架: 父母养老 / 子女教育 / 职业转型 / 婚姻 / 迁移 / 危机重启. 每个框架由领域研究 + 真实案例库 + 已知失败模式表 共同构成.

决策路由器在你 input 一句话时就自动识别框架. 高 confidence 直接走, 低 confidence 走 LLM 兜底分类器. 单一决策可能牵动多个框架 — 我们会同时展示主框架 + 次框架.

一般 AI 通常会这么说

"不论你问什么, 用同一套"列三个选项 + pros and cons"模板."

KEY 这么做

"识别到"父母养老" framework + 次框架"婚姻". 注入这一类决策的 12 个已知失败模式. 不会问你"你的目标是什么"这种空话."

方法论血缘

Gary Klein

《Sources of Power》(1998) — Naturalistic Decision Making

每个领域的 expert 都靠 domain-specific 模式识别, 不靠通用算法. 通用的决策模板是给"非 expert"看的, 不是给真正会做决定的人用的.

V.

长期记忆

Persistent Memory

它记得你三个月前说过, 你太太反对接父母同住.

是 KEY 跟所有其他 AI 的最大区别. ChatGPT 不记得你. Pi 不记得你. Claude 不记得你. Replika 假装记得你, 但只挑你爱听的回应.

我们记得. 你每次 Pulse 写的话, 每次决策时说出口的"我不能", 每个被你强调过 2 次以上的事实 — 都会被结构化进入你的 Brain. 5 层架构: 硬锚点 (永远成立的事实) / 事实卡 (具体信息) / 边界卡 (你明确说过的"不行") / 关系卡 (你跟谁怎样) / 事件卡 (重大时刻的原话).

三个月后, 你再做一个相关的决定时, 我们不会问你"你结婚多久了". 我们会说: "你 1 月 13 日 Pulse 提到过, 你太太当时明确反对. 这次的决策是否已经处理这件事?" 这一句话, 是我们跟通用 AI 的护城河.

一般 AI 通常会这么说

"每次重新解释你是谁. 你 30 分钟前说过的话, 它已经忘了."

KEY 这么做

"5 层记忆 + 自动生成的 Brain 文档 + 每次 prompt 自动注入相关历史 + Outcome 365 天追踪."

方法论血缘

这是 KEY 的独有创新

— 没有完全对应的学术血缘

但它呼应的是临床心理学早期的 person-centered 学派 (Carl Rogers): 真正帮人的开端, 是"被认真记住".

VI.

决策账本

Outcome Ledger

30 / 90 / 365 天后, 我们会回来问你: 当时担心的事, 发生了吗?

多数 AI 决策工具, 给完建议就消失了. 你做了决定, 三个月后忘了当时为什么这么决定, 半年后塌了你不知道为什么塌的, 一年后又遇到类似情况, 重复同样的错.

KEY 不一样. 每一份决策简报自动 schedule 三个 checkpoint — 30 天后, 90 天后, 365 天后. 那一天我们会找你 (邮件 / 微信通知), 问一个**具体的**问题: "你当时担心的 X, 现在 X 发生了吗? 你选了 A 路径, 5 年后的图景跟你预期一样吗? 你当时没提到的 Y, 现在变成什么样了?"

Annie Duke 在《Thinking in Bets》里强调: 决策质量 ≠ 结果. 你做了对的决定也可能塌, 做了错的决定也可能蒙对. 不回访, 你永远学不到东西. 我们用 Outcome Ledger 把这件事强制做了 — 不是 reminder, 是契约.

一般 AI 通常会这么说

"给完建议, 关闭对话, 永远不知道结果."

KEY 这么做

"Outcome Ledger 自动 schedule 30/90/365 天回访 + 经验沉淀回 Brain + 失败模式入下一份简报的"已知陷阱"."

方法论血缘

Annie Duke · Phil Tetlock

《Thinking in Bets》(2018) · 《Superforecasting》(2015)

超预测者 (top 2% 的预测准确度) 的核心特征不是更聪明, 而是定期校准自己 — 知道自己哪些时候对, 哪些时候错.

VII.

六项自审

Six-Check Inspector

AI 给完答案, 再过一道审查.

一条最反直觉. KEY 的每一次输出, 都会被另一个独立的 Inspector 模块再过一遍, 检查 6 件事.

C1: 是否真的引用了用户的具体事实, 还是抛抽象建议? C2: 是否给出空话 (像"建议你深入思考一下"这种)? C3: 是否量化了代价? C5: 是否埋了未声明的预设? C14: 是否违反了用户明确说过的硬锚点 (e.g. 用户说过"我老婆反对", AI 不应假设她同意)? C15: 是否 surface 了用户自己跨决策的矛盾?

任何一项命中, 当前 shadow mode 记日志 + 标 issue, V2 起会阻塞输出. 这是 Kahneman 在《Noise》里强调的"决策一致性审计"思想 — 任何严肃决策系统, 都需要二审机制.

一般 AI 通常会这么说

"一个 LLM 自说自话. 错了也没人查."

KEY 这么做

"一个 LLM 写 + 一个独立 Inspector 审 + 一份你能查的审计日志. 不依赖 LLM 自己注意到自己写错."

方法论血缘

Daniel Kahneman, Olivier Sibony, Cass Sunstein

《Noise: A Flaw in Human Judgment》(2021)

人 (和 LLM) 在同一个问题上, 不同时刻给出的答案差别极大. 减少 noise 的唯一方法, 是引入结构化的"二审".