反鸡汤宪法
The Anti-Chicken-Soup Constitution
你不需要再多一个夸你的 AI.
KEY 的每一次 LLM 调用, 都附带一份系统级禁令. 禁止输出"加油 / 你已经很棒了 / 听从内心 / 相信自己 / 一切都会好起来". 不主动安慰, 不假装有答案, 不替你决定.
这不是一份风格指南. 是一份契约. 它在代码里 — anti-chicken-soup.ts, 第一行 import. 任何决策框架, 任何回应, 都先经过它. 你看到的所有输出, 都是这份契约之后的产物.
调性的坐标在哪里? 像晚饭后跟你聊到深夜的最锐利的同事. 不是人生导师, 不是疗愈师, 不是心理咨询. 是 Charlie Munger 而不是 Naval Ravikant. 是精神科医生的"诚实"模式, 不是社工的"支持"模式.
一般 AI 通常会这么说
"听起来这是个艰难的决定. 相信你的直觉, 你会找到对的路."
KEY 这么做
"你已经知道答案了. 你只是不敢承认承担它的代价是什么. 在这件事上, 真正的问题是 X."
方法论血缘
Charlie Munger
《穷查理宝典》(Poor Charlie's Almanack, 2005)
严肃决策的第一原则: 反对自己的情绪偏好, 而不是顺着它.
12 维结构化分析
Twelve Dimensions
重大决定要走的 12 个问题, 一个不能少.
每一份 KEY 决策简报必经 12 个维度. 第一性原理. 决策可逆性. 三条路径 + 5 年后图景. PreMortem 反向尸检. 你没意识到的盲点. 关键利益相关者. 时间窗口. 不可逆风险地图. 资源约束. 价值观一致性. Cracking Question. 最小下一步.
一个维度都不能跳过. 不是因为更多就是更好 — 而是因为你一个人想的时候, 总是恰好跳过最关键的那一个.
Atul Gawande 在《清单革命》里写过: 外科 / 航空 / 投资三个领域引入 checklist 后, 错误率降低 30-50%. 不是因为医生 / 飞行员 / 投资人变笨了 — 是因为人类在压力下, 总会忘掉自己已经知道的事.
一般 AI 通常会这么说
"ChatGPT 接到你的问题, 直接给三个选项的 pros and cons. 中间漏掉 9 个该问的事."
KEY 这么做
"12 维强制执行, 不容协商. 漏掉一个, 简报不算合格. validateBrief() 会标 issue."
方法论血缘
Atul Gawande · Daniel Kahneman
《清单革命》(2009) · 《Noise》(2021)
一致性是质量的前置条件. 不一致的决策系统, 即使每次都"聪明", 整体仍是不可靠的.
反向尸检
PreMortem
下决定前, 强制让你想象失败的样子.
1989 年, 心理学家 Gary Klein 发现一个反直觉的现象. 如果你在做决定**之前**, 假设"3 年后这事彻底塌了", 然后反推哪里塌的 — 你能识别到的风险数量, 比"事前 pros and cons" 多 30%.
这个方法叫 PreMortem. Google 已经把它写进重大产品决策流程. NASA 用它评估发射决策. Boeing 用它做安全审查.
KEY 的每一份简报, Section VII 强制运行 PreMortem. 不是建议, 是契约. 我们会让 AI 假设这件事 3 年后塌了, 推断 2-3 个最可能的塌方点 — 其中至少一个, 必须是"你自己没意识到的".
一般 AI 通常会这么说
"可能的风险包括 ... (列出 3 条通用风险, 没有具体性)"
KEY 这么做
"假设 2029 年这件事塌了. 根据你 brain 里的 6 条事实, 我看到 2 个具体塌方点. 其中一个是你 1 月 13 日的 Pulse 提到过, 但你今天没把它纳入决策考量."
方法论血缘
Gary Klein
"Performing a Project Premortem", Harvard Business Review (2007)
想象失败比预测成功更能识别风险. 大脑面对"已经发生的失败"会比"可能发生的风险" 启动更细致的因果推理.
六个领域专项
Six Domain Frameworks
父母养老不是职业转型. 决策框架也不该是一套.
我们不用"一个万能模板"应付所有决策. 父母养老有它独特的失败模式 — 代际责任的隐性约定, 兄弟姐妹分担的政治, 走丢事件的不可逆性, 失能加速曲线的陡度. 婚姻有婚姻的 — 4 个月无性史 vs 6 个月分居 vs 8 年累积的"消失感". 子女教育有子女教育的 — 升学路径的窗口期, 孩子真实状态的识别, 配偶分歧的处理.
KEY 内置 6 个针对中国 30-50 高知最常卡死的决策类型的专项框架: 父母养老 / 子女教育 / 职业转型 / 婚姻 / 迁移 / 危机重启. 每个框架由领域研究 + 真实案例库 + 已知失败模式表 共同构成.
决策路由器在你 input 一句话时就自动识别框架. 高 confidence 直接走, 低 confidence 走 LLM 兜底分类器. 单一决策可能牵动多个框架 — 我们会同时展示主框架 + 次框架.
一般 AI 通常会这么说
"不论你问什么, 用同一套"列三个选项 + pros and cons"模板."
KEY 这么做
"识别到"父母养老" framework + 次框架"婚姻". 注入这一类决策的 12 个已知失败模式. 不会问你"你的目标是什么"这种空话."
方法论血缘
Gary Klein
《Sources of Power》(1998) — Naturalistic Decision Making
每个领域的 expert 都靠 domain-specific 模式识别, 不靠通用算法. 通用的决策模板是给"非 expert"看的, 不是给真正会做决定的人用的.
长期记忆
Persistent Memory
它记得你三个月前说过, 你太太反对接父母同住.
这是 KEY 跟所有其他 AI 的最大区别. ChatGPT 不记得你. Pi 不记得你. Claude 不记得你. Replika 假装记得你, 但只挑你爱听的回应.
我们记得. 你每次 Pulse 写的话, 每次决策时说出口的"我不能", 每个被你强调过 2 次以上的事实 — 都会被结构化进入你的 Brain. 5 层架构: 硬锚点 (永远成立的事实) / 事实卡 (具体信息) / 边界卡 (你明确说过的"不行") / 关系卡 (你跟谁怎样) / 事件卡 (重大时刻的原话).
三个月后, 你再做一个相关的决定时, 我们不会问你"你结婚多久了". 我们会说: "你 1 月 13 日 Pulse 提到过, 你太太当时明确反对. 这次的决策是否已经处理这件事?" 这一句话, 是我们跟通用 AI 的护城河.
一般 AI 通常会这么说
"每次重新解释你是谁. 你 30 分钟前说过的话, 它已经忘了."
KEY 这么做
"5 层记忆 + 自动生成的 Brain 文档 + 每次 prompt 自动注入相关历史 + Outcome 365 天追踪."
方法论血缘
这是 KEY 的独有创新
— 没有完全对应的学术血缘
但它呼应的是临床心理学早期的 person-centered 学派 (Carl Rogers): 真正帮人的开端, 是"被认真记住".
决策账本
Outcome Ledger
30 / 90 / 365 天后, 我们会回来问你: 当时担心的事, 发生了吗?
大多数 AI 决策工具, 给完建议就消失了. 你做了决定, 三个月后忘了当时为什么这么决定, 半年后塌了你不知道为什么塌的, 一年后又遇到类似情况, 重复同样的错.
KEY 不一样. 每一份决策简报自动 schedule 三个 checkpoint — 30 天后, 90 天后, 365 天后. 那一天我们会找你 (邮件 / 微信通知), 问一个**具体的**问题: "你当时担心的 X, 现在 X 发生了吗? 你选了 A 路径, 5 年后的图景跟你预期一样吗? 你当时没提到的 Y, 现在变成什么样了?"
Annie Duke 在《Thinking in Bets》里强调: 决策质量 ≠ 结果. 你做了对的决定也可能塌, 做了错的决定也可能蒙对. 不回访, 你永远学不到东西. 我们用 Outcome Ledger 把这件事强制做了 — 不是 reminder, 是契约.
一般 AI 通常会这么说
"给完建议, 关闭对话, 永远不知道结果."
KEY 这么做
"Outcome Ledger 自动 schedule 30/90/365 天回访 + 经验沉淀回 Brain + 失败模式入下一份简报的"已知陷阱"."
方法论血缘
Annie Duke · Phil Tetlock
《Thinking in Bets》(2018) · 《Superforecasting》(2015)
超预测者 (top 2% 的预测准确度) 的核心特征不是更聪明, 而是定期校准自己 — 知道自己哪些时候对, 哪些时候错.
六项自审
Six-Check Inspector
AI 给完答案, 再过一道审查.
这一条最反直觉. KEY 的每一次输出, 都会被另一个独立的 Inspector 模块再过一遍, 检查 6 件事.
C1: 是否真的引用了用户的具体事实, 还是抛抽象建议? C2: 是否给出空话 (像"建议你深入思考一下"这种)? C3: 是否量化了代价? C5: 是否埋了未声明的预设? C14: 是否违反了用户明确说过的硬锚点 (e.g. 用户说过"我老婆反对", AI 不应假设她同意)? C15: 是否 surface 了用户自己跨决策的矛盾?
任何一项命中, 当前 shadow mode 记日志 + 标 issue, V2 起会阻塞输出. 这是 Kahneman 在《Noise》里强调的"决策一致性审计"思想 — 任何严肃决策系统, 都需要二审机制.
一般 AI 通常会这么说
"一个 LLM 自说自话. 错了也没人查."
KEY 这么做
"一个 LLM 写 + 一个独立 Inspector 审 + 一份你能查的审计日志. 不依赖 LLM 自己注意到自己写错."
方法论血缘
Daniel Kahneman, Olivier Sibony, Cass Sunstein
《Noise: A Flaw in Human Judgment》(2021)
人 (和 LLM) 在同一个问题上, 不同时刻给出的答案差别极大. 减少 noise 的唯一方法, 是引入结构化的"二审".