为什么 AI 还没好到能让我们交出判断权?

0 评论 67 浏览 0 收藏 13 分钟

本文主要受安妮杜克的《对赌》与丹尼尔卡尼曼《噪声》这两本书所研究的决策心理学的启发而写。

关于人的决策习惯和相关心理学的理论,如果需要澄清需要涉及非常详细严谨的表述,为了控制篇幅,本文对一些理论的表述并未展开介绍,如果对您的阅读造成影响,提前表示歉意。想进一步了解这些理论,欢迎您一起阅读作者原文并分享感想。

随着AI技术的飞速发展,许多人都期望着AI能“代替”人做出更好的决策,但在实际运用过程中,AI 在工作中却遇到了一些困境,是技术的不成熟,还是产品设计的欠缺。又或许本质上是因为技术尚未好到能克服人类心理上对“内部一致性”和“因果逻辑”的心理渴求。

在AI浪潮中,我们正处于一个奇特的悖论期:一方面,基于深度学习的 AI 在医疗诊断、金融博弈等领域的表现已然超越了人类专家的平均水平;另一方面,在真正的决策现场,人们对 AI 的建议却表现出一种近乎本能的排斥。

这种排斥并非简单的“技术恐惧”,而是一场深植于人类进化基因中的“自主权保卫战”。要理解这场博弈,让我们尝试从人类决策的底层逻辑开始。

一、进化的遗产——大脑不是为理性构造的

1.1 风险偏好的不对称性:从草丛窸窣说起

安妮·杜克在《对赌》中指出,人类大脑的进化目标是“生存”而非“真理”。在数万年的狩猎采集时代,如果我们的祖先听到草丛里有窸窣声,会有两种判断:

  • 伪阳性错误(False Positive):误以为那是猛兽,其实只是风声。代价是虚惊一场。
  • 伪阴性错误(False Negative):误以为那是风声,其实是猛兽。代价是丧命。

自然选择筛选掉了那些追求“绝对客观”的祖先,留下了我们这些对风险高度敏感、宁可信其有的人。这种进化残留导致我们在面对 AI 时,产生了一种极度不对称的错误容忍度:我们可以原谅一个医生的失误(因为那是“人的局限”),却无法容忍算法的偏差(因为那是“异类的逻辑”)。

1.2 系统 1 的统治:反射思维的诱惑

卡尼曼在《噪声》中延续了认知心理学的经典框架:

  • 系统 1(反射思维):自动、快速、直觉,源于大脑进化较早的部分。它帮助我们快速反应,但也让我们容易陷入情绪化和信念偏差。
  • 系统 2(审慎思维):缓慢、费力、逻辑化。它是人类独有的,但由于极度耗能,无法处理生活中的大部分决定。

AI 本质上是极端化的“系统 2”,它只讲概率,不讲故事。然而,人类的决策高度依赖系统 1 的“直觉感”。当我们排斥 AI 时,往往是因为 AI 给出的客观结论破坏了系统 1 为我们编织的“确定性幻觉”。我们喜欢那种“我知道自己在做什么”的笃定感,而 AI 却总是在提醒我们:“你只有 60% 的胜算。”

二、噪声的深渊——人类判断的隐形杀手

2.1 什么是噪声?为什么我们视而不见?

《噪声》一书的核心贡献在于区分了偏差(Bias)与噪声(Noise)。如果说偏差是“瞄准镜歪了”(系统性偏离),那么噪声就是“持枪的手在抖”(随机性离散)。 卡尼曼惊人地发现:在保险核保、法庭判决、绩效评估等领域,同等级别的专家对同一案例的判断差异高达 55% 以上。

然而,我们为什么意识不到噪声的存在?

  • 因果关系的渴望:人类思维是“因果驱动”的。我们习惯于为每一个结果找理由(偏差解释起来很容易),却很难理解随机性(噪声无法解释)。
  • 内部一致性奖励:当事实与判断匹配成一个逻辑自洽的故事时,大脑会产生奖励。这种“心理一致性”让我们感到安全。

AI 的统计思维可以有效的规避噪声对决策的影响,但同时也剥夺了人在决策时的这种快感——它给了你一个准确的概率,却没给你一个动人的理由。

2.2 信念的随意性:先入为主的下注

安妮·杜克认为,人是以一种极其随意的方式形成信念的。我们通常是先听到了一个说法,然后产生信念,最后才去寻找证据支撑它。 在这种背景下,AI 的介入往往扮演了“扫兴者”的角色。它利用客观权重削弱了我们主观偏爱的证据。

虽然研究证实通过算法决策能有效的避免噪声从而提升决策的准确率,但是由于大部分判断属于对未来的“预测性判断”,而再优秀的算法或AI也无法“预知未来”,这决定了准确率的提升十分有限。在这种情况下,当 AI 告诉一个专业人士他看好的项目只有 30% 成功率时,人们感到的不是得到了帮助,而是自己的“专业直觉”受到了羞辱。

三、心理学层面的排斥——AI 触碰了哪些红线?

3.1 被剥夺的“下注感”与责任逃避

在《对赌》中,决策被定义为一种“对未来的下注”。下注意味着你必须对结果负责。当 AI 直接给出结论(例如:建议录用候选人 A)时,人类决策者的角色从“下注者”变成了“执行者”。这种角色的转换会产生两种负面心理:

  • 自我效能感缺失:如果成功了,那是算法准;如果失败了,我是替罪羊。
  • 责任感稀释:由于决策过程不是由我主导的,我会产生疏离感,进而停止对决策质量的复盘。

我们习惯于将好的结果归功于自己的判断,而将坏的结果归结为运气。如果决策权交给了 AI,这种自我激励的闭环就被打破了。正如前文中提到的,只有当 AI 的准确率高到近乎真理且逻辑透明时,人类才愿意交出指挥棒。但在那之前,任何的随机错误,都会在人的认知中被放大为对 AI 全盘的否定。

四、重塑分工——从“决策代理”到“决策卫生”

基于上述心理机制,AI 最合理的定位不应是“决策代理人”,而应是“信息增强器”和“决策卫生守护员”。

4.1 引入“决策卫生”体系

卡尼曼在《噪声》中提出了“决策卫生”的概念和建议的方法(客观独立的评估信息,主观感性的下决策),这也许也可以给我们一些启发——我们不应让 AI 直接给出最终判决,而应让它执行“决策卫生”:

  • 线索独立化:让 AI 负责提取关键事实,屏蔽掉那些可能引起偏差的信息(如外貌、天气、当下的情绪等噪声源)。
  • 换位思考的外部视角:AI 强于提供类似案例的统计分布。它告诉决策者:“在你这类决定中,平均成功率是 X%。”这能有效抑制人的“内部视角”偏见和过度自信。

从心理学家们发现决策中的“噪声”开始,就尝试着完全通过规则或算法来代替人的主观判断,然而这些尝试大都失败了,原因正式前文中提到的一些人的心理需求导致。

于是卡尼曼结合人的心理需求,建立了一种理想的实验型决策方式:通过标准的规则独立客观的给每一个独立的信息做出评估,最终汇总评估后的信息交给决策人通过主观判断给出最终决策。通过这种方式,最大程度在满足人的心理需求的情况下,尽量帮助决策者给出更准确客观的判断。

4.2 建立“尤利西斯合约”

尤利西斯(奥德修斯的古罗马名字)合约:奥德修斯为了避免被海妖的歌声迷惑,提前让水手们绑住自己。

我们可以利用 AI 建立一种“预先承诺”机制——预先和自己约定一个约束自己的“合约”,当我们想要违背合约、摆脱约束力时,它至少可以帮助我们停下来想一想。AI 可以扮演这个“强制约束”的角色:

  • 决策中断:当 AI 监测到决策者的判断严重偏离历史逻辑或设定规则时,强制触发一个“冷静期”。
  • 脏话罐模式:AI 不需要剥夺你的决定权,但它可以实时提醒你:“你目前的判断可能正受到某种信念偏差的影响。”这种干预足以触发系统 2 的审慎思维,减少条件反射式的决策。

4.3 极致的情景规划

AI 的最强形态应当是“模拟器”。它不应该告诉你“选 A”,而应该告诉你:“如果你选 A,未来可能会出现 5 种场景,每种场景的概率分布如下。” 这种方式保留了决策者的“最终下注权”。正如安妮·杜克建议的,优秀的决策者应先弄清楚可能性再进行尝试。AI 负责把未来的“沙盘”推演清楚,人类负责根据自身的价值观按下那个决定性的按钮。

结语:在确定性的幻觉中保持清醒

AI 在工作中的推广困境,本质上是一场关于“认知的傲慢”与“算法的偏见”的碰撞。我们必须承认,在可预见的未来,人类依然需要那份“这是我的决定”带来的存在感。

判断的目的在于准确性,而非个性化表达;但《对赌》也提醒我们,决策的本质是对不确定的未来进行负责任的搏杀。

最有效的人机协作路径应当是:让机器去处理那些枯燥、多变、充满噪声的信息加工;让人类去承担那些沉重、敏感、充满价值取舍的最终博弈。 让 AI 帮我们看清概率,但由我们自己按下下注的快门。这不仅是对技术的务实应用,更是对人类决策尊严的必要保留。

参考文献与出处说明:

安妮·杜克 (Annie Duke), 《对赌:信息不足时如何做出高明决策》(Thinking in Bets)

丹尼尔·卡尼曼 (Daniel Kahneman), 《噪声》(Noise: A Flaw in Human Judgment)

本文由 @骑着猪跑 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!