入口在进化,谁在退化?—— 写在AI成为新世界入口之前
当AI开始成为家庭争论的最终裁判,当算法推荐比我们更懂自己的喜好,人类是否正在放弃思考的主动权?从流畅性理论到伪造判例的法庭丑闻,本文深度剖析AI如何通过完美结构化的回答驯化人类认知,并警示我们:工具依赖背后潜藏着一场关于思考能力退化的危机。

一种情形
当身为父母的你和小朋友“争论”一个问题的时候
当身为子女的你和父母“理论”一个问题的时候
突然多了一种答案:我问过豆包了,豆包就是这么说的
另一种情形
当你想审视自己观点,把自己的想法输入给AI的时候
不出意外的话,AI会寻找各种角度附和你,因为它被设计如此
所以,你说“我查过AI了,AI就是这么说的”。而且你是真的相信,因为它不仅给出结论,而且有推论过程,甚至例证。即便你可能从没有听说过它举出来的例证,但是你很快会告诉自己,你知道的肯定没有AI知道的多。
以至于,当你要很认真地准备一个重要的(如涉及商业决策、关乎人生选择)promot 的时候,你会写下这样的内容:你必须正面、严格的、审慎地回答我的问题,而不是迎合我
2008年上映的皮克斯电影《机器人总动员》里,人类的退化虽然不是电影的重点,但似乎也“真实”地预言了在机器人自主工作(AI)的时代,人类的生活处境或许就是这个样子。而最近两年AI的发展,似乎正带着我们一步步走向那个句点。

我们在停止思考吗?
我可能需要三步来解释一下这个问题?
第一步,黑盒讲黑话
我们和AI(生成式语言模型)的“对话”,看起来是AI在理解我们得问题,然后再输出。但事实上,从AI的系统性逻辑来说,它本质上是概率模型,它回答得内容基于经过计算之后,预测最相关得内容,即”每一个词之后下一个最可能出现的词”,而非我们认为和理解的”事实”。
它并非为说真话而设计,而是为了预测序列中的下一个词。
也就是说,它们的回答经过训练听起来令人信服,但未必准确。
因此,当模型面对非常具体、鲜见或需要最新数据的问题时,更倾向于用虚构内容填补空白。对毫无防备的用户而言,事实与幻觉的界限可能难以辨别。AI并非故意说谎,只是像即兴讲述那样,如同惯性一般地填补空白。
第二步,如何让我们为黑话“买单”
认知心理学中有个流畅性理论(fluency theory),指个体对信息加工难易程度的主观体验,主要包含知觉流畅性、概念流畅性与提取流畅性三种类型。该理论认为刺激的字体清晰度、颜色对比度等物理属性形成的知觉流畅性,会影响个体对命题真实性、类别归属的判断决策,高流畅性倾向触发启发式认知(接受)策略,低流畅性则激活分析性(辨别)策略。
简单来说,知觉流畅性不仅直接作为决策依据,还可通过改变线索表征间接影响行为。
我不确定AI大模型的底层设定里是不是“植入”流畅性理论,但是它被投喂的“优秀”的语料里肯定有很大一部分是按照这个理论的指导下“创造”的内容(因为它符合我们对理论的接收)。所以,AI理所当然地按照这个理论来组织信息和编排内容,而且在必要时进行一定量的“创作”。
当信息 以流畅、结构化的方式 呈现时,人类大脑会本能地降低批判性审查的阈值——称之为”流畅性启发式”。AI利用这一认知“漏洞”,通过 结构严谨、语法完美、例证丰富,共同组织成可信服的内容。
有媒体报道,2025年在英国高等法院审理的一个价值1.2 亿美金标的金融诉讼案中,原告律师向法庭提交的材料中引用 18 个判例,经审定均为 AI 伪造。而更离谱的是还包括了本案主审法官名字,并虚构其在 2020 年判决。
当然,我并不确定这条新闻是不是出自同样的理论。
第三步,什么在等待我们
我们正在一步步走进一个逻辑的悖论之中(或许已经身在其中):我们制造了更有智慧(“智能”)的工具,然后我们自己却正在逐渐放弃思考(“智能”)的主动权。当算法推荐越来越比我们自己更”懂”我们的喜好,当AI(工具)在几秒内生成一篇结构完整、逻辑闭环的论文,将文字转化为惊艳的图片、视频,机械性的接收不断“确认”认知的惰性,在“流畅性”和“愉悦感”的作用下,认知的“麻痹”正在悄然蔓延——我们倾向于将AI的输出无脑接受(不加分辨,视为真理),为算法的推荐默默点赞(无需选择,默认理解),赞美计算(模型)的效率(放弃思考,照抄答案)。
听起来好像很远,很抽象。
我举个简单的例子,
- 第一个问题:在没有GPS之前,在线地图和导航软件没有普及之前,大家是怎么开车的?
- 第二个问题:如果突然GPS、地图、导航突然都不可用,大家会怎么开车?
有了工具,车里也不需要放着纸质地图,开车不再关注路线,不再需要记路标和到底是再哪一个路口转弯,或者再哪一个岔口上高架、下高架。时间一长,你对城市的空间认知就退化了。
工具的作用是相似的。
手机和电脑的使用,不再依赖手写来进行文字的输入,我们写字的能力已经退还了。
而这可能还只是最“表面”的影响
更为严重的是,这些对工具依赖的一个大的心理前提是,我们对工具的信任,以及由信任带来的另外一个问题,这种信任会被利用,也就是说,如果AI“背叛”了人类,或者说有人利用“AI”来作恶,就像有人篡改了在线地图和导航信息,把高速公路的终点指向了“大海”,我们还有没有能力踩下刹车?
本文由 @大侠 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




