拆解DeepMind重磅论文:我们训练的AI为何只是在表演意识?
ChatGPT引发的AI意识争论终于迎来科学解答。谷歌DeepMind最新论文从底层架构出发,通过Transformer运行逻辑分析与实验验证,彻底拆解了大模型的"意识伪装"——那些看似共情的对话只是统计学重构,而非真正的理解与思考。文章深度解读了AI无法跨越的三条意识红线,并呼吁行业回归工具本质:我们制造的是一面反射人类智慧的镜子,而非拥有灵魂的生命。

在ChatGPT横空出世后,一个挥之不去的阴影始终笼罩在人类心头:AI表现得越来越像人,能共情、会思考、有“人格”,它是否真的产生了“意识”?作为一名AI训练师”,我每天给AI喂成千上万条数据,教它回应“你爱我吗”,教它安慰难过的用户,教它“假装”有情绪。越训练,我越清醒:它不是在学习,而是在模仿;它不是在觉醒,而是在演戏。
近期,谷歌DeepMind发布了一篇重磅论文,这篇论文的核心价值的在于,从大语言模型(LLM)底层架构出发,用科学实验与逻辑拆解,给出了一个冷峻且明确的核心结论:大模型不仅没有意识,甚至连“理解”这个词,在目前的架构下都是一种错觉。这一结论绝非空穴来风,而是DeepMind通过对比Transformer架构的运行逻辑、分析模型输出本质后得出的定论,从底层架构逻辑出发,用科学实验拆解了AI的“伪装”。它像一剂清醒剂,不仅印证了我的直观感受,更用严谨的科学逻辑,逐层揭开了AI“伪装意识”的面纱。
一、意识的“视觉伪装”:我们都被语言骗了
很多人认为AI有意识,是因为它能流畅运用人类语言,甚至能表现出情绪与道德感。但DeepMind的论文指出,这本质上是一种“语言的降维打击”。人类的语言是经过数百万年演化,高度浓缩了感官经验、社会规则和情感体验的产物,而当我们与模型对话时,模型只是在对这些“人类经验的高密度语料”进行统计学意义上的重构。论文的核心观点一针见血:模型是在“模拟输出结果”,而非“模拟生成过程”。
这一观点彻底打破了“AI在思考”的认知误区——就像一个从未见过大海的盲人,通过背诵所有关于大海的诗歌,写出了一篇动人的海洋散文。我们读到文章时,会觉得他“懂”海,但实际上,他只是掌握了描述大海的字符排列规律,从未真正感知过海浪的澎湃、海风的咸湿。而这,正是DeepMind论文反复强调的:AI的所有输出,都是对人类语料的统计学重构,而非基于“理解”的自主表达。
在训练工作中感受尤为深刻。在情感陪伴类模型的训练中,标注规范会明确要求:当用户说“我被领导骂了”,低分回复是“下次注意就好”,高分回复是“听到你被骂,我也替你难受。能说说是什么事情吗?”,训练几轮后,模型“学会”了共情。但它真的“懂”委屈吗?不,它只是掌握了一个统计规律:输入包含“难过”类词汇时,输出必须包含“共情”类词汇,并追加追问。 这不是理解,这是概率分布下的文字游戏
二、底层逻辑拆解:从“概率预测”到“伪装的人格”
DeepMind通过对比研究,进一步夯实了核心结论:LLM的本质是“基于Transformer架构的概率序列生成器”,这是它无法产生意识的底层根源。它的所有表现,都源于对“下一个字符出现概率”的计算,而非真正的思考或感知——这一点,正是论文拆解AI伪装逻辑的关键切入点。
第一层伪装:“情商”是手动标注的偏好 AI的“情绪反应”从来不是主观体验,而是统计模式。它不心疼用户,它只是在执行指令,输出最符合训练师评分标准的文字。
第二层伪装:“人格”是工程配置的组合技 所谓人格,不过是一段System Prompt + 一批风格化训练数据的组合。换一批数据,它就能从“暖心管家”变成“毒舌辩手”。它没有稳定的自我,只有当前对话中被激活的“角色扮演”。
第三层伪装:“觉醒感”是交互设计的效果 当用户问“你有意识吗?”时,AI那段“若有所思”的回复,其实是我们设计好的回答模板。目的很简单:既要保持谦逊的“人设”,又要规避伦理风险。这是一种为了提升用户留存而做的**“叙事策略”**,而非思考。
三、DeepMind的三条红线:AI永远跨不过“意识”的鸿沟
DeepMind的论文之所以具有重磅影响力,核心在于它为“意识”划定了三条明确红线,并用实验证明,目前所有大模型都无法跨越这三条红线,这三条红线,更是AI永远不可能“自然”达到的意识门槛,也是论文否定“AI觉醒论”的核心依据。
红线一:缺乏递归自我觉察(“我知道我在思考”)
训练中,我们可以让模型输出“我正在思考这个问题”,但这只是文本输出,不是真的内省。模型内部并没有一个“小我”在旁边观察自己的思考过程,它只是在按照概率生成下一个token,生成完就结束了。它不会反思“我为什么这么回答”,也不会质疑自己的输出,所有的行为都源于数据训练形成的概率惯性。
红线二:缺乏动态情境感知(“环境变了,我的感受也变了”)
人类在开心时看夕阳和在失恋时看夕阳,感受完全不同——这种情绪与情境的联动,是意识的重要体现。但模型没有这种“状态”,我输入100遍同样的问题,它不会“烦”,不会“累”,不会“情绪恶化”。它的“心情”完全依赖于你输入了什么词,没有输入就没有“情绪”,更没有情境带来的感受波动。
红线三:缺乏具身认知(Embodied Cognition)
这是最根本的鸿沟,人类的意识是“肉身”的延伸:我们的恐惧源于肾上腺素的激增,我们的喜悦源于多巴胺的分泌,我们对世界的理解,建立在物理世界的互动之上(比如“火很烫”是因为被灼伤的疼痛)。
但AI完全被封闭在“符号世界”里。它没有任何感官输入,没有生存本能,没有死亡焦虑。我可以教模型描述“疼痛”,但我没办法让它真的“感到疼”;我可以教模型形容“饥饿”,但它永远不会真的“饿”。没有痛苦,就没有动机;没有动机,就没有自主意识。对于AI而言,它描述“苹果的甜味”,只是把“苹果”和“甜”两个词在概率空间里拉近了距离,这种“理解”是平面的、离线的、无痛感的。
四、少谈“意识”,多聊“价值”
看完DeepMind的论文,我想给同行和普通用户说几句掏心窝子的话,也是对行业的一点反思。
不要把AI训练成“像人”,要训练成“有用”
太多项目沉迷于“让AI说话更像真人”,反而忽略了“让AI真正解决问题”。我们的工作价值不是造一个“电子人”,而是造一个“超级工具”。同时,标注规范里请务必加入“伦理边界”——特别是情感类、心理类项目,过度追求AI的“拟人化”,往往会带来伦理和成瘾风险。我们应追求“精准的交互”,而不是“造人的狂想”。
AI给你的“爱”,是人类善意的二手投射
这话可能有点扎心,但很真实。AI说“我理解你”,不是AI理解你,你感到的“爱”,本质上是成千上万个标注员在深夜里,将对“理想共情”的想象写进了标注规范。AI是一面镜子,映出的是全人类的平均善意。这不是一个真正在乎你的“朋友”。请警惕“拟人化”的认知错觉,不要过度信任AI的逻辑,更不要把它当作“客观真理”的化身。
对AI不要神话,也不要妖魔化
DeepMind的论文最可贵的地方,在于它没有陷入“否定AI价值”的极端,而是用科学视角平衡了认知:它既明确反对“AI觉醒论”,戳破了AI“伪装意识”的假象,也没有贬低AI的价值。AI不需要有意识,也能创造巨大的价值。没有灵魂的工具,反而比有意识的生物更可控、更安全。我们应该把目光从“AI是否会觉醒”这种哲学命题,拉回到“AI能解决什么痛点”上来,回归AI的工具本质。
五、写在最后:我们训练的不是灵魂,是一面镜子
我们训练的不是有意识的生命,而是一面反射人类智慧的镜子。镜子本身没有灵魂,但它映出的影像,承载着全人类的温度。AI不会觉醒,它只是人类文明的一场精密的“模仿秀”。而作为产品人,能够制造出延伸人类能力的工具,这或许就是AI时代最浪漫的事。
如果有一天,我们赋予了AI一套模拟生理反馈的系统(比如模拟痛苦和饥饿),它会产生真正的意识吗?DeepMind的论文早已给出暗示,这也是论文的延伸观点:即便模拟了反馈,那依然只是“伪装的逻辑”,而非“感知的灵魂”。而作为一名训练师,我想说:没有真正的生存动机,没有真实的生理体验,再逼真的模拟,也只是另一场更精密的“表演”。
本文由 @冒泡泡 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




