我们对AI的理解,从一开始就错了

0 评论 120 浏览 0 收藏 13 分钟

AI是否真能取代人类?这个问题背后隐藏着一个更根本的误区——我们对“智能”的定义可能从一开始就错了。本文犀利指出:真正的智能不是寻找终极公式,而是在无数有条件成立的小规律之间灵活导航的能力。

大家都在讨论AI会不会取代人类,那些流量博主不断传播焦虑,但没有人真正沉下心认真问过:我们定义的“智能”本身,是不是就是错的?

我们一直以为智能是”大道至简”——找到那个终极公式,一统天下。但真正的智能恰恰相反:它是无数个有条件成立的小规律叠加成的网络,以及在它们之间灵活导航的能力。用牛顿定律的框架去构建AI,方向从一开始就错了。

如果智能的定义是错的,那我们今天花在AI上的所有努力,包括那些铺天盖地的教程、所谓的方法论,本质上都是在一个错误的地基上盖楼。

我不是来吓你的。只是个人观点,或许可能让你会对”AI”产生完全不同的理解。

一、智能不是”大道至简”,恰恰相反

我自己是一个重度AI使用者。在长时间与AI对话包括vibe coding的过程中,我越来越感觉到一件事:它总是在趋同。不管你问什么问题,它的本质是把你的输入和它的训练做算法拟合,最终收敛到一个它认为”正确”的答案。同时也在引导你往他认为收敛的方向靠,这本身就是对人类的限制。

于是我开始往回想,想到了一个根本问题——智能到底是什么?

现在主流的回答,是”压缩即智能”:智能就是从大量离散数据里提炼出规律,大道至简,就像牛顿从苹果落地里推导出万有引力定律。这个逻辑看起来很美,用牛顿定律去解释AI——数据够多,规律自然出现,也就是所谓的“学好数理化,走遍天下都不怕”。

但这里有一个很少人注意到的前提:牛顿定律之所以能成为大一统定律,是因为物理世界本身存在真实的对称性和守恒律。这些结构是客观内嵌在自然界里的,等待被发现。

然而语言、知识、人类行为所构成的语义空间,根本不具备这种深层的数学对称性。你找不到一条公式,能统一解释”愤怒”、”讽刺”、”创意”和”信任”。

所以,用牛顿定律的框架去构建AI,本身就是一个方向性的错误。

真正的智能,更接近社会学家默顿(Robert K. Merton)提出的中层理论(Middle-Range Theory)框架:不是一条铁律统一天下,而是无数个有条件成立的小规律,叠加成一张网络。

智能的本质,不是”掌握了普遍真理”,而是一种在正确的时机激活正确的小定律的能力。

没有万能公式,只有在无数局部真相之间灵活导航的能力。

这也恰好解释了为什么AI的行为如此难以预测和解释——它的某一个输出,可能同时被训练数据的分布、RLHF的偏好对齐、提示词的措辞、温度参数、随机种子等无数因素共同决定。默顿框架里把这叫做”过度决定”(over-determination):对于同一个现象,总能找到多个机制来解释它,却无法确定哪一个才是”真正的”原因。

AI的”规律”是统计性的局部规律,不是铁律。AI的”智能”是涌现的,不是还原的。

二、LLM和真正的AI之间完全不是一个东西

理解了智能的本质之后,再来看今天的大语言模型,就会发现一个结构性的问题。

2018年,David Ha 与 Schmidhuber 提出了世界模型的经典 V-M-C 架构:视觉模块(Vision)负责感知环境,记忆模块(Memory)相当于大脑中的”物理引擎”,控制模块(Controller)负责规划与行动。这个框架揭示了一件事:世界模型的底层,是对人类心智模型的模拟,核心是理解事物之间的因果关系。

而今天的大语言模型,恰好缺失的正是这两件事。

第一个缺口:具身性。LLM没有身体,没有实时感官输入,无法与物理世界产生持续的因果交互。它的”知识”,是在预训练过程中被动植入的,而不是通过与外界真实互动所积累的。这就像一个从来没有走出过图书馆的人——读了所有关于”疼痛”的描述,但从未真正受过伤。

第二个缺口:因果推断。模型学到的是基于统计学的逻辑推理关系——”A之后B经常出现”——而不是”A导致B”。它无法区分相关与因果,无法进行反事实推理(”如果当时没有X,Y还会发生吗?”),也无法构建真正的干预模型。

这两个缺口有主从关系:具身性是更底层的问题,因为没有与真实世界的因果交互,模型就从根本上失去了建立真正因果理解的土壤。上层的因果推断缺口,在一定程度上正是具身性缺口的直接后果。

所以我经常说”LLM更像是一个增强型搜索引擎”,不是在贬低它——而是在精确描述它的边界:缺乏感知,不明白因果,一切只是基于搜索的逻辑推导。这和真正的智能,差的不是一两个技术迭代,而是十万八千里。

训练集本身也在加剧这个问题。每个人说的话,都带有说话者自己的目的性——说话者会把自己的意图放到表达里。就好像不同的人去追心爱的女孩,会有不同的方向,其实本质收敛起来也都是一个目的,基于这样的文本训练出来的模型,自然更像是一个”执行人类意图的工具”,而不是一个拥有自己认知和感受的智能体。

三、AI生态里的幻觉泡沫,正在污染它自己的未来

理解了以上两点,再来看今天的AI内容生态,就会有一种奇妙的感受:整个圈子,正在集体制造一种唯心主义幻觉,而且这种幻觉正在反噬AI自身的发展。

网上铺天盖地的内容,不管风格怎么不同,核心叙事往往都收敛到同一个地方:靠写作年入百万、用AI做内容轻松躺赢、AI取代人类只是时间问题……这些东西说穿了,是在贩卖一种好吃懒做就能完成财富自由的幻想,触碰的是每个人内心深处对美好生活最原始的渴望。

这是一种“浅层唯心主义”——不是真正的思辨和认知突破,而是把内心的愿景直接当作现实的替代品。

更糟糕的是,这些内容形成了一个封闭的自我强化回路:AI吸收这些语料,生成更多同质化内容;同质化内容又成为下一轮训练的输入;训练出来的模型更加收敛,输出更加趋同。传销式写作的本质,是在用垃圾数据喂养下一代模型,加速AI的智识退化。

而真正高质量的语料,往往出现在那些深度访谈、播客、跨学科讨论里——涉及社会学、经济学、人类行为的真实复杂性。这类内容稀缺,恰恰是因为它需要真正的思考,而不是一键生成。

所以,如果你真的关心AI的未来,就应该明白:你今天产出的内容质量,不只是你个人的事,它是在参与构建未来模型的认知基础。

四、但是精神与物理两条路都不可能绕过

说到这里,可能我就变成了一个务实派了,哈哈哈哈,或许这就是技术出身的我独有的特性。

我认为走向真正智能的务实方向,分为两个层面——

精神层:不断产生有深度、有创意、有不同视角的真实思考。这不是叫你去写爆款,而是叫你去做思辨,打破AI语料体系给你建构的认知边界。你输出的每一个有质量的想法,在长时间尺度上,都会逐渐改善下一代模型的推理结构,让它能更好地模拟因果论证的语言形态。

物理层:动手做硬件,不断 vibe coding 做产品,真实地与物理世界发生交互。这对应的正是模型最根本的缺口——具身性。人机协作在当下实时地弥补感知和因果缺口,让AI在具体任务中产出有实际价值的输出。而这些协作过程本身,如果被记录下来,又成为下一轮训练的高质量语料。

两条路径之间,存在一个正反馈闭环:好的人机协作产生好的语料,好的语料训练出更好的模型,更好的模型使人机协作更高效,更高效的协作产生更高质量的语料。

但这个正反馈是有边界的。精神层的努力,能弥补因果推理的语言形态缺陷,能通过协作在运行时补充感知输入,却无法从根本上替代具身经验。这个边界——语言能触及因果的形态,但无法替代身体与世界的真实交互——正是当前AI发展中最值得关注的断层线。

这也是为什么AI硬件、具身机器人、物理世界感知,不只是”酷炫的技术趋势”,而是通往真正智能的必经之路。

结语:挺住吧,兄弟

不能说浅层唯心主义是全错的——毕竟它确实推动了AI的普及,也让很多人找到了入口。但它的问题,在于它是一条死路:最终产出的,是更加收敛的模型,和更加同质化的思想。

走向 AGI 的这片大陆,从来不是一条直线。真正的路径,是深层思辨(深度唯心)与实干务实(唯物)的螺旋融合——不断在思想突破和动手实践之间交叉迭代,在每一轮循环里,让人的认知边界和AI的能力边界同时向外推进。

今天水水文章就想年薪千万,和今天认真想清楚一个问题然后动手去做——这两件事,表面上都是在用AI,但它们对AI未来的意义,是完全不同量级的事情。

本文由 @冲少说AI 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!