当我们说“AI将改变一切时”,历史其实已经说过很多次了
AI发展的历史并非一帆风顺,而是充满狂热与寒冬的循环。从1956年达特茅斯会议的初次狂热,到专家系统的兴衰,再到深度学习的崛起,每一次技术浪潮都伴随着过度期待与现实边界的碰撞。本文将带你回顾AI的三次技术轮回,揭示那些被狂热掩盖的关键问题,以及如何在当前大模型热潮中保持清醒认知。

我有一个习惯。每次看到”AI 将改变一切”类似这样的新闻,我都会去翻一翻旧资料。
不是为了泼冷水,而是因为每次翻完,都会有一种很强烈的感觉:今天很多看起来无比新鲜的情绪,其实在过去已经反复出现过了。最让我在意的,不是那些预测后来有没有成真,而是它们在当时说出口时,往往都显得那么真诚、那么合理,真的特别像”这次真的不同”。
我并不想证明 AI 是泡沫,也不想简单得出”这次也会失败”的结论。我真正想说的是,AI 的历史从来不是一条不断胜利的直线,而更像一条反复盘旋的曲线:狂热、失望、沉默、重建,然后再次狂热。
理解这条曲线,可能比争论”这次到底会不会颠覆一切”更有用。
第一次狂热:人们曾经以为,一个夏天就能解决智能问题
AI 作为一个明确的研究方向,通常被追溯到 1956 年的达特茅斯会议。
那个时代的研究者有一种今天看起来近乎天真的乐观,相信只要一群足够聪明的人集中研究一段时间,机器模拟智能这件事就能取得重大突破。站在今天回头看,这种设想当然显得过于理想化;但放回当时的语境,它并不荒唐。计算机刚刚诞生不久,很多边界都还没有被真正摸到,技术每向前一步,都会让人对”机器到底能做到什么”产生更大的想象。
随后几年,感知机出现了,媒体的热情很快被点燃。很多报道把它描述成通往真正智能机器的第一步。今天看这些说法,很容易觉得夸张;但在当时,人们并不知道这条路会在哪里撞墙。
后来问题出现了。早期感知机在能力上有根本局限,尤其在处理更复杂的问题时明显受限。学术界的批评揭示了一个现实:当时的模型能力和外界赋予它的期待之间,差距远比人们想象得大。
资金减少,关注下降,研究氛围转淡。第一次 AI 寒冬就这样来了。
第二次狂热:既然机器不会学,那就把规则全写进去
第一次热潮退去之后,有人换了一个思路:既然让机器自己学会智能太难,那就把专家的知识直接写进去。
这就是后来被广泛讨论的专家系统路线。逻辑非常直观——如果医生之所以能诊断,是因为掌握了大量规则,那把这些规则输入计算机,机器不就能复现专家判断了吗?这个想法比”通用智能”更容易被企业接受,更容易被量化,更容易被管理层理解。
早期的一些系统确实展现出价值,尤其在结构化程度较高的场景里,表现相当不错。于是企业界和政策层面的热情再次被点燃。
但问题很快就来了。专家系统高度依赖人工编写和维护规则,而真实世界远比规则库复杂得多。规则越来越多,冲突越来越多,维护成本越来越高。在特定、封闭的环境里还好,一旦走进更开放的现实场景,就会不断遇到规则之外的情况。
它的上限,不是”规则写得够不够多”,而是”现实本身能不能被规则穷尽”。这个问题,没有人能解决。
第二次寒冬到来的方式比较无聊,不是某个重大失败,而是商业热情慢慢退去,项目回报不及预期,资金撤走,人也散了。
真正的工作,往往在没人看的时候发生
两次热潮都退去之后,有一批人还在做神经网络。
他们不是不知道这个方向不被主流看好,也不是不知道外部环境不友好。他们只是觉得,如果要让机器真正从数据中学东西,而不是靠人工穷举规则,这条路迟早还会回来。
问题只在于,当时很多基础条件都还不成熟。训练更深的网络需要更强的算力,效果更好的模型需要更多数据。很多在理论上成立的想法,在工程上就是跑不通。推进速度非常慢,慢到很难给外界制造兴奋感。
我有时候想,那段时间坚持下来需要一种什么样的心理状态。不是盲目的乐观,而是某种更深层的东西——对于”这条路是对的”的确信,即使所有外部信号都在说”你错了”。这种状态,我自己没有经历过,不太确定自己能不能做到。
但也正是在那段沉默期里,几个关键条件逐渐凑齐了:更适合并行计算的硬件开始普及,大规模数据开始积累,训练方法逐步改进。今天回头看,深度学习的崛起像是一个突然发生的转折,但如果把镜头拉近,更像是一场漫长铺垫后的集中兑现。
2012 年之后,为什么所有人突然觉得”这次不同”
2012 年,深度学习在图像识别任务上取得了一个让人明确感受到范式变化的进展。不是”略有提升”,而是差距大到让所有人都意识到:原来的路径可能真的要被替换了。
接下来的几年,AI 迅速从学术热点变成产业热点。技术从图像扩展到语音、推荐、搜索、翻译,再到后来的生成式模型。等到大语言模型和对话产品进入大众视野,”这次真的不一样了”重新成为主流语气。
客观说,这次确实有很多地方和过去不同。模型能力的普适性更强,用户规模更大,产业投入是全球性的系统性推进,而不是某个局部行业的短期试验。
但”这次不一样”并不自动意味着”这次没有问题”。
如果历史能给我们一点提醒,大概就是这个:每一轮技术浪潮真正危险的时刻,不是大家看不到价值,而是大家在看到真实价值之后,开始以为其余问题都会自然解决。
今天被反复讨论的问题,为什么不应该被轻易跳过
过去两轮热潮有一个共同规律:每次真正把行业拖入低谷的,不是”技术完全没用”,而是技术的边界被严重低估了。
今天的大模型也面临类似的情形。
它在大量任务上表现出惊人的流畅性,但一旦进入要求高准确性、高可追责性的场景,这种”不稳定的聪明”就会变得非常棘手。这不是一个边角问题,而是一个结构性问题,目前还没有被根本性地解决。
Agent 的落地难度也是类似的情形。演示环境里的自动执行极具冲击力,但真实业务环境里,错误会累积,隐性上下文会变得关键,很多在人类看来理所当然的判断,对系统而言并不显然。这种”demo 远比现实顺滑”的落差,在专家系统时代也出现过,尽管原因不完全相同。
除此之外,能耗、推理成本、商业模式的可持续性,这些也都是真实的约束,不是枝节。AI 服务的边际成本并不趋近于零,这意味着它的商业逻辑不可能完全照搬过去的互联网平台模式。
我不是说这些问题无解。我只是觉得,在今天的讨论里,它们经常被跳过,或者被”未来会解决”这句话轻易带过。
历史真正教给我的,不是悲观,而是校正节奏感
你不能因为过去有过两次寒冬,就得出”这次也一定会崩”的结论。同样,你也不能因为今天模型能力真的很强,就相信这条路会自动通向所有想象中的终点。
AI 的发展更像是螺旋式前进:一轮热潮提出一个强叙事,现实暴露出边界,热潮退去,留下来的人修正方向,然后下一轮再从更扎实的地基上继续往前走。
从这个角度看,寒冬并不只是失败,它也在做一件残酷但必要的事:把那些不成立的路径逐步淘汰掉。
今天的大模型如果未来遇到瓶颈,真正带来下一次突破的,未必是”把模型再放大一点”,而可能是一条现在还不够起眼的路线。就像深度学习之于专家系统,就像多层神经网络之于感知机。那条路现在在哪里,没有人知道。
对今天做产品和技术的人来说,我觉得这段历史至少有几个地方值得认真对待。
不要把 demo 的表现当成场景成立的证明——真正决定一个产品能不能留下来的,是它在具体场景里是否稳定、是否可控。不要把今天的领先当成终局已定——技术路线还远没有收敛,现在更像是快速展开期。还有一点,对那些”长期看起来没声音的东西”保留一点敬意。历史反复证明,真正改变下一阶段格局的,不一定是眼下最热的项目。
这三点听起来不激动人心,但我觉得它们比”AI 将改变一切”更有现实价值。
写到这里,窗外已经黑了。
我不知道今天这轮 AI 热潮最终会走向哪里,也不知道眼下这条路线的边界在哪里。但我大概能猜到,历史最终会留下什么:不是今天最响亮的那些判断,而是更扎实的东西——被真实场景筛选过的方法,对边界更清楚的认知,以及一批终于知道”机器能做什么、不能做什么”的人。
这些东西在热潮里未必最显眼,但它们往往会成为下一轮真正突破的土壤。
本文由 @睿气少女的小想法 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




