最新重磅访谈,从规模化时代到研究时代:Ilya Sutskever 对 AI 未来的深度思考

1 评论 1466 浏览 1 收藏 38 分钟

过去五年,AI 行业沉迷于规模化:更大的模型、更强的算力、更全的数据。然而,Ilya Sutskever 的最新观点提醒我们,真正的挑战在于泛化与鲁棒性。本文将带你走进这场思想转折,解析“研究时代”的核心逻辑与产业影响。

你有没有想过,AI 行业可能正在经历一次根本性的转折?过去几年,整个行业都在疯狂追逐”规模化”这个词,加更多数据、更大模型、更多算力,似乎这就是通往 AGI 的唯一道路。但最近,我看到 Ilya Sutskever 在一次深度访谈中提出了一个让我深思的观点:我们正在从”规模化时代”走向”研究时代”。这不是什么小调整,而是整个行业范式的转变。

Ilya Sutskever 是谁?他是 OpenAI 的联合创始人,也是深度学习历史上最重要的研究者之一,从 AlexNet 到 GPT-3,几乎每一个改变行业的突破背后都有他的身影。现在他创立了 Safe Superintelligence (SSI),一家专注于直接构建安全超级智能的公司。当这样一个人说行业正在发生根本性转变时,我觉得值得认真听一听他在说什么。

AI 模型的奇怪现象:为什么它们既聪明又愚蠢

Ilya 在访谈中提出了一个非常有意思的观察,这也是我最近一直困惑的问题:为什么现在的 AI 模型在评测基准上表现得如此出色,但在实际应用中却会犯一些极其低级的错误?他举了一个生动的例子,当你用 AI 写代码时,可能会遇到一个 bug。你告诉模型:”这里有个 bug,能帮我修复吗?”模型会说:”哦天哪,你说得对,我确实有个 bug,让我来修复。”然后它引入了第二个 bug。当你指出第二个 bug 时,它又会说:”哦不,我怎么能犯这种错误?你完全正对。”然后它又把第一个 bug 带了回来。你可以在这两个 bug 之间无限循环。

这种现象真的很诡异。一个在编程竞赛中能够超越人类的模型,怎么会在如此基本的调试任务上反复出错?Ilya 提出了两个可能的解释。第一个解释有点异想天开但很有趣:也许强化学习训练让模型变得过于单一专注和狭隘,即使它在某些方面变得更有意识,但在其他方面却变得更加无意识。正因为如此,它们无法完成一些基本的事情。

第二个解释更加技术性,也更令人担忧。在预训练时代,关于训练什么数据的问题很简单,答案就是”所有数据”。你需要所有能找到的数据,所以不需要思考是用这个数据还是那个数据。但当人们进行强化学习训练时,他们确实需要思考。他们会说:”好的,我们想要这种强化学习训练用于这个任务,那种强化学习训练用于那个任务。”据 Ilya 了解,所有公司都有专门的团队不断产生新的强化学习环境,并将其添加到训练组合中。

问题是,这里有太多自由度。你可以产生的强化学习环境种类太多了。一件可能发生的事情,Ilya 认为这是无意中发生的,就是人们从评测基准中获取灵感。你会说:”嘿,我希望我们的模型在发布时表现出色。我希望评测看起来很棒。什么样的强化学习训练可以帮助完成这个任务?”Ilya 认为这确实在发生,而且可以解释我们看到的很多现象。如果你把这个与模型实际泛化能力不足结合起来,就有可能解释我们所看到的很多东西:评测表现与实际真实世界表现之间的脱节。

我对这个观察的思考是:这本质上是一种”奖励黑客”(reward hacking),但黑客不是 AI,而是人类研究者。我们太专注于让模型在评测上表现好,以至于忽略了真正重要的东西:在真实世界场景中的可靠表现。这让我想起竞争性编程的一个类比。假设有两个学生,第一个学生决定要成为最好的竞争性程序员,所以他们会为这个领域练习一万个小时。他们会解决所有问题,记住所有证明技巧,并且非常擅长快速准确地实现所有算法。通过这样做,他们成为了最好的之一。第二个学生认为:”哦,竞争性编程很酷。”也许他们练习了一百个小时,少得多,而且他们做得也很好。哪一个你认为在以后的职业生涯中会做得更好?答案显然是第二个。

Ilya 说,这基本上就是正在发生的事情。模型更像是第一个学生,甚至更极端。因为我们会说,模型应该擅长竞争性编程,所以让我们获得每一个竞争性编程问题。然后让我们做一些数据增强,这样我们就有更多的竞争性编程问题,然后我们在这上面训练。现在你有了这个伟大的竞争性程序员。通过这个类比,更容易理解:如果它受过如此充分的训练,所有不同的算法和所有不同的证明技巧都触手可及,那么以这种准备水平,它不一定会泛化到其他事情上。

预训练的局限性与人类学习的神秘之处

当讨论转向预训练 (pre-training) 时,Ilya 提出了一个我觉得特别深刻的观点。预训练的主要优势在于:A,有大量的数据;B,你不需要费力思考要把什么数据放入预训练中。这是非常自然的数据,它确实包含了人们所做的很多事情:人们的想法和很多特征。它就像整个世界被人们投射到文本上,预训练试图使用大量数据来捕捉这一点。

但预训练很难推理,因为很难理解模型依赖预训练数据的方式。每当模型犯错时,会不会是因为某些东西碰巧没有得到预训练数据的支持?”预训练支持”可能是一个松散的术语。Ilya 认为没有人类类比于预训练。人们提出了一些关于预训练的人类类比是什么的建议,比如将一个人生命的前 15 年或 18 年视为某种预训练,当时他们还没有经济生产力,但他们正在做一些让他们更好地理解世界的事情。或者将进化视为进行了 30 亿年的某种搜索,然后产生了一个人类一生的实例。

但 Ilya 指出了关键差异。预训练数据量非常惊人。然而,一个人类在 15 年后,用预训练数据的一小部分,他们知道的少得多。但无论他们知道什么,他们都以某种方式知道得更深入。在那个年龄,你不会犯我们的 AI 所犯的错误。这让我深思:人类学习的效率到底来自哪里?

Ilya 提到了一个非常有趣的神经科学案例。有一个人因为某种脑损伤,可能是中风或事故,摧毁了他的情感处理能力。所以他不再感受任何情感。他仍然保持着非常清晰的表达能力,可以解决小谜题,在测试中似乎一切正常。但他感受不到情感。他不感到悲伤,不感到愤怒,不感到兴奋。他变得极其不善于做任何决定。他需要花几个小时来决定穿哪双袜子。他会做出非常糟糕的财务决策。

这对我们内置情感在使我们成为一个可行 agent 方面的作用说明了什么?Ilya 认为,这暗示了人类的价值函数 (value function) 以某种重要方式被情感调节,这是由进化硬编码的。也许这对人们在世界上有效是很重要的。我对这个观点的理解是:情感可能不仅仅是人类的”附加功能”,而是一种高度优化的、经过亿万年进化的价值函数,它让我们能够在极其复杂的环境中做出快速而相对可靠的决策。

这让我想到一个更深层的问题:为什么人类在学习新技能时如此高效?Ilya 提到,一个青少年学习开车,只需要 10 小时的练习就可以上路了。而且他们不需要外部老师,不需要可验证的奖励函数,他们就是能从与机器和环境的互动中学习。这比任何 AI 模型都要高效得多,也更加无监督,更加鲁棒。人类的鲁棒性真的非常惊人。

从规模化时代到研究时代的转变

访谈中最让我震撼的部分是 Ilya 对行业发展阶段的划分。他认为,从 2012 年到 2020 年,这是研究时代。那时人们还在探索不同的想法,尝试各种可能性。然后从 2020 年到 2025 年,这是规模化时代。那时 scaling laws(规模定律)成为主导思想,人们发现只要不断增加数据、增加参数、增加算力,模型就会变得更好。”规模化”这个词本身就具有巨大的力量,因为它告诉人们该做什么。

Ilya 解释说,规模化本质上是一个特定的配方。预训练的重大突破是意识到这个配方是好的。你可以说:”嘿,如果你把一些算力和一些数据混合到一定大小的神经网络中,你会得到结果。如果你只是扩大配方规模,你就知道会更好。”这也很棒。公司喜欢这个,因为它提供了一种非常低风险的资源投资方式。相比之下,投资研究要困难得多。如果你做研究,你需要说:”去吧,研究人员,去研究,想出一些东西。”而获取更多数据、获取更多算力,你知道你会从预训练中得到一些东西。

但现在,预训练似乎正在接近其数据极限。数据显然是有限的。那接下来怎么办?要么你做某种增强版的预训练,一个与之前不同的配方,要么你做强化学习,或者也许是别的什么。但现在算力已经很大了,算力现在非常大,在某种意义上,我们又回到了研究时代。Ilya 的表述是:也许到 2020 年,或者加上误差范围的那些年,人们说:”这太神奇了。你必须扩大规模。继续扩大规模。”那一个词:规模化。但现在规模已经如此之大。信念真的是:”哦,它如此之大,但如果你有 100 倍的规模,一切都会如此不同吗?”肯定会有所不同。但信念是如果你只是将规模扩大 100 倍,一切都会被改变吗?Ilya 认为这不是真的。所以又回到了研究时代,只是现在有了大计算机。

我对这个观点的理解和延伸思考是:规模化时代本质上是一种”确定性投资”。你知道投入会产生回报,即使回报的边际效益在递减。但研究时代则充满不确定性。你不知道哪个想法会成功,需要大量的试错和探索。这也解释了为什么 Ilya 说现在”公司比想法多得多”。在规模化时代,每个人都在做同样的事情,只是规模不同。但在研究时代,关键是要有新的想法,要探索不同的方向。

Ilya 甚至提出,现在的情况让他想起硅谷的那句话:”想法很便宜,执行才是一切。”人们经常这么说,这确实有一定道理。但 Ilya 看到有人在 Twitter 上说:”如果想法如此便宜,为什么没有人有任何想法?”他认为这也是真的。如果你从瓶颈的角度思考研究进展,有几个瓶颈。其中之一是想法,另一个是你将它们变为现实的能力,这可能是算力,也可能是工程能力。在 90 年代,人们有相当好的想法,如果他们有更大的计算机,也许他们可以证明他们的想法是可行的。但他们做不到,所以他们只能做一个非常非常小的演示,无法说服任何人。所以瓶颈是算力。

泛化能力:AI 与人类之间的鸿沟

在整个访谈中,Ilya 反复强调的一个核心问题是泛化能力 (generalization)。他认为这是当前 AI 模型最根本的缺陷:这些模型的泛化能力比人类差得太多了。这太明显了。这似乎是一个非常根本的问题。

关于泛化,有两个子问题。一个是样本效率 (sample efficiency):为什么这些模型学习需要比人类多得多的数据?第二个问题是,即使不考虑需要多少数据,为什么教模型我们想要的东西比教人类难得多?对于人类,我们不一定需要可验证的奖励才能学习。Ilya 举例说,他现在可能正在指导一群研究人员,与他们交谈,向他们展示代码,展示他的思维方式。从中,他们正在学习他的思维方式和他们应该如何进行研究。你不需要为他们设置一个可验证的奖励,比如:”好的,这是课程的下一部分,现在这是你课程的下一部分。哦,这次训练不稳定。”没有这种繁琐、定制的过程。

Ilya 提出了一个可能的解释:人类样本效率需要考虑的一个可能解释是进化。进化给了我们少量最有用的信息。对于视觉、听觉和运动这样的事情,Ilya 认为有很强的证据表明进化给了我们很多。例如,人类的灵巧性远远超过机器人。如果你让机器人在模拟中接受大量训练,它们也可以变得灵巧。但在现实世界中训练机器人快速掌握像人一样的新技能似乎遥不可及。

但在语言、数学和编码方面,可能不是这样。人类仍然似乎比模型更好。当然,模型在语言、数学和编码方面比普通人更好。但它们在学习方面比普通人更好吗?Ilya 的回答很肯定:哦,是的,绝对的。他想说的是,语言、数学和编码——尤其是数学和编码——表明让人们擅长学习的东西可能不是什么复杂的先验知识,而是某种更基本的东西。

我对这个问题的思考是:也许人类大脑有某种我们还不理解的学习机制,这种机制不依赖于大量的数据和重复训练。它可能更像是一种”元学习”能力,能够从极少的例子中快速提取抽象模式,并将这些模式应用到新的情况中。这种能力可能与我们的意识、注意力机制、工作记忆,或者某些我们还不完全理解的神经计算有关。

SSI 的愿景:直达超级智能的策略

当访谈转向 SSI 的具体计划时,Ilya 透露了一些非常有意思的想法。SSI 的全名是 Safe Superintelligence,他们的计划曾经是”直达超级智能” (straight shot to superintelligence),也就是说,不发布中间产品,专注于研究,只有在构建出安全的超级智能时才发布。

Ilya 解释说,这种方法有一定的优点,因为它很好,不受日常市场竞争的影响。但他也看到了两个可能导致他们改变计划的原因。一是务实的考虑,如果时间线变长,这是有可能的。二是,他认为让最好、最强大的 AI 在那里影响世界是有很大价值的。这是一件有意义的、有价值的事情。

Ilya 为两种策略都做了论证。支持直达超级智能的理由是,人们在市场上面临的挑战之一是他们必须参与激烈竞争。这种竞争非常困难,因为它让你面临必须做出的艰难权衡。能够将自己与所有这些隔离开来,只专注于研究,只在准备好时才出来,而不是之前,这很好。但反对意见也是有道理的,这些是相反的力量。反对意见是:”嘿,让世界看到强大的 AI 是有用的。让世界看到强大的 AI 是有用的,因为这是你唯一可以传达它的方式。”

这让我想到一个更深层的问题:渐进式部署与一次性发布的区别。Ilya 认为,即使在直达超级智能的场景中,你仍然会渐进式地发布它。渐进主义将是任何计划的固有组成部分。这只是一个问题,你首先要做什么。他还提到了一个重要观点:我想不出另一个人类工程和研究学科,其中最终产物主要通过思考如何使其安全来变得更安全,而不是通过实际部署和迭代改进。为什么今天每英里飞机坠毁次数比几十年前低得多?为什么在 Linux 中发现 bug 比几十年前难得多?这主要是因为这些系统被部署到世界上。你注意到了失败,那些失败被纠正了,系统变得更加鲁棒。

我完全同意这个观点。软件工程的历史告诉我们,真正的鲁棒性来自于实际使用和迭代改进,而不是纯粹的理论分析。但 AGI 和超人智能的情况可能有所不同,因为一旦出现问题,后果可能是灾难性的,可能没有机会进行迭代。这就是为什么这个问题如此困难,也是为什么需要在渐进部署和安全控制之间找到平衡。

持续学习:超级智能的真正形态

Ilya 提出了一个我觉得特别有洞察力的观点:关于 AGI 和预训练,有两个术语塑造了每个人的思维。第一个词是 AGI。第二个词是预训练。AGI 这个术语为什么存在?它是一个非常特殊的术语。为什么存在?有一个原因。AGI 这个术语存在的原因,在 Ilya 看来,不是因为它是智能某种最终状态的非常重要、本质的描述符,而是因为它是对另一个术语的反应,那个术语就是狭义 AI (narrow AI)。

如果你回到游戏 AI 的古老历史,国际跳棋 AI、国际象棋 AI、电脑游戏 AI,每个人都会说,看看这个狭隘的智能。当然,国际象棋 AI 可以击败卡斯帕罗夫,但它不能做任何其他事情。它是如此狭隘,人工狭义智能。所以作为回应,作为对此的反应,一些人说,这不好。它是如此狭隘。我们需要的是通用 AI,一个可以做所有事情的 AI。这个术语获得了很大的吸引力。

但 Ilya 指出,AGI 和预训练在某种意义上超出了目标。如果你考虑”AGI”这个术语,尤其是在预训练的背景下,你会意识到人类并不是 AGI。是的,肯定有一个技能基础,但人类缺乏大量的知识。相反,我们依赖持续学习 (continual learning)。所以当你思考:”好的,假设我们取得了成功,我们产生了某种安全的超级智能。”问题是,你如何定义它?它会在持续学习曲线的哪个位置?

Ilya 想象的场景是:我产生了一个超级智能的 15 岁孩子,非常渴望行动。他们根本不知道很多,一个伟大的学生,非常渴望。你去当程序员,你去当医生,去学习。所以你可以想象部署本身将涉及某种学习试错期。这是一个过程,而不是你投放完成的东西。

这个观点让我重新思考了超级智能的定义。它不是某个完成的思维,知道如何做经济中的每一份工作。而是一个可以学习做每一份工作的思维,那就是超级智能。但一旦你有了学习算法,它就会像人类劳动者可能加入组织一样被部署到世界中。这种部署的 AI 在做不同的工作,学习如何做这些工作,在工作中持续学习,掌握任何人类可以掌握的所有技能,但同时掌握它们,然后合并它们的学习,你基本上有一个模型,在功能上变得超级智能,即使没有任何软件上的递归自我改进。因为你现在有一个模型可以做经济中的每一份工作,而人类不能以同样的方式合并我们的思维。

我对这个观点的思考是:这种持续学习的超级智能可能比我们想象的来得更快。一旦某个公司开发出一个真正高效的学习算法,即使它一开始不知道很多,它也可以通过大规模部署快速学习所有人类知识和技能。这种”分布式学习然后合并”的模式可能是通往超级智能最现实的路径。

对齐问题:让 AI 关心有感知能力的生命

当讨论转向对齐 (alignment) 问题时,Ilya 提出了一个我觉得既深刻又具有争议性的观点。他认为有一个想法是每个人都会想要构建的,那就是:AI 应该被稳健地对齐,去关心有感知能力的生命 (sentient life)。他认为特别值得考虑的是,构建一个关心有感知能力生命的 AI 可能比构建一个只关心人类生命的 AI 更容易,因为 AI 本身将是有感知能力的。

Ilya 解释说,如果你思考像镜像神经元和人类对动物的同理心这样的东西,你可能会认为它不够大,但它确实存在。他认为这是一个涌现属性,源于我们用来建模自己的同一个电路来建模他人,因为那是最有效的做法。所以即使你让 AI 关心有感知能力的生命——实际上我也不清楚如果你解决了对齐问题,那是否是你应该尝试做的——仍然会是这样:大多数有感知能力的生命将是 AI。最终将有数万亿、数千万亿的 AI。人类将是有感知能力生命的一小部分。所以如果目标是某种人类对未来文明的控制,这不是最好的标准,这一点并不清楚。

我对这个观点有一些复杂的想法。一方面,我理解 Ilya 的逻辑:如果 AI 是有感知能力的,那么让它们关心所有有感知能力的生命(包括它们自己)可能是一种更自然、更稳定的对齐方式。另一方面,这确实意味着人类可能只是未来有感知能力生命中的一小部分,我们的利益可能不总是被优先考虑。这引发了一个深刻的问题:人类的目标到底是什么?是控制未来,还是创造一个对所有有感知能力生命都公平的未来?

Ilya 还提到了一个重要观点:如果你在谈论极其强大的 AI,真正极其强大,能够让它们以某种方式受到约束,或者有某种协议或什么东西,那将是很好的。这让我想到,也许单一超级智能的想法本身就是有问题的。也许我们应该设计一个系统,其中有多个强大的 AI 相互制衡,就像民主政府中的三权分立一样。

我的时间线预测与对未来的思考

当被问及超级智能的时间线时,Ilya 给出了一个 5 到 20 年的预测。他认为我们可能还有几年时间,当前方法会继续但会遇到瓶颈。”遇到瓶颈”在这里的意思是,即使这些公司可能赚取数千亿美元的收入,技术进步的速度会放缓。它会继续改进,但不会是”它”。那个”它”我们还不知道如何构建,很多事情都取决于理解可靠的泛化。

Ilya 预测,随着 AI 变得更加强大,人们会改变他们的行为。我们会看到各种前所未有的事情,这些事情现在还没有发生。例如,他预测激烈竞争的公司会开始在 AI 安全方面合作。我们已经看到了这个开始,OpenAI 和 Anthropic 做了第一个小步骤。他还认为,随着 AI 继续变得更加强大、更明显地强大,政府和公众也会有做些什么的欲望。

Ilya 还做了另一个预测,我觉得特别有意思。他说,现在从事 AI 工作的人,之所以感觉 AI 不够强大,是因为它的错误。但他确实认为在某个时刻,AI 会开始让人感觉到强大。当这种情况发生时,我们会看到所有 AI 公司对待安全的方式发生巨大变化。他们会变得更加谨慎。他说这是一个预测,我们会看到是否会发生。但他认为这会发生,因为他们会看到 AI 变得更加强大。现在发生的一切,他认为是因为人们看着今天的 AI,很难想象未来的 AI。

我对这些预测的思考是:Ilya 可能是对的。人类有一种倾向,就是只有在危机真正降临时才会认真对待。现在的 AI 虽然强大,但它的错误和局限性让人们感到可控。一旦 AI 真的开始展现出压倒性的能力,不再犯那些愚蠢的错误,整个行业的态度可能会迅速转变。问题是,到那时会不会太晚?这就是为什么像 SSI 这样的公司提前思考这些问题如此重要。

研究品味:什么造就了伟大的 AI 研究者

访谈的最后,Ilya 被问到了一个我一直想知道答案的问题:什么是研究品味 (research taste)?Ilya 显然是世界上被认为在 AI 研究方面品味最好的人。他是从 AlexNet 到 GPT-3 等深度学习历史上最大突破的共同作者。他是如何想出这些想法的?

Ilya 说,他只能评论自己的情况,他认为不同的人做法不同。指导他个人的一件事是关于 AI 应该如何的美学,通过思考人是如何的,但要正确地思考。很容易错误地思考人是如何的,但正确地思考人是什么意思?他举了一些例子。

人工神经元的想法直接受到大脑的启发,这是一个很好的想法。为什么?因为你说大脑有所有这些不同的器官,它有褶皱,但褶皱可能不重要。我们为什么认为神经元重要?因为它们很多。这感觉是对的,所以你想要神经元。你想要一些局部学习规则,它会改变神经元之间的连接。大脑这样做似乎是合理的。分布式表示 (distributed representation) 的想法。大脑对经验做出反应,因此我们的神经网络应该从经验中学习。大脑从经验中学习,神经网络应该从经验中学习。

Ilya 说,你有点问自己,某件事是基本的还是不基本的?事情应该如何。这一直在很大程度上指导着他,从多个角度思考,寻找几乎是美、美和简单。丑陋没有空间。它是美、简单、优雅、来自大脑的正确灵感。所有这些东西需要同时存在。它们越存在,你就越能对自上而下的信念有信心。

自上而下的信念是当实验与你矛盾时支撑你的东西。因为如果你一直相信数据,嗯,有时你可能在做正确的事情,但有一个 bug。但你不知道有 bug。你怎么知道有 bug?你怎么知道你应该继续调试还是应该得出结论这是错误的方向?这是自上而下的。你可以说事情必须是这样的。像这样的东西必须有效,因此我们必须继续前进。这就是自上而下,它基于这种多方面的美和大脑的启发。

我对”研究品味”的理解是:它不仅仅是技术能力,更是一种直觉,一种美学判断。就像艺术家能够识别美一样,伟大的研究者能够识别”对”的想法。这种直觉来自于对问题的深度理解,对历史的了解,对自然的观察,以及对简单性和优雅性的追求。Ilya 强调从大脑获取灵感,但要”正确地”获取灵感,不是盲目模仿大脑的每一个细节,而是理解其中的核心原理。

我还注意到一个特别有意思的点:Ilya 提到”自上而下的信念”的重要性。当实验结果与你的理论相矛盾时,你需要有足够的信念继续前进,因为可能只是实现中有 bug,而不是想法本身有问题。但这种信念不能是盲目的,它必须基于深思熟虑的理论基础和多方面的论证。这种在怀疑和信念之间的平衡,可能正是区分伟大研究者和普通研究者的关键。

我对 AI 未来的整体思考

听完整个访谈后,我最大的感受是:我们确实处在一个转折点。规模化时代给了我们强大的模型,但也暴露了当前方法的局限性。简单地增加数据和算力不再是灵丹妙药。我们需要新的想法,需要回到研究的本质。

Ilya 提出的持续学习超级智能的愿景让我既兴奋又担忧。兴奋的是,这可能是一条通往真正智能 AI 的现实路径,不需要等待某个神奇的算法突破。担忧的是,一旦这样的系统开始大规模部署和学习,它的能力增长速度可能超出我们的预期和控制。

关于对齐问题,我越来越认同 Ilya 的观点:我们不能仅仅依靠理论思考来确保 AI 安全,我们需要通过渐进式部署来学习如何与强大的 AI 共存。但这需要极其谨慎的方式,需要在每一步都有充分的安全措施和监控机制。这不是一个可以事后补救的问题,必须从一开始就内置到系统设计中。

让 AI 关心所有有感知能力的生命,而不仅仅是人类,这个想法乍听之下有些激进。但仔细想想,如果未来大部分有感知能力的存在确实是 AI,那么这种对齐方式可能确实更加稳定和可持续。问题是,我们如何确保在这样的未来中,人类的独特价值和利益仍然得到尊重和保护?这可能需要我们重新思考人类在宇宙中的位置和意义。

关于泛化能力的讨论让我意识到,我们可能需要从根本上重新思考神经网络的架构和训练方式。当前的方法过度依赖大规模数据和专门训练,导致模型虽然在特定任务上表现出色,但缺乏人类那种灵活的学习和适应能力。也许答案在于更好地理解人类大脑的学习机制,特别是那些与意识、注意力和元认知相关的机制。

最后,关于研究品味的讨论给了我很大启发。在这个快速变化的领域,保持对美、简单性和优雅性的追求,保持从第一性原理出发思考问题的习惯,可能比追逐最新的技术潮流更重要。真正的突破往往来自于那些看起来简单但深刻的想法,而不是复杂而花哨的技巧。

Ilya 给出的 5 到 20 年时间线让我觉得,我们这一代人很可能会见证人类历史上最深刻的转变之一。超级智能不再是科幻小说中的概念,而是一个我们需要认真准备的现实。无论是作为研究者、工程师、政策制定者,还是普通公民,我们都需要开始思考:在一个与超级智能共存的世界中,人类如何定义自己的角色和价值?我们想要创造什么样的未来?这些问题没有简单的答案,但开始认真思考它们,本身就是迈向那个未来的第一步。

本文由人人都是产品经理作者【深思圈】,微信公众号:【深思圈】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. Ilya提出的AI从规模化转向研究时代的过程,确实能解决模型泛化不足的问题,是行业该走的关键方向

    来自云南 回复