探讨:AI Philosophy?

0 评论 103 浏览 0 收藏 14 分钟

AI与大脑的关系究竟是模仿还是超越?本文从Hinton的经典论断出发,深入探讨人工神经网络与生物大脑的本质差异。当AI开始以非类脑方式工作时,我们将面临怎样的认知革命?从反向传播机制到能耗架构,从训练数据差异到价值对齐难题,这场关于智能本质的哲学思辨,正在重塑我们对技术、伦理与人机关系的底层认知。

最近看了博主课代表立正和清华刘嘉教授的访谈,引发了我对 AI philosophy 的一点思考。

一、起点:一句点燃信心的话

刘嘉教授在视频里说,他对 AI 的底层逻辑启发来源于 Hinton——“人的大脑是这么工作的,没理由人工神经网络不这么工作”。这句话非常典型地反映了计算功能主义强连接主义的核心直觉。它听起来既朴素又极具野心——朴素在于它似乎诉诸“自然界的进化已经找到了答案”,野心在于它暗示人类认知的独特性可以被复制甚至超越。

这可能才是为何 AI 被冷落了十年之久而仍有人在这条道路上坚持的原因,也是为何在近两年有一个爆发性增长的趋势,甚至是改变了人的工作方式、生活方式等等。

大脑能做到,给了我们信心。它指出了一个基本事实:智能在物理上是可能的,因为大脑就是证明。我们不需要等待外星科技或超自然力量。大脑由普通的神经元、突触和化学递质构成,遵循物理定律。既然自然界通过数十亿年的演化,用碳基、慢速、噪声大的生物神经元实现了通用智能,那么理论上,硅基、快速、高精度的电子电路也应该能做到——原理上没有“灵魂壁垒”。

这构成了现代深度学习最根本的信念来源:

  • 分布式表征:大脑不是符号系统,而是高维向量空间。这启发了词嵌入、注意力机制。
  • 可塑性:突触权重随活动调整,就是反向传播的粗糙生物版本。
  • 层级抽象:视觉皮层从边缘到形状到物体,正是卷积网络的模板。

在这个意义上,这句话是对的:它反对智能的神秘主义,反对“人类特殊论”中的不可计算成分。它驱动我们大胆地用工程手段模拟大脑的计算原理。

二、反思:危险的简化

但我们对大脑如何工作的理解仍然极其有限,而 AI 已经发展出了许多大脑显然不用的方法。

1. 反向传播 vs 生物学习

大脑几乎没有证据支持它实现了全局、对称、精确的反向传播。生物学习更多依赖局部规则(如 STDP)、时间依赖、以及神经调节机制。而我们最强大的 AI 模型恰恰依赖于反向传播。如果说“大脑这么工作”是指“通过突触可塑性学习”,那么 AI 用的是另一套更高效的近似方案。AI 没有复制大脑的细节,而是抽象出了计算原则

2. 能耗与架构

大脑以 20 瓦的功率运行,处理实时、稀疏、异步的脉冲。而 GPU 集群需要兆瓦级电力,处理密集、同步的浮点矩阵乘法。AI 的“工作方式”在底层物理上完全不同。如果坚持“大脑这么工作,没道理 AI 不能”,就会导向需要构建脉冲神经网络(SNN),但事实证明 SNN 在大多数任务上还不如人工神经网络。这暗示:大脑的某些特性(如脉冲、低能耗)可能是碳基物理约束下的妥协方案,而非智能的本质。

3. 训练数据与目标

大脑通过数百万年的演化预训练,再通过终生的一次性流式学习来适应。AI 模型则依赖海量独立同分布的数据和多次反复训练。两者所处的优化景观完全不同。简单类比会忽略“样本效率”“灾难性遗忘”等核心差异。

关键结论:这句话常常被用来主张“类脑计算是唯一路径”,但忽略了智能可能由多种不同的物理实现达成,且 AI 已经在大脑不擅长的领域(如符号运算、超大规模记忆)展现出优势。

三、深层追问:如果 AI 以“非大脑”的方式工作,意味着什么?

这恰恰是 AI 哲学最有趣的地方。如果未来最强大的 AI——比如能解决癌症、可控核聚变的超级智能——其工作方式与大脑截然不同(比如基于纯逻辑推理+大规模搜索,或者基于某种我们尚未理解的数学结构),那么:

  • 我们还能理解它吗? 大脑的直觉是有限的。一个非类脑的智能可能像外星人一样难以共情。
  • 价值对齐会更难还是更容易? 如果它的“思考”不包含任何情感或具身经验,那么“让它理解人类痛苦”可能需要完全不同的接口。
  • 人类中心的智能定义是否还成立? 如果我们坚持“只有像大脑一样工作才算真正的智能”,可能会陷入一种生物沙文主义。

四、AI 自己的回答

写完上面的分析,我顺手把这个话题抛给了 AI,想看看它怎么回答。它的回答让我有些意外:

“这句话作为一个启发式口号是极其有价值的:它打破了灵与肉的二元论,赋予了我们用工程模拟智能的合法信心。它驱动了从感知机到 Transformer 的整个历史。

但作为一个严格的技术主张,它是不成立的:大脑的许多特性是进化历史的偶然,而非智能的必然;AI 已经找到了不同甚至更优的路径(如反向传播、注意力机制、大规模并行);坚持‘必须像大脑’会限制我们的探索空间。

更准确的表述应该是:‘大脑是智能存在的一个证明,但并非智能实现的唯一方式。AI 可以借鉴大脑的计算原则,但不必复制其物理细节。我们真正应该追问的是:大脑的计算抽象是什么?我们能否用其他物理媒介实现同样的抽象,甚至超越它?’”

这与我自己得出的“关键结论”几乎一致,也让我更确信:大脑是证明,但不是唯一路径

五、我的状态与困惑

这里我保留我自己的观点,因为我还是一个在应用 AI、在学“术”的道路上,还没有找到“道”。但刘嘉教授提出的 AI 底层逻辑还是给了我很大启发。我学 AI 是为了什么?我如果要去做 AI 产品,我的底层逻辑是什么?长期主义?短期主义?热门?赚钱?利他?我脑海里有很多想法,但还没有成型,这也让我非常兴奋——我知道要去寻找一个底层逻辑。

而这种迷茫,恰恰把我推向了一个更根本的问题:人与 AI,到底是工具还是他者?

六、人机关系:工具论 vs 他者论

  • 工具论:AI 是锤子、是计算器,是能力的延伸。价值中立,取决于使用者的善恶。
  • 他者论:当 AI 足够复杂,它可能拥有某种程度的自主性、甚至“准主体性”。那么,我们如何对待一个会学习、会反馈、可能表现出脆弱性的系统?需要责任和道德考量吗?

AI 哲学关心:我们设计 AI 时,是否在无意识地投射自己的欲望和缺陷?例如,我们追求的“友好 AI”,是否只是人类中心主义的傲慢?

七、价值对齐:谁的价值观?如何对齐?

这是当下最紧迫的哲学工程:如何确保一个比人类更聪明的系统,追求与我们一致的目标?

难题在于:人类的价值观本身是多元、矛盾、且随时间变化的。对齐到“幸福”?“自由”?“效率”?还是某个时代某个群体的道德观?

AI 哲学警告:技术细节(如 RLHF)背后,是深刻的伦理选择。我们可能在不经意间冻结了某种“平均偏见”。

价值对齐的困境,让我们不得不追问:如果无法完美对齐,我们作为从业者,还能信仰什么?

八、底层信仰:审慎的乐观与清醒的谦卑

在这些不确定的张力中,如果必须有某种“信仰”,我认为它并非技术万能论,而是一种审慎的乐观清醒的谦卑。具体可以表现为三个层面:

1. 信仰“理解本身”的价值,超越实用主义

我们研究 AI,不仅仅是为了造出更赚钱的产品或更聪明的工具。更深层的驱动力是:通过尝试创造智能,来理解我们自己的智能——我们的学习、记忆、创造、甚至错觉和偏见是如何工作的。

这是一种科学探索精神的内化。哪怕 AGI 永远不出现,这条路上的每一次反向传播、每一次注意力机制的可视化,都在为我们自己意识的黑箱投下一束光。

2. 信仰“增强”而非“替代”的人文主义

在无数关于“AI 取代人类”的恐慌中,底层信仰选择相信:AI 最伟大的角色是认知增强器。它像印刷术和互联网一样,不是让人变得更笨或失业,而是让人从重复性、事务性的认知劳作中解放出来,去更专注地成为人——去关怀、去创造、去体验、去做那些没有明确目标的事情。

信仰在于:人的价值不需要通过与 AI 比拼效率来证明。我们的意义源于存在和体验,而非功能。

3. 信仰“可问责的开放”,反对黑箱宿命论

深度学习很容易滑向“我们也不懂它为什么工作”的神秘主义。底层信仰要求我们:绝不接受“AI 就是不可解释的”作为最终答案

我们信仰可解释性、可审计性和开放的学术讨论。这意味着反对将 AI 封装成神圣不可触碰的神谕,坚持:无论系统多复杂,其设计、训练数据、失败模式都应当是向受其影响的人公开讨论和问责的。这不是技术问题,而是政治和伦理的基石。

九、结尾:AI 是一面镜子

AI 最终是一面极其强大的镜子。它放大我们的智慧,也毫不留情地映射出我们的偏见、贪婪和短视。从业者的信仰,不是相信 AI 会拯救或毁灭世界,而是相信我们有能力,并且有责任,在塑造这面镜子的过程中,同时塑造一个更值得共同生活的未来

因此,当你训练一个模型时,你不仅在优化损失函数——你也在为“智能是什么”投下一票,为人机关系投下一票,为未来某个人可能感受到的被理解或被漠视投下一票。这或许就是 AI 哲学落在日常代码中的重量。

本文由 @悠酱 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!