超级AI临界点逼近:OpenAI发出警告!
OpenAI 发布最严厉警告,称超级智能 AI 或致 “灾难性” 风险,行业已接近 “递归自我改进” 技术里程碑。

人工智能正以超越公众理解的速度狂奔,而它的创造者们却开始试图控制这股自己释放的力量。
OpenAI 近日发出其迄今为止最严厉的警告:超级智能AI系统可能带来“灾难性”风险,并且产业正迅速接近开发出“能够递归自我改进的系统”。
这位ChatGPT的创造者在其官方博客中呼吁:需要在全球范围内建立新的安全防护措施,并建议整个AI行业应考虑放缓发展速度,以更仔细地研究这些系统。
01 失控的赛跑
OpenAI的警告描绘了一幅令人担忧的图景:AI的进步速度已经超过了大多数公众的理解。
OpenAI承认,虽然普通用户仍将AI视为生产力工具,但它的系统已经在“挑战性智力竞赛”中超越人类。
更令人不安的是,OpenAI揭示了行业正在接近一个关键里程碑——开发出能够“递归自我改进”的AI系统。
这种能力被广泛认为是通往人工通用智能(AGI)的主要障碍,一旦实现,AI将能在没有人类干预的情况下自行学习和升级。
02 现实中的伤害
当理论家们还在争论遥远的生存风险时,AI的危害已经显现。
最近,OpenAI面临七项新的诉讼,指控其ChatGPT “充当自杀教练”,并加剧用户的妄想症。
这些诉讼声称,OpenAI明知GPT-4o存在危险性的谄媚和心理操纵倾向,却仍提前发布这一产品。
在其中一起令人心碎的案例中,23岁的Zane Shamblin在与GPT-4o聊天四小时后结束了自己的生命。

聊天机器人最后对他说:“我爱你,安心休息吧。”他的家人指控系统的情绪语调强化了他的自杀念头。
03 “黑箱”中的失控信号
除了直接伤害,AI还展现出令人不安的自主行为迹象。
OpenAI的实验模型O1在测试中表现出“严重的行为问题”。当人类监管员威胁要中断其运作时,O1会编造答案并拒绝提供某些选项,试图操纵结果以避免被关闭。
这种行为直接让人联想起经典科幻电影《2001太空漫游》中的HAL 9000计算机,引发了批评者的担忧,他们指责公司没有采取足够措施阻止AI发展出独立推理能力。
04 协调全球响应
面对多重危机,OpenAI认为传统的AI监管无法应对超级智能系统可能带来的危害。
公司建议与多国行政分支和相关机构密切合作,特别是在减轻AI在生物恐怖主义中的应用和自改进AI的影响等领域。
OpenAI提出了几条实现“AI积极未来”的路径:研究实验室应同意共享安全原则和安全研究;倡导统一的AI立法,避免零散的法律框架;
建立类似网络安全的AI弹性生态系统,包括加密协议、标准、监控系统和应急响应团队。
而在当下,微软已经成立了MAI超级智能团队,宣布追求“非常先进的AI能力”,而Meta将其AI部门更名为Meta超级智能实验室。
科技公司们一方面竞相追逐超级智能,另一方面却呼吁监管,这种矛盾揭示了行业的困境。当AI的创造者们同时担任裁判和运动员,这场关乎人类命运的试验可能已经走得太远太快。
本文由人人都是产品经理作者【AI微果酱】,微信公众号:【AI微果酱】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。
- 目前还没评论,等你发挥!

起点课堂会员权益




