Mythos 事件:前沿 AI 治理的意外实验
Anthropic 的一次手滑意外曝光了代号 'Mythos' 的超强 AI 模型,引发全球对超级 AI 使用边界的激烈讨论。这个能发现人类几十年都找不到的漏洞、甚至可能成为自动黑客的系统,正通过 'Project Glasswing' 计划以 VIP 俱乐部模式分发给特定机构。当 AI 能力触及社会安全红线,谁来决定谁能拥有这种力量?这场意外泄露撕开了科技公司权力分配的新战场。

一、事情怎么曝光的:一次手滑引发的全球关注
今年 3 月 30 日,AI 公司 Anthropic 犯了个技术错误——他们的内容管理系统配置出错,约 3000 份内部文件意外公开。这些文件本不该被任何人看到,里面藏着 Anthropic 的秘密武器:一个代号为 “Mythos” 的超强 AI 模型。
泄露的内容很详细:Mythos 能做什么、有多强、卖多少钱、以及一个神秘的 “Project Glasswing” 计划。技术社区很快传开,大家惊讶地发现,Anthropic 藏着比公开产品强得多的东西,却不打算让普通人用上。
一周后,Anthropic 官方承认了 Mythos 的存在,并解释为什么把它”锁起来”。但他们没想到的可能是:这次意外泄露,反而让他们成了全球第一个公开讨论”超级 AI 该不该人人可用”的公司。
二、Mythos 到底强在哪:不只是分数高,而是性质变了
先看数字。泄露的文件显示,Mythos 在一个叫”漏洞复现”的测试中得了 83.1%,而 Anthropic 目前最强的公开模型 Opus 4.6 只有 66.6%。差距明显。
但 Anthropic 强调的重点不是分数,而是 Mythos 发现的真实漏洞。他们声称,Mythos 在真实代码库里找到了几个存在几十年的安全漏洞——比如 OpenBSD 系统里藏了 27 年没人发现的漏洞,FFmpeg 视频工具里藏了 16 年的漏洞。这些漏洞之前被无数专家检查过,都没被发现。
这就引出了关键问题:如果 Mythos 能发现人类专家几十年都找不到的漏洞,它能不能也利用这些漏洞?Anthropic 的回答很直接:能,而且速度”远超人类防御者的反应速度”。
换句话说,Mythos 不只是个”找 bug 的工具”,它可能成为”自动黑客”。这不是性能提升,而是性质变化——从辅助人类的工具,变成可能自主造成破坏的系统。
三、Project Glasswing:一个”VIP 俱乐部”式的 AI 分发模式
既然 Mythos 这么强,Anthropic 怎么处置它?答案是:不公开卖,只给特定机构用。
这个计划叫 Project Glasswing,结构很像一个VIP 俱乐部:
创始成员(12 家):包括亚马逊云服务、苹果、微软、网络安全公司 CrowdStrike 和 Palantir 等科技巨头。
扩展成员(40 多家):电力、水务、金融等关键基础设施的运营者。
普通用户:没有入口。不是”很贵”,而是”不卖”。
想要加入?得等 Anthropic 邀请。没有申请表,没有公开标准,没有申诉渠道。而且价格极高:使用 Mythos 的费用是现有最强公开模型的 5 倍。
Anthropic 的解释是”防御者优先”:既然坏人迟早会有类似能力,不如让好人先拿到,加固全球软件基础设施。这听起来合理,但留下了很多疑问。
四、争议焦点:这是负责任,还是不公平?
Mythos 的处置方式引发了两种截然不同的反应。
支持方认为:
网络安全本来就是个不公平的游戏。攻击者只需要赢一次,防御者必须永远守住;攻击者可以挑软柿子捏,防御者必须全面防护。在这种结构下,让可信的大机构先拿到最强工具,可能是纠正失衡的唯一办法。
而且这不是没先例。2019 年,OpenAI 发现他们的 GPT-2 模型能生成以假乱真的假新闻后,也选择了暂缓发布完整版本。当时很多人批评他们小题大做,但事后看来,这种谨慎没造成明显伤害。
质疑方认为:
“好人”的定义谁说了算?Anthropic 没公开挑选标准,也没解释为什么苹果、微软算”关键”,而独立安全研究者、大学实验室、发展中国家的机构不算。这种不透明本身就成了问题。
价格门槛也很现实。5 倍定价意味着只有财大气粗的公司用得起,中小机构被自动排除。如果未来网络攻击的目标恰恰是这些资源不足的机构,Mythos 可能反而加剧了安全鸿沟,而不是缩小它。
还有”临时”到底有多久?Anthropic 说等新防护措施到位后会公开,但没说什么时候。历史上,”暂时限制”往往变成永久安排。如果 Mythos 级别的能力长期被少数机构垄断,这可能开创一个危险的先例。
五、行业格局:三种 AI 路线的较量
Mythos 事件不只是 Anthropic 一家的事,它暴露了 AI 行业正在分化的三种路线。
OpenAI 路线:渐进公开
不断推出新模型,从 o3 到 o4-mini,让所有人逐步体验更强能力。好处是能从真实使用中发现问题,坏处是万一哪天能力突然跳到危险区间,可能来不及刹车。
开源路线:完全透明
Mistral、DeepSeek、Meta 的 Llama 等选择把模型权重公开,任何人都能下载修改。好处是社区能共同审查安全问题,坏处是坏人也能直接拿去用,没有任何门槛。
Anthropic 路线:能力分级
Mythos 代表的新模式——公开产品有公开产品的能力,更强的能力锁起来只给特定对象。好处是理论上能控制风险扩散,坏处是”谁该获得能力”的决定权集中在一家公司手里。
这三种路线没有明显的赢家,但 Mythos 事件让”分级控制”模式首次进入公众视野。其他公司会不会跟进?如果会,AI 能力可能越来越像奢侈品——不是谁技术好谁用,而是谁被邀请谁用。
六、更大的图景:当 AI 公司开始决定”谁可以强大”
Mythos 事件最深远的影响,可能是它提出了一个以前很少公开讨论的问题:当 AI 强大到可能构成社会风险时,谁有权决定谁能使用它?
到目前为止,这个问题的答案默认是”市场”——谁有钱谁买,谁技术好谁用。但 Anthropic 说,对 Mythos 这种级别的能力,市场机制不够了,需要”守门人”。
这个转变意义重大。它意味着 AI 公司开始扮演类似”出口管制”或”武器监管”的角色,但不受政府或国际规则的约束。Anthropic 的”守门”决定基于自己的安全评估,没有第三方审计,没有申诉机制,也没有时间限制。
这引出了几个没有答案的问题:
- 如果中国或美国的某家公司开发出 comparable 的能力,却不遵循 Anthropic 的”防御优先”原则,怎么办?
- 如果某国政府要求 Anthropic 提供 Mythos 用于非防御目的,他们有权拒绝吗?法律依据是什么?
- 独立研究者被排除在外,会不会反而降低了发现 Anthropic 自身安全漏洞的可能性?
七、结语:一次意外,一个窗口
Mythos 本来不该被公众知道。一次技术故障让Anthropic 提前面对这个问题,也让所有人开始思考。
这件事的最终意义,可能要几年后才知道。Project Glasswing 真的能帮助防御网络攻击吗?其他公司会模仿还是拒绝这种模式?监管机构会介入还是放任?
但至少现在,Mythos 提供了一个难得的观察窗口:让我们看到当 AI 能力接近某种阈值时,技术问题如何迅速变成权力问题——谁决定、谁受益、谁被排除、谁负责监督。
Anthropic 的选择可能是负责任的,也可能是过度保守的,还可能是精明的商业策略。这三种解读并不互斥。重要的是,这个选择不再是实验室内部的秘密,而是成为了公共讨论的一部分。在这个意义上,那次意外的泄露,或许反而是件好事。
本文由 @悠酱 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




