Anthropic 复刻了功能,但抄不走社区
OpenClaw 的戏剧性封杀揭示了 AI 时代第三方开发者的结构性困境。这款伪装成 Anthropic 客户端的工具,凭借 1:5 的算力套利实现爆发增长,却最终成为平台收割市场的试验田。本文深度拆解 Anthropic 教科书式的三步封杀策略,以及背后那个残酷真相:所有建立在 API 之上的繁荣,都只是被授权的临时狂欢。

这是一个关于 OpenClaw 被封杀的故事,但我不打算从 Anthropic 讲起。
我想先从 OpenClaw 本身讲起——讲一个大多数人忽略了的事实:OpenClaw 从诞生第一天起,就不该活这么久。
一栋建在别人地基上的房子
OpenClaw 的核心商业逻辑,是通过伪装成 Anthropic 官方客户端,让用户用每月 $200 的 Max 订阅来驱动高强度的 Agent 任务。但按 Anthropic 的 API 实际计费,这些任务的真实成本可能超过 $1000。也就是说,每一个深度使用 OpenClaw 的用户,都在以 1:5 的价格套利 Anthropic 的算力。
这不是一个可持续的商业模型,这是一个裂缝。
OpenClaw 的整个用户增长,有相当一部分建立在这条裂缝上。10 天涨 21 万 GitHub Star,这个速度固然惊人,但它背后有一个不能说破的前提:这个工具之所以好用,部分原因是它的运行成本被严重低估了,而那个差价,是 Anthropic 在补贴。
我不是在为 Anthropic 辩护。我只是想说清楚一件事——在讨论”Anthropic 做错了什么”之前,我们需要先承认:在别人的地基上盖房子,本来就是一件高风险的事。这个道理不新鲜,但每一代开发者都会重新学一遍。
教科书式的三步走,以及那个被忽略的时间线
Anthropic 的操作本身,确实是教科书级别的。
2026 年 2 月,悄悄更新服务条款,技术层面封堵第三方伪装调用的路径。这一步的精妙之处在于,它给了后续行动一个”合规性外壳”——不是我们要封杀你,是你一直在违反规则,我们只是现在开始执行。
然后是功能跟进。Anthropic 的 Claude Code Channels 上线,支持 Telegram 和 Discord 直接对接;Claude Cowork 推出 Dispatch 功能,可以从手机远程控制桌面端的 Claude。这些,恰好是 OpenClaw 最核心的卖点。
最后,2026 年 4 月 4 日,正式切断。
但有一个细节值得注意:Anthropic 的首席商务官 Paul Smith 在接受 Semafor 采访时承认,确实有客户在要求 Anthropic 做一个自己的 OpenClaw。换句话说,这不只是一次防御性的封杀,更是一次需求验证完成后的主动收割。OpenClaw 帮 Anthropic 做了市场教育,证明了”通过消息软件控制 AI Agent”这个场景有真实需求,然后 Anthropic 自己下场了。
平台从来不杀生态。它只是等生态长大,然后走进来,说:谢谢你们,我来接手了。
功能可以复刻,但有一件事复刻不了
到这里,大多数分析都会说:Anthropic 的替代方案功能类似,官方出品,说不定更稳定,所以用户会迁移过去,这件事就这样结束了。
我觉得这个判断漏掉了最关键的一层。
OpenClaw 最高峰时有 35 万 GitHub Star,70000 多个 Fork,1700 个 Watcher。这些数字背后,是一批真实的开发者在上面写插件、提 PR、做二次开发、在 Issue 里深夜讨论边缘 case。这个生态是真实存在的,不是营销数据。
但问题在于:这个社区的信任,从来不是给 OpenClaw 的,是给 Claude 的。
这才是整件事最刺痛的地方。当 Anthropic 切断连接,那批开发者的第一反应不是”我要找 OpenClaw 的替代品”,而是”我要找能继续用 Claude 的方式”。他们在 GitHub 上讨论怎么接 API,怎么迁移到付费方案,怎么用 Claude Cowork 复现原来的工作流。OpenClaw 作为一个产品,在这个时刻几乎是透明的——它只是一个让人接触到 Claude 的管道,而不是一个让人产生依赖的目的地。
这是 OpenClaw 真正的悲剧,不是被封杀,而是它的用户在失去它之后,没有人想着要把它救回来。
Peter 的选择,比你想的更理性
说到这儿,必须聊聊 Peter Steinberger 这个人的选择。
他在 Anthropic 封杀之前,就已经加入了 OpenAI。Sam Altman 在 X 上公开宣布,说 Peter 会”推动下一代个人 Agent”,OpenClaw 则以开源项目的形式移交给独立基金会,由 OpenAI 持续支持。
很多人把这件事解读为”Peter 找了个好东家”。但我觉得这个解读太轻了。
Peter 的选择背后有一个更冷静的逻辑:当你的产品依赖于某个模型公司的善意时,最理性的出路,是成为那个模型公司的一部分。 不是因为他投降了,而是因为他比任何人都更清楚——在这个阶段,AI Agent 的基础设施还没有真正开放化,所有的独立第三方都活在一个随时可以被重新定义的规则体系里。与其在这个规则里挣扎,不如去参与制定规则。
他在自己的博客里写了一句话:”我想改变世界,而不是建立一家大公司。与 OpenAI 合作,是把这件事带给所有人的最快方式。
你可以不认同这个选择,但你很难说它不理性。
AWS 悖论,以及 Anthropic 踩到的那条线
有人会说:亚马逊既是最大的云服务商,也是最大的云服务竞争者,开发者照样在用 AWS。为什么 Anthropic 的情况不同?
区别在于,AWS 从来不动你的数据主权和定价主权。你在 AWS 上跑的服务,是你的服务,AWS 不会突然说”你的服务消耗太多资源,明天开始你要多付五倍的钱,否则断掉”。AWS 的边界是清晰的:它提供算力,你来决定怎么用。
Anthropic 动的是另一个维度——它在订阅制和 API 计费之间画了一条线,然后单方面移动了这条线。这对开发者来说不只是价格问题,而是一个信号:你以为的规则,不是真正的规则,真正的规则是我说了算,我可以随时改。
这种单方面移动规则的行为,对于那批把 OpenClaw 深度嵌入工作流的开发者来说,意味着他们之前所有的投入——调试时间、插件开发、工作流搭建——都建立在一个随时可能消失的前提上。
有经验的工程师在下一次选择技术栈时,会把这件事记进”风险评估”里。
被授权的繁荣
我们在讨论 OpenClaw 的时候,其实在讨论一个更大的问题。
在 AI 基础设施还没有真正开放化的今天,所有建立在某个模型公司 API 或订阅体系上的第三方生态,本质上都是一场被授权的繁荣。它的上限,由那个模型公司的商业决策决定;它的存续,由那个模型公司的善意决定。
这不是 Anthropic 特有的问题。OpenAI 可以随时改变 GPT 的调用规则,Google 可以随时调整 Gemini 的定价,任何一家模型公司都可以在某天早上发一封邮件,让一批开发者的工作流归零。
OpenClaw 只是第一个被这个结构性矛盾击中的足够大的案例,让我们看清楚了这件事的真实面目。
那些现在还在别人地基上盖房子的人——不只是 AI 领域,这个问题在每一个平台生态里都存在——你现在的繁荣,有多少是真正属于你的?
这个问题,没有让人舒服的答案。
本文由 @酸奶AIGC 原创发布于人人都是产品经理。未经作者许可,禁止转载
题图来自Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




