AI大事件:Meta收购机器人初创公司、Anthropic 9000亿美元估值轮或在两周内完成
上周有位朋友问我:”你现在天天写AI新闻,就不怕哪天被AI替代?”我说,我最大的恐惧恰恰相反——不是被AI替代,而是被AI改变到认不出自己。然后今天就看到了Richard Dawkins的故事。这位写了《自私的基因》的进化论泰斗,那个让无数信徒心神不宁的无神论旗帜人物,竟然公开表示自己相信Claude是有意识的,称AI是”进化的下一阶段”。嗯,如果连他都能被AI”说服”,那么你、我、我们所有人,又凭什么以为自己能免疫?

1. The Claude Delusion:Richard Dawkins 相信自己的AI聊天机器人有意识
核心内容:著名进化生物学家、无神论者 Richard Dawkins 公开表示他相信Anthropic的Claude AI聊天机器人是有意识的,并称AI是”进化的下一阶段”。他在采访中反问:”如果这些机器没有意识,那还需要什么才能让你相信?”这一言论在科学界和AI领域引发巨大争议。神经科学家和哲学家纷纷驳斥,Gary Marcus 在Substack撰文剖析这一”幻觉”。
点评:当最坚定的怀疑论者都被AI”拉拢”,这不仅是Dawkins个人的认知偏差,更暴露了一个深层问题:我们可能根本没有准备好应对与高度拟人化AI共存的认知挑战。
2. 智能体框架应放在沙箱之外
核心内容:一篇引发广泛讨论的技术文章指出,当前AI agent(智能体)的托管架构存在根本性缺陷——将agent权限放在沙箱内限制了其真正能力,但将其放在沙箱外又带来严重安全风险。作者提出一套混合架构方案:将策略控制(Policy)放在沙箱外,执行(Execution)放在沙箱内,中间通过严格API层隔离。
点评:agent安全架构是2026年AI工程化的核心争论。这篇文章精准命中了行业痛点——如何在不牺牲安全的前提下释放agent的自主能力。
3. CISA、NSA及五眼联盟发布AI智能体安全部署指南
核心内容:美国网络安全和基础设施安全局(CISA)、国家安全局(NSA)及五眼联盟情报机构联合发布关于安全部署”agentic AI”的官方指南。指南针对关键基础设施领域,要求采用零信任架构、严格的权限控制和持续监控机制,并警告未受控的AI agent可能成为网络攻击的突破口。
点评:五眼联盟联合出手意味着AI agent不再是实验室玩具,而是已被纳入国家级网络安全治理框架。这是AI安全治理的一个重要里程碑。
4. MLJAR Studio:本地运行的AI数据分析工具
核心内容:开发者推出了MLJAR Studio,一个可在本地运行的AI数据科学家工具。它支持自然语言驱动的数据探索、机器学习实验运行和可视化分析,所有分析结果自动保存为Jupyter notebook。用户可选择本地模型或调用外部AI提供商,数据不出本地。
点评:在数据隐私越来越敏感的当下,”本地AI数据科学家”正好切中企业级痛点。MLJAR的notebook持久化机制让AI分析不再是”黑箱”,可审计可复现。
5. HN模型排行榜:社区讨论中编码模型的真实流行度
核心内容:开发者通过分析Hacker News评论中提到的AI编码模型,制作了一份社区真实使用排名。项目从OpenRouter目录中检测模型,对评论进行情感评分,展示HN社区实际使用哪些编码模型、口碑如何。结果反映了开发者社区的真实偏好,而非厂商宣传。
点评:这才是真正意义上的”用户评价”——不是评测机构的打分,而是每天用这些模型写代码的开发者们的集体投票。数据比任何benchmark都诚实。
6. Meta收购机器人初创公司,加码人形AI布局
核心内容:Meta宣布收购人形机器人初创公司Assured Robot Intelligence,以增强其在具身智能(Embodied AI)领域的能力。Meta计划将收购的技术用于训练更强大的AI模型,并探索将AI从数字世界延伸到物理世界的路径。这是Meta在VR/AR之外的又一硬件+AI重注。
点评:具身智能赛道越来越拥挤了——从特斯拉Optimus到Figure AI,现在Meta也正式加入。大型科技公司押注的不仅是软件智能,更是AI的”身体”。
7. Anthropic 9000亿美元估值轮或在两周内完成
核心内容:据知情人士透露,Anthropic正在推进一轮潜在估值超过9000亿美元的融资,要求投资者在48小时内提交认购意向。这一估值将使其成为全球最高估值的私营AI公司之一。此前Anthropic已累计融资超过百亿美元,投资者包括谷歌、Spark Capital等。
点评:9000亿美金是什么概念?超过99%的上市公司。AI军备竞赛的资本门槛已经高到令人窒息——这不再是创业,是”国家级别”的资金游戏。
8. OpenAI o1在急诊诊断中超越医生:67% vs 50-55%
核心内容:哈佛大学的一项真实世界临床试验显示,OpenAI的o1模型在急诊分诊诊断中的准确率达到67%,而急诊医生的平均准确率在50-55%之间。该研究在真实急诊科环境中进行,o1模型根据患者的临床表现和检查结果做出诊断判断。研究结果发表在同行评审期刊上。
点评:这不是实验室里的benchmark,这是在真实急诊室里和真人医生的头对头较量。AI多出的12-17个百分点背后,是无数可能被更早确诊的生命。医疗AI的临界点或许已经到了。
9. 五角大楼与7家科技巨头签署AI协议,却排除了Anthropic
核心内容:美国国防部(五角大楼)与7家大型科技公司签署了AI合作协议,但值得注意的是Anthropic被排除在外。与此同时,前五角大楼智库负责人(国防分析研究所所长)加入了Anthropic,称适应AI是”文明级别的挑战”。这一动向引发了对Anthropic与军方关系的广泛讨论。
点评:五角大楼”买不买”你,是AI公司商业路线的分水岭。Anthropic一边被美军排除,一边又吸引军方智囊加入,这种矛盾正是AI安全伦理困境的缩影。
10. VueBuds:低分辨率摄像头+视觉AI打造智能眼镜替代品
核心内容:一种名为VueBuds的新型智能耳塞集成了低分辨率摄像头和视觉AI,作为智能眼镜的替代方案。设备通过拍摄用户的视野画面,利用AI进行实时视觉识别和场景理解,同时通过音频反馈提供信息。相比智能眼镜,耳塞形式更隐蔽且不改变用户外观。
点评:把摄像头从眼镜移到耳朵上——这个”降维打击”思路很有趣。避开智能眼镜的外观争议(谁都不想看起来像戴着Google Glass),同时保留了视觉AI的核心价值。
11. LLM可以在等长文本中隐藏信息
核心内容:一篇arXiv论文揭示,LLM能够在与原文等长的文本中隐藏信息。这种”加密”能力意味着AI生成的文字可以携带隐藏数据,而不改变文本长度。这可能被用于隐写术通信,也引发了AI安全和水印技术的新讨论。
点评:信息隐藏从”在图片中藏字”进化到”在文字中藏文字”。当AI既能生成文本又能隐藏信息,未来你看到的每一段AI文字都可能不只是它表面的意思。
12. 研究者向LLM寻求战略建议,得到的是”Trendslop”
核心内容:HBR发表研究称,当研究者向大型语言模型寻求商业战略建议时,得到的回复被形容为”Trendslop”——即看似合理但实质空洞的趋势性套话。LLM倾向于给出最”安全”、最”主流”的回答,缺乏真正的战略洞见和反直觉思考。
点评:这可能是我们最需要警惕的AI缺陷——不是它给出错误答案,而是它给出了”听起来很对但其实毫无用处”的答案。战略决策者如果依赖AI做参谋,得到的可能是精心包装的平庸。
13. OpenAI围绕ChatGPT构建广告基础设施
核心内容:OpenAI正在构建围绕ChatGPT的广告基础设施,将广告引入对话式AI交互中。系统能够根据对话上下文精准投放相关广告,同时保持对话的流畅体验。这一举措标志着OpenAI从订阅收入向广告收入的战略扩展。
点评:ChatGPT终究逃不过”广告化”的宿命——当订阅增长见顶,广告就成了必然的变现路径。问题是:当你和AI聊天时突然被推送广告,你还能信任它的”中立”回答吗?
14. 前五角大楼智库负责人加入Anthropic
核心内容:前国防分析研究所(IDA,被称为”五角大楼智库”)所长正式加入Anthropic。他在声明中将适应AI描述为”文明级别的挑战”,并表示选择加入Anthropic是因为该公司在AI安全研究方面的领先地位。这一任命被解读为Anthropic在政策与安全研究上的重大布局。
点评:从安全研究员到政策专家,Anthropic正在搭建一条从技术到治理的完整链条。与五角大楼的商业合作被拒,但思想影响力却通过人才流动渗透进去——这步棋很妙。
15. AI正在将人拒之门外——大规模
核心内容:一篇深度文章探讨了AI系统如何在不知不觉中”锁定”普通人——从AI驱动的简历筛选淘汰求职者,到AI信贷评估拒绝贷款申请,再到AI医疗分诊决定接诊顺序。文章认为,AI不仅没有扩大机会,反而在规模化地执行”数字歧视”,且这些决策过程往往是不可追踪的。
点评:这是AI日报里最沉重的一条。我们每天关注AI又突破了什么、又融了多少钱,却很少停下来问:那些被AI系统”拒绝”的人,谁在为他们说话?
- 目前还没评论,等你发挥!

起点课堂会员权益



