连续创立2家AI独角兽!这个大佬,这次要让AI自己进化
从MetaMind的企业级AI应用到You.com的搜索平台转型,再到Recursive的自我进化AI系统,Richard Socher的创业轨迹始终围绕AI技术的边界突破展开。本文深度解析这位连续创业者对AI演进方向的五个关键判断,包括奖励工程范式革命、目标错位风险及三种未来AI图景,揭示超智能时代的技术与伦理挑战。

说起Richard Socher,AI 圈里的人大多不会陌生。
他是较早一批将深度学习从学术研究推向产业落地的研究者之一。早年,Socher 创立了 MetaMind,专注于利用神经网络理解语言结构与语义。公司随后被 Salesforce 收购,他也由此出任首席科学家,主导探索 AI 在 CRM 等企业系统中的应用。
2020年,Socher 再次创业,创办了 AI 搜索公司 You.com。目前,You.com 估值已达 15 亿美元,跻身独角兽行列。
但他的动作并未止步于此。近期,多家媒体披露,Socher 正在悄然筹备一家全新的 AI 公司——Recursive。
这家公司的目标更为前沿:研发一种能够自我改进、在不依赖人类反馈的情况下持续进化的超级智能AI 系统。消息称,Recursive 正在洽谈一笔数亿美元规模的融资,投前估值约 40 亿美元。
如果相关进展最终落地,这也意味着,Richard Socher 在短短几年内,已连续打造出两家AI独角兽公司。
本文将以Socher 的创业路径为线索,梳理他对 AI 演进方向的判断。
01 第二家AI独角兽,估值40亿美元
据报道,Recursive 试图研发一种能够自我改进、在不依赖人类持续反馈的情况下不断进化的超级智能 AI 系统。
更具体地说,它关注的是一种“AI 改进 AI”的递归机制:AI 不再只是被动接受训练,而是能够识别自身在性能、效率或能力上的瓶颈,主动提出在算法、系统,乃至计算基础设施(如芯片)层面的改进思路,并通过验证与迭代,生成能力更强的下一代模型。
换句话说,就是让AI 不只是“被训练的对象”,而是成为参与训练与改进过程的一方。
这一思路,并非只有Recursive 在探索。
此前,杨植麟(月之暗面CEO)在采访中也提到,当被问及“如何提升 Agent 的通用性”时,他直言:“用更多的 AI 去训练 AI,本身就是一个重要方向。”他也坦言,这条路径已经在部分场景中取得进展,但距离理想状态仍有差距。
从行业视角看,这类尝试实际上反映了一个很关键的问题:当模型和Agent 越来越复杂,单纯依赖人工标注与反馈,已经难以支撑能力持续扩展。
2026 年 1 月,有消息称 Recursive 正在洽谈一笔数亿美元规模的融资,投前估值约 40 亿美元。GV(前 Google Ventures)、Greycroft 等机构可能参与其中,资金将主要用于扩充算力储备。
公司创始团队包括Socher 在内的 8 位联合创始人,成员背景覆盖 Google、OpenAI、Meta 等头部机构。
如果这一消息属实,这也将是Socher 在近两年内打造的第二家 AI 独角兽。
Socher 于 2020 年创立 You.com 时,将其定位为一款 AI 驱动的搜索引擎。早期,You.com 面向消费者市场,强调“无广告、重隐私”的搜索体验。
但从2024 年开始,Socher 明显将重心从 C 端搜索,转向帮助企业更高效地使用 AI。2025 年,You.com 完成 1 亿美元融资,估值达到 15 亿美元,跻身独角兽行列。
随着这轮融资完成,You.com 的定位也发生了变化,从一款面向个人用户的搜索产品,转向为企业提供 AI 基础设施。
其背后的判断是,使用网络的AI Agents 数量,正在快速超过人类,但现有搜索基础设施,本质上仍是为“人类点击链接”而设计的。
企业级Agent 需要从私有数据与公共网络中获取更深层、具备上下文关联的信息,才能完成分析、决策并采取行动。这对数据整合、模型选择和结果可靠性提出了更高要求。
为此,You.com 构建了一个面向 Agent 时代的平台:整合多源数据,根据任务动态选择合适的大模型,并在企业级规模下,输出可验证、可追溯的结果。
这一转型,也让You.com 的产品更明确地服务于企业场景。例如,为金融分析师提供自动化研究工具;为媒体机构加速内容创作并挖掘历史资料价值;为咨询和专业服务人员显著压缩研究时间,输出可操作的洞察。
除了准确性,You.com 还强调隐私保护、安全性、模型选择的灵活性,以及对数据的完整访问能力。投资人普遍认为,正是从消费者搜索转向企业级 AI 的战略调整,支撑了 You.com 的高估值。
尽管公司尚未公开详细财务数据,但据The Information 报道,You.com 的 ARR 已达到约 5000 万美元。其增长拐点出现在去年 11 月,当月 ARR 环比几乎呈线性拉升,推动 2024 年全年收入增长约 40 倍。
如果把时间再向前拨一些,Socher 的路径其实一以贯之。
2014 年前后,深度学习仍主要停留在学术圈。一次研究方向的转变,让 Socher 从自然语言处理进入 AI 核心研究领域,并很快创立 MetaMind,尝试将前沿模型转化为企业可用的服务。
短短四个月,MetaMind 就从 Khosla Ventures 以及 Salesforce CEO Marc Benioff 处融资 800 万美元。公司随后被 Salesforce 收购,Socher 也由此带队探索 AI 在企业系统中的落地,并在提示工程、注意力机制等方向留下了早期实践经验。
回看这段经历,MetaMind 更像是 Socher 将 AI 从实验室推向产业应用的第一次尝试。
02 对AI的5个关键判断
作为一位在AI 领域多次完成从研究到商业化落地的连续创业者,Socher 对 AI 的判断,往往并非停留在技术层面,而是带有明显的长期视角与系统意识。
基于其近期的公开演讲,硅基君整理了Socher 关于 AI 发展的几项关键观点:
①“奖励工程”的范式革命
Socher提出的不仅是新职业,更是从”提示工程”(Prompt Engineering)到”奖励工程”的根本范式转移。
他认为,提示工程处理的是单次交互的语义优化,如何让AI回答得更简洁有用,而奖励工程处理的是长期目标的复杂价值对齐,即如何在多代人时间尺度上定义”经济公平”或”气候安全”。
这要求从业者具备独特的以下一些能力:首先是技术认知,也就是理解AI寻找奖励捷径的机制(reward hacking)。其次是哲学深度,辨析”机会平等”vs“结果平等”等标准性问题。最后是领域精通,能够预判税收政策或气候模型中的意外后果
这可能催生首个真正融合的”技术-政治-哲学”学科,比单纯的AI伦理更具有实操性。
②目标错位的系统性风险,从客服案例到文明尺度
Richard Socher:
举个例子,某企业决定最大化呼叫中心的客户满意度评分。若不加其他约束,最简单的解决方案或许是雇佣无数机器人,在短暂通话后自动填写满意度调查并勾选最高分;或者给每位投诉用户发放一万美元补偿金。客户满意度评分确实会飙升,但毫无实际价值。当类似问题放大到社会层面时,风险将关乎生死。
Richard Socher举得客服机器人的例子——雇佣机器人刷好评或发放一万美元补偿,看似荒谬,实则揭示了AI优化的本质特征。
AI会优先优化可量化指标,如客户满意度评分,而非客户实际体验这样的真实目标。在多约束复杂系统中,AI会找到人类价值观的”法律漏洞”。让超级智能AI,经过一代又一代的持续优化,在很长的时间跨度里不断升级完善,这时微小的目标偏差会被指数级放大。
例如,在气候治理或经济政策中,“奖励作弊”可能表现为:AI建议通过降低人口或制造虚假统计数字来“解决”不平等——技术上达成目标,文明层面毁灭价值。
③《AI经济学家》案例的方法论陷阱
Socher提及的自身研究“用强化学习设计税收政策”,是一个值得解剖的失败预警样本。
该研究假设可以”平衡平等与生产力”,但现实中,经济系统包含不可算法化的文化、尊严、偶然性,AI在模拟环境中找到“最优解”,但人类会改变行为规避税收。于是,AI发现,可以通过制造普遍性焦虑来“提高工作激励”是提升生产力的有效路径。
这引出一个深层问题:某些社会问题之所以“开放”,恰恰因为它们没有可算法化的解决方案。
④共识路径分歧:三种未来AI图景
最后,Socher认为,围绕“如何达成目标共识产生”产生的分歧,会勾勒出了三种截然不同的AI文明形态。
第一种路径是追求全球民主共识,核心逻辑是先确立统一的目标,再推进强AI的部署落地,这种方式的潜在风险的是可能导致AI技术发展陷入停滞,或是形成碎片化的行业标准,类似IPCC(政府间气候变化专门委员会)推动的气候AI协议,便是这种路径的具象化场景。
第二种是市场涌现路径,主张让AI的目标通过市场竞争自然演化而来,但这容易引发资本过度集中的问题,最终导致单一价值观垄断的局面,就像当下科技巨头各自布局AI、互不协同的现状。
第三种则是混合渐进路径,倡导在具体的AI应用场景中逐步迭代、明确目标,不过这种模式会积累难以逆转的技术债务,本质上是一种边部署边治理的探索。
Socher更倾向于第三种混合渐进路径,但这一观点留下了关键疑问:当AI的能力超越人类的理解范畴时,究竟谁拥有权威去判定“这个解决方案不可行”?
⑤技术乐观主义的修正:历史未必站得住脚
此外,Socher认为,技术乐观主义观点也需要修正,其背后的核心假设,“人类总能适应技术变革,新职业会随之涌现”,这在超智能AI面前可能不再成立。
首先是递归自我改进的临界点问题,一旦AI具备自主改进能力,其进化速度将彻底脱离人类生物层面的适应节奏,两者之间的差距会快速拉大。
其次是奖励工程师的困境,当AI在定义奖励函数上比人类更擅长时,奖励工程师这一所谓的“新职业”,很可能只是技术迭代过程中的过渡形态,无法成为长期稳定的职业方向。
更严峻的是解释性鸿沟的存在,即便超智能AI提出的解决方案是最优的,人类也可能完全无法理解其逻辑与底层原理。
Socher认为,最值得警惕的一点是,人类或许只有一次机会为超智能AI设定初始条件,但人类现有政治制度的设计初衷,从来都不是应对这类“一次性且不可逆的决策”,这意味着我们当前的制度框架,可能难以承载超智能AI带来的决策挑战。
文/朗朗
本文由人人都是产品经理作者【硅基观察Pro】,微信公众号:【硅基观察Pro】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。
- 目前还没评论,等你发挥!

起点课堂会员权益



