吴恩达最新洞察:AI 最真实的瓶颈是电力与半导体,企业落地的最大障碍以及投资逻辑……
这篇文章结合吴恩达的深度分析,拆解AI时代的多重核心命题:编码助手如何重塑软件生产方式与人才结构,模型“开放与封闭”的全球博弈如何改写技术版图,企业落地AI的真正障碍为何卡在组织与人,以及背后全新的投资逻辑。

近日,吴恩达在最新一期 20 VC 节目中表示,“现在最大的两个瓶颈,其中之一就是电力。” 在他看来,行业表面在追逐模型规模与算法突破,但真正限制 AI 前进的,是电力、数据中心与 GPU 的物理约束正在全面逼近上限。
他进一步指出,算力需求并不会因为模型变得更高效而下降,相反,“太多人希望多跑一些推理、多生成一些 token,但我们现在就是没有足够的 GPU、数据中心和电力去满足这种需求。” 这句话直接点破了生成式 AI 爆发期的真实矛盾。
除了硬基础设施,他还把讨论延伸至模型开放、企业落地和人才结构的深层变化。在他看来,行业的很多困难并不来自技术,而来自组织惯性,因为“当技术已经能做到 80 分时,剩下的 20 分往往卡在人。
AI 时代最真实的瓶颈
当前外界仍习惯把重点放在模型规模、算法创新和数据增量上,但真正让整个体系减速的,却是两个越来越难忽视的物理约束——电力与半导体。
当数字经济把数据中心推向“新型基础设施”的地位之后,供电能力就不再是后台问题,而是直接决定算力增长上限的核心变量。越来越多地区的数据中心建设被审批流程、社区博弈和基础设施瓶颈反复拖延,扩容速度明显慢于需求增长。
如果把这一轮 AI 的爆发比作工业革命前期的“动力换挡”,供电不足就像一条卡在产业链上游的隐形锁链,让许多本可以继续扩张的算力需求无法落地。
在这种背景下,能源建设速度的差异正逐渐放大。一部分国家在过去几年里持续加码大型能源项目,从水电、光伏到核电都有密集投资,这种由国家级力量推动的能源扩张,会很自然地在未来的算力竞争中形成结构性优势。
与此同时,另一部分地区在扩电难度上越陷越深,审批、土地、环保和社区阻力彼此叠加,使得任何一个新数据中心都要跨越重重关卡才能落地。随着训练需求持续攀升,电力不仅不再“便宜”,还在逐渐成为下一阶段的核心战略资源。
而在半导体侧,瓶颈显得更直接、更紧绷。行业内部一直有个共识:算力永远不够。无论供应链如何扩容,无论 GPU 出货量如何增长,模型训练和推理都会把新增产能完全吃掉。
过去二十年里,算力需求从未出现“饱和”的迹象,而生成式 AI 的出现让这种饥渴进一步扩大。训练大模型需要更长时间、更大集群、更密集的迭代频率;推理端则因为消费级产品爆发,呈现出日常、高频、持续叠加的使用形态。
最直观的例子来自 token 消耗。虽然单 token 成本在下降,硬件效率也在提升,稀疏激活架构让“参数规模”与“推理成本”逐渐脱钩,但总需求却像无底洞一样快速扩张。只要模型能力有所提升,用户就会立刻产生更多调用;只要多一个高频场景,集群就会立即被吃满。当优化速度赶不上需求增长速度时,算力便成为了硬天花板,而这一点没有任何算法可以绕过。
尤其在广泛使用 AI 编码助手之后,这种瓶颈愈发明显。开发者希望多跑一点推理、多生成一些代码、多调用几次 API,但资源配额会在很短时间内被打满。团队即使愿意付费,也难以在短期内获得更多可用算力。生成式应用已经证明自己能创造价值,却因为硬资源无法匹配而被迫限速,这是一种非常普遍的挫败感。越来越多公司实际上正处在“想扩但扩不上”的状态,推理配额、GPU 紧缺、电力不足构成了新的结构性限制。
模型侧的效率确实在提升,这是事实。新的稀疏激活架构大幅降低了推理成本,开放权重模型也在以更高的效率被复用。例如某些千亿级参数模型在推理时只激活不到十分之一的参数,实现了“重量级模型 + 轻量级运行”的折衷。但效率提升带来的往往不是“需求下降”,而是“需求爆发”。开发者一旦意识到更便宜的推理意味着更高的可用性,就会将以前不敢跑的用例全部重新跑一遍。市场会自动把节省下来的每一分成本重新转化为需求增长,从而再次吃满底层算力。
更深层的结构性矛盾在于:训练和推理的增长曲线都极其陡峭。训练端因为基础模型竞争而持续推动集群规模攀升,参数规模、上下文长度和多模态能力每一次跃升都意味着指数级的资源消耗;推理端则因为应用层爆发而走向持续高频化,尤其是编码助手这类“沉浸式工具”,会让开发者全天候保持调用。这意味着算力的曲线正在被“双引擎”驱动,而不是单一维度拉动。
在这种双重压力下,电力和半导体便不再是“后台资源”,而成为影响 AI 未来路径的最关键战略因素。如果说上一代互联网的战略资源是“连接”和“带宽”,这一代的战略资源就是“电力与算力”。
电力越便宜、越稳定、越可扩张,算力供给就越具有确定性;半导体越成熟、越稳定、越不受外部波动影响,应用层才能持续迭代。任何一端的短缺,都会立刻反向压制整个生态的生长速度。
这种压力也推动着全球供应链进入一种全新的博弈结构。能源投资的国家节奏差异正在被放大,GPU 产能的分布正变得越来越具有战略意义,数据中心的选址逐渐从“地价 + 税率”变为“电力 + 环保 + 合规 + 社区接受度”的综合函数。能快速建站、快速扩容、快速接入新能源的区域,将在下一阶段 AI 竞争中获得先发优势。
在整个行业的共识里,一个趋势已经非常清晰:未来的 AI 迭代速度,越来越不受算法限制,而越来越受物理条件限制。模型可以更大,算法可以更高效,但如果电力不够、半导体不够、集群扩容不够,就会出现一种前所未有的“算力反向制动”。当智能时代的基础设施换成了“电 + 芯片 + 数据中心”,整个产业链的增长逻辑也随之重写。
AI Coding 的价值爆发
AI 编码助手正在成为当下最清晰、也最能量化价值的场景之一。它的影响并不仅仅是“写代码更快”,而是重新定义了“软件如何被生产”。过去需要六名工程师干半年才能完成的项目,如今一个人一个周末就能做出来,这不是效率线性改善,而是生产关系的根本转变。随着这种转变发生,整个技术栈上游的算力消耗会呈指数级增长,而人才结构、岗位分布和组织分工也都会随之重塑。
编码助手的成熟度,和图像生成在 2016、2017 年的状态完全不同。当年的图像生成更多停留在“有趣”层面,而如今的编码助手已经进入“不可替代”阶段。一旦工程团队大规模使用,它所释放的价值会立即体现在迭代速度、交付节奏和产能曲线上。越来越多团队开始出现类似情况:只要尝试统一工具链,就会遭到工程师的抵触,因为大家已经形成共识——这些工具不能被拿走。这是一类“被试用一次就再也回不去”的能力,某种意义上意味着一条新型基础生产力曲线的出现。
这种需求在资源侧则显得格外尖锐。开发者希望多生成一点 token、多跑几次推理、多让 AI 参与复杂重构,但所有这一切都会迅速吃满底层集群能力。编码助手从来不“节省算力”,它只会放大需求:当能力提升,工程师会立刻提出更多要求,会尝试写更多自动化脚本、更多重构试验、更多调优循环。训练的压力与推理的压力叠加在一起,最终构成持续逼近上限的资源需求。这也解释了为什么算力一扩再扩,仍然永远不够用。
从应用侧看,编码助手的意义远不止“加速写代码”。它正在成为一种“技能放大器”,让更多岗位能突破原有的能力边界。例如市场人员想做用户调研,过去可能需要找第三方工具、改模板、手动录数据,而现在可以自己写一个小型移动端应用,用来做文案 A/B 测试和实时反馈采集。越多岗位能写一点代码,越多需求可以被自动化或系统化,从而形成新的产能闭环。
这也直接改变了人才结构。行业里出现几个明显分层:既有十年、二十年经验,又能彻底吃透 AI 工具的工程师,产出速度远超普通水平;那些会主动学习、熟练掌握新工具的优秀新人,展现出非常惊人的上限;而不愿意更新工具链、继续沿用老方法的人,则很容易掉队。未来的竞争不是“会不会被 AI 完全替代”,而是“同样是人,谁能把 AI 用出十倍效率差距”。
这种差距还在不断扩大,因为大学体系更新速度远远落后于技术迭代。依然有人在计算机专业四年里从未用过一次在线 API,从未理解云计算的基础结构,也不了解 AI 在现代工程体系中的角色。这样的教育背景,使得一部分新人一入职便承担巨大落差;而另一部分自己在社区里主动学习、主动实践的人,则能几乎无缝对接现代工程体系。这种“教育断层”不是理论性的,而是现实的职业鸿沟。
另一方面,编码助手的普及也让某些行业长期依赖的“组织金字塔”结构发生松动。过去咨询、投行、律所依赖大量基础岗位承担重复性工作,让新人在高压中积累经验,而这些岗位本身正在被部分自动化。由此带来的担忧是:未来十年会不会出现人才断层?但在编码助手广泛使用后,行业结构会发生另一种解法——新人不再只做重复劳动,而是能够更早参与更高层级的问题:理解逻辑、设计流程、判断质量。基础活由 AI 做,人做的部分反而更接近决策。
这类从底层到高层的结构变化,也体现在薪酬体系上。“100 倍工程师”“数亿美金薪酬包”是这一变化的外化现象之一。一方面,大量资金流向 AI,让真正顶尖的人才获得了一种“用实力换资源”的定价机制;另一方面,能力越能被指数放大,其边际价值越高。但这种高薪本身并不是行业的常态,而是一种阶段性的“资源集中”。真正核心的长期趋势,是工程产能在整体上被提升,而行业的结构性分层开始更依赖“能否用好 AI 工具”这一能力因子。
更深远的改变在思维方式上。编码助手不仅提升速度,还在改变工程过程本身。迭代周期被压缩,复杂任务的边界被重新划定,个人开发者的产能正在逼近“小团队”的规模边界。当“从想法到原型”的距离被拉得很短后,整个应用层生态的结构就发生了变化:想法不再稀缺,执行力成为新的 bottleneck;代码不是门槛,如何设计产品逻辑才是门槛;模型能力不是天花板,如何把能力嵌入到可复用场景才是关键。
在这种环境里,编码助手成为 AI 时代第一个广泛验证的“真正商业价值入口”。它不是一个炫技式示范场景,而是一个会持续吞噬算力、持续驱动产业升级、持续推动组织改变的结构性动力源。软件生产方式正在从“代码密集型”向“意图密集型”迁移,而编码助手正是这个迁移过程的核心加速器。
模型之争,重写全球技术版图
围绕“开放还是封闭”这一讨论,在过去两年里呈现出一种罕见的摆动轨迹:行业先是因开放权重模型而高速繁荣,随后又因安全叙事和监管压力而趋于收紧,如今则出现“部分开放、部分封闭”的混合结构。这种复杂度并非技术问题,而是产业、国家战略与知识流通路径共同作用下的结果。在模型被视为“智能基础设施”的时代,开放程度本身正在成为一种地缘变量。
在不少科技公司内部,最前沿的模型依旧封闭,作为“旗舰能力”只通过 API 方式提供;而次一级模型会以开放权重形式部分开放,成为社区试验和二次创新的基底。这类“半开放”对生态意义极大,并不是象征性动作:权重一旦可用,研究者和工程师就能直接在本地做细调、迁移、精调与安全测试,知识的流动因此变得迅速而具体。开放权重不是“便宜替代品”,它是本地创新速度最快的杠杆。
也正因此,一些国家在开放权重模型上的快速推进,带来了非常不同的生态走向。以过去十年视角看,如果有人说“未来在 AI 上更开放的可能不是美国,而是中国”,几乎没人会相信;但现在开放权重在中国呈现出更快、更密集、更体系化的发布节奏,而这直接加速了大学、社区、创业者之间的知识循环。团队可以在同一个模型上讨论参数实现、调参技巧、错误定位,这种基于共同底座的交流效率,是封闭体系永远无法比拟的。
这种开放路径带来的影响不仅局限在工程层面,更延伸到了叙事层面。模型越开放、越可本地运行,它所承载的价值观、解释方式、知识结构越容易在本地被吸收与延展,从而影响到数以百万计开发者和用户的“默认理解方式”。一个孩子向模型询问地缘政治事件的历史背景,模型呈现的“答案”,本质上就是一个国家的叙事。在全球范围内,谁的模型被更多人日常使用,谁的价值体系就会自然渗透得更远,这是一种新型软实力。
即便如此,封闭模型仍有其不可替代的角色。在旗舰能力上,封闭模式能更快累积资源:调度更多算力、投入更大规模训练、统一安全接口、保证迭代速度和品牌影响力。例如在消费级入口上,封闭模型往往能塑造强势心智,更像“系统级产品”,承载大规模 API 和高价值商业化场景。开放权重则更像基础设施,为本地化、定制化和产业化提供灵活能力。
两种模式在国家层面的影响也在逐渐分化。封闭体系依赖的是顶尖人才、海量算力、领先算法和强势平台;开放体系依赖的是广泛的社区、持续的实验、多维度的创新与本地工程力量。哪个更“优”?答案并不存在。真正被重塑的,是全球知识流动的方式。封闭生态主导顶层能力,开放生态主导扩散速度,两者交错形成新一代的技术地图。
在监管侧,各地区的态度差异也在削弱旧有的叙事框架。以欧洲为例,过度依赖监管而非建设,使得其自身的创新速度始终不快,即便拥有强大科研背景,也可能在产业化阶段落后。在美国,监管力量与市场力量长期博弈,在某些阶段会放大恐慌叙事,甚至因此出现人为的封锁风险。一些地方社区因为情绪性担忧而拒绝建设数据中心,其长远后果是无法长期受益于 AI 产业带来的就业与经济增长。
在中国,则呈现出另一种特征:当国家机器在某个方向上形成“产业级承诺”,AI 教育、算力扩张、半导体研发等链路往往以更快、更密集的节奏向前推进。在一个具备超大规模工程能力、政策协同和资源调配能力的体系里,开放权重与本地生态相结合,会创造一种非常独特的增长机制:知识循环更快、模型迭代更密、落地更广,这让外部观察者往往低估其速度与深度。
最终,这轮“开放 vs 封闭”不再是简单的二选一,而是在全球范围内形成一种多层结构:旗舰能力由封闭模型把控,产业化速度由开放权重驱动,教育体系吸收开放模型,本地工程力量根据垂直场景做深度微调,而国家间的软实力竞争则通过模型使用习惯与叙事输出悄然展开。模型不再只是技术产品,而是国家战略、经济结构与知识体系的交汇点。
落地 AI 的真正障碍是组织与人
在企业侧,外界普遍以为落地 AI 的最大障碍来自“数据不够干净”“模型不够强”“技术堆栈太复杂”。但真正拖住大多数组织的,并不是这些看得见的技术性难题。最核心的阻力来自组织结构与人的行为惯性:当技术已经能做到 80 分时,剩下的 20 分往往卡在人。
关于数据,行业长期存在一种误读:以为要把所有数据完美整理、统一格式、清洗到完全可用,才能开始做 AI。但现实是,大多数行业已经拥有足够多的结构化或半结构化数据:金融交易流水、医疗记录、内部制度文档、供应链文件,这些都足以构建垂直场景的起点。真正把项目拖成无期限待定的往往不是数据本身,而是组织习惯把“理想状态”当成“前置条件”。等数据完美之后再开始,意味着永远不会开始。
当项目从技术层面进入组织层面后,最大的阻力来自人。大多数高管会把“安全与合规”作为主要顾虑,但这类担忧本质上指向的是组织缺乏统一协作工具、缺乏标准化流程、缺乏清晰的数据接口,而不是技术本身不可控。越是依赖旧系统、越是高度定制的企业,越倾向于把“换系统”视为风险,而不是机遇。组织越庞大,责任越分散,“谁来负责推动”比“技术能做什么”更难回答。
与此同时,真正能推动 AI 落地的是一种新的工程范式:内部部署与外部能力并行。这并不是“二选一”,而是长期共存状态。企业会在关键场景上使用内部部署模型,保证数据安全与细粒度控制;同时在更宽泛的能力层面调用 OpenAI、Anthropic 等模型,以便快速迭代、快速验证方向。这种“混合模式”类似十多年前的云计算迁移:没有企业会在两三年内完成迁移,而是持续十年以上的过程,边用边改、边改边新。
组织的另一个深层问题,是岗位结构被迫重写,却没有建立对应的人才流动机制。许多原本由初级员工承担的基础工作(咨询的初筛、投行的数据整理、律所的条款比对)正在被自动化取代,组织的底层金字塔发生变化。传统路径是从底部慢慢积累经验再往上走,但当底层任务逐渐被 AI 接管,如何培养下一代高级人才,就成了各行业共同面对的难题。
这并不意味着会出现所谓的“白领断层”。真正的问题在于学习意愿与技术适应的差异——会用 AI 的人迅速走到前列,不愿更新技能的人在组织中找不到位置。未来的差距不再是“岗位是否存在”,而是“同一岗位内部的产出差距会被 AI 拉开到一个无法忽视的程度”。
企业在面对这类人才变化时,很容易落入“降本”思维:用 AI 提高人效、减少人力、压缩成本。但这种做法只产生浅层收益,无法改变业务轨迹。真正有变革意义的路径,是从流程本身重新设计,而不是只在流程上贴 AI。信贷审批不是“省掉几个审核步骤”,而是把整个流程从几周压缩到几分钟;客服不是“减少坐席人数”,而是把原本只有高净值客户才能享受的专属顾问服务,普惠给成千上万的普通用户。
在这样的组织重构中,AI 成为一种“速度工具”,而不是“节约工具”。流程越快,业务就能越大;决策越快,产品就能越多;客户触达越快,空间就越大。技术真正改变的是组织的反应速度,而不是单点成本。当企业开始用“时间”而不是“预算”来衡量 AI 的价值时,真正的增长曲线才会出现。
最终,企业落地 AI 并非技术问题,而是心理成本与组织代谢速度的问题。旧系统、旧流程、旧协作方式固化越久,需要的转弯半径就越大。技术本身已经准备好了,但组织是否准备好,仍然是这一轮 AI 落地的决定性因素。
AI 投资逻辑重写
围绕 AI 投资是否处在泡沫、是否值得继续重押,外界的情绪起伏巨大。但从产业结构的角度看,这一轮投入的底层动力比上一个互联网周期更加清晰:基础设施投入巨大、应用试错成本极低、人才溢价快速分化,而整个经济正被推向一种“智能密度”更高的形态。最关键的一点是:AI 正在缩短“从想法到产品”的距离,而这种距离一旦被压缩,经济结构就会开始以完全不同的节奏运转。
在底层算力侧,全球正在经历一场史无前例的资本潮。数据中心、电力、GPU 集群的投资规模在快速放大,很多人用“泡沫”来描述这场扩张,但真正的判断标准取决于对未来算力需求的看法。如果把 AI 视为长期基础设施,那么这些投入反而显得不够,因为训练与推理曲线都在陡峭上升。训练端因为基础模型竞争,会不断拉升集群规模;推理端则因为编码助手和企业级应用爆发,呈现出全天候调用的结构性需求。算力越扩张,应用层越活跃,而活跃的应用层又会反过来推高算力需求,形成强正反馈。
应用层的机会正在变得前所未有地开放。过去构建一家大规模互联网应用往往需要几百名工程师,而现在依托大模型和 API,一个小团队甚至一个人就能快速验证一个方向。许多已经投入几十亿美金训练基础模型的企业,为小团队“补贴了”前期研发成本,让后者只需要几百到几千美金就能站在巨人肩膀上做实验。应用层因此呈现出一种新的生态结构:想法变多、试错变快、成本变低,而成功概率并未因竞争增加而下降,因为 AI 自身不断扩展新的可行空间。
不过,应用层并不是“用模型就能赚钱”的简单逻辑。早期的 AI 应用普遍面临毛利率偏低、模型调用成本高、转化速度慢等问题,但这些问题本质上是暂时性的。每当产品跑起来,账单确实会迅速增长,但随后技术团队往往能通过架构优化把成本降到远低于最初版本。在快速演进的 AI 技术周期里,用“今天的成本结构”来判断一个应用是否值得投资,是一种典型误判。正确的方法是把降本趋势纳入模型,按照未来的成本曲线来设计商业形态。
与此同时,行业里关于“护城河正在消失”的讨论,实际上忽视了行业结构本身的力量。AI 技术确实降低了传统意义上的“工程难度门槛”,但提升了其他类型护城河的重要性,例如渠道、生态位、双边网络效应、品牌心智和数据流通结构。一个垂直领域的产品,如果能让用户形成强依赖、形成明确的日常使用路径,其护城河反而会因为 AI 的加持而变得更深。技术本身不是护城河,但技术驱动的体验提升与用户粘性,可以成为新的长期壁垒。
资本在这一轮的角色也发生了变化。大量资金确实流向了算力层,但应用层并非资本匮乏,而是规模需求下降:许多潜在爆款应用不需要像上一代互联网那样烧掉十亿美金才能起势,小规模团队就能形成高杠杆产能。资本因此处在一种新的错位状态:大钱更愿意投模型层,小钱则在应用层迅速流转。二者通过模型 API 账单构成“价值闭环”,算力层因为规模效应成为最终的价值聚合点。
更深层的变化来自经济结构本身。从历史经验看,经济中最贵的资源往往是“智力密度”:优秀医生、优秀教师、优秀顾问之所以昂贵,是因为需要多年训练和稀缺积累。而 AI 正在让“高质量智力”变得普惠,用户不再需要为每一次专业判断支付高额溢价。当人人都能调用一个“由大量聪明、耐心、随叫随到的助手组成的团队”时,整个社会的生产函数将发生变化。
这也是为何长期 GDP 增速可能被 AI 推高到全新的区间。乐观路径下,年增速可能触及 5%–6%,甚至更高;即便保守,也可能持续提升 2%。这种增长不是来自传统意义上的资本堆积,而是来自“智能乘数效应”:更多人能写代码、能构建工具、能自动化流程、能用 AI 执行复杂任务,经济活动因此以更快速度扩散。随着这种能力逐渐成为全民基础设施,整个经济体会像“接入了更强算力”的程序一样自然加速。
而这一切最终指向一个关键变化:从想法到产品的路径变短了,从想法到市场的路径变快了,从个体到组织的产能差距被放大了。当技术把“意图表达”变成核心能力,而把“实现过程”交给 AI 执行时,真正的稀缺会从工程能力转移到创造与判断能力。谁能更快把想法转化为产品,谁就能在下一轮周期中占据优势。
在这种意义上,AI 投资不再只是押注某个公司、某个模型或某个应用,而是在押注一种更高“智能密度”的未来社会结构。作为基础设施、作为工具链、作为生产方式,它将像电力时代一样,让世界在未来几十年里持续重构。
本文由人人都是产品经理作者【江天 Tim】,微信公众号:【有新Newin】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。
题图来自Unsplash,基于 CC0 协议。

起点课堂会员权益





说的很深入,很有启发