为什么你越努力越焦虑?因为 AI 正在按“新逻辑”定价每一个人
未来几年,AI人才将分为两类:普通操作者和稀缺的系统型人才。本文深入探讨了2025年后AI人才红利的归属,揭示了真正的稀缺技能,并为普通人、程序员和职场人提供了转型建议。

先把结论说在前面:
未来几年里,所有跟 AI 有关的岗位,会被粗暴地分成两类人——
一类,是还停留在「会调包、会写点 Prompt、会用一下 Copilot」的普通操作者;
另一类,是真正能把模型关进「系统」里,让它又快、又省、又稳、又能挣钱的系统型人才。
前者很快会被 AI 自己吞掉,后者,正在变成这波浪潮里最稀缺、溢价最高的那拨人。
这篇文章,我想跟你系统拆一件事:
2025 之后,到 2030 之前,这波 AI 人才红利到底给谁?
普通人、普通程序员、普通职场人,还有没有机会?
真正的「稀缺技能」到底长什么样?
一、游戏规则已经改了:从「会训练模型」到「能养得起模型」
过去两年,很多人对 AI 的理解停在两个关键词:
「大模型」+「Prompt 工程」。
但 2025 开年这几件事,其实已经把方向悄悄拧过去了:
企业不再问:「我能不能搞个自己的大模型?」
而是开始问:「我能不能把现有模型,以可控的成本,稳定、低延迟地跑在我的业务里?」
换句话说,从「谁的模型更强」,变成了「谁能把模型养活」。
这背后有三层现实:
第一,模型自己在疯狂卷价。
开源模型越来越多、越来越强,Llama、Mistral 一波接一波,大模型本身越来越接近「基础设施」。
模型本身不再是护城河。
第二,真正贵的是推理成本。
你每多一个用户,请求多几毫秒,背后都是实打实的 GPU 账单。
能把推理成本砍掉 30%,就是直接动到了利润表。
第三,业务要的是「生产系统」,不是「炫技 Demo」。
公司不缺能做 Demo 的人,缺的是能把 Demo 变成 7×24 小时在线服务的人。
要考虑容错、监控、评估、限流、合规、权限、人机回路……所有传统工程问题,通通叠在 AI 上。
所以,2025 之后的 AI 人才金字塔,顺序已经完全反过来了:
- 塔底,是会用模型、会写 Prompt、会做简单微调的人,供给开始过剩;
- 塔中,是能做一点系统集成、能把 AI 接到业务里的人,价值在抬头;
- 塔尖,是三类人: 一类是懂 AI 基础设施和推理优化的工程师; 一类是能编排复杂智能体工作流的「Agentic 工程师」; 再一类,是在具身智能、AI for Science 这些交叉领域里,既懂科学又懂模型的「双语者」。
他们共同的标签只有一个:
不再停留在「模型本身」,而是拿模型当「原材料」,去做系统工程。
二、金字塔顶端第一类人:把 GPU 当算盘用的 Infra 工程师
说残酷一点,现在很多所谓「AI 岗」,干的事情本质上是:
调现成模型、写业务逻辑、堆显卡。
这一套,在算力宽松期还能糊弄过去,但现实已经变了:
- 大厂一年几百亿的 AI CapEx,不是为了让你开着 70B 模型帮用户写作文;
- 初创公司烧钱烧到手抖,「每 1000 token 成本」会被算得非常细;
- 一大堆团队拿不到顶级 GPU,只能在「算力贫乏」条件下硬挤性能。
在这种环境下,真正值钱的,是那拨能「直接给利润表提速」的人:
- 通过底层优化,把推理成本砍掉三分之一;
- 或者在同样的显存下,把吞吐量翻一倍;
- 或者在一堆「过气旧卡、混搭硬件」上,把大模型跑得稳、跑得动。
他们做的事情,听上去有点「不性感」,但非常关键。
1)先看清敌人:推理的真正瓶颈不是算力,而是内存
很多人以为,GPU 就是「算得快」。
但大模型推理真正在卡的,不是「算」,而是「搬数据」。
- 模型参数、KV Cache 全都在抢那点显存和内存带宽;
- 绝大多数时候,GPU 核心在干的事是:等数据搬过来。
所以,Infra 工程师每天琢磨的是:
- 怎么让数据更连续地「喂」进算子;
- 怎么减少无意义的内存读写;
- 怎么用同一块 KV Cache,服务更多并发。
这就是为什么,Triton 这种语言开始爆火。
它帮你用接近 Python 的写法,写出性能接近手搓 CUDA 的内核,去干三件事:
- 把多个小操作融合成一个算子,减少内存往返;
- 按照 GPU 内存布局优化访问模式,避免乱跳;
- 为各种奇怪形状的矩阵、注意力模式,写定制内核。
你不需要天天搞新论文,你只要搞定一两个关键算子,就足够让业务线给你跪着叫爸爸。
2)vLLM 这类推理引擎,已经成了新底座
如果你还在用最原始的「Transformers + 手写循环 + Flask API」堆推理服务,只能说,你已经站在了「性能鄙视链」的最底端。
现在的标配,是一整套为推理优化的引擎,比如 vLLM。
它玩了两个非常关键的点:
- 第一个叫 PagedAttention,把 KV Cache 按「页」切开,像操作系统虚拟内存那样管理。 不再需要一次性预留一大坨连续显存,显存利用率直接拔升。
- 第二个叫 Continuous Batching,连续批处理。 不等一批请求全部结束,谁先结束谁先让位,新流量立刻补上。 对用户来说,排队时间大幅下降,系统整体吞吐还更高。
你会发现,这已经不是「AI 问题」,而是操作系统、编译器、分布式系统的问题。
所以,真正的 Infra 稀缺人才,是那拨能把传统 CS 知识「迁移」到大模型世界的人。
3)在「穷人版算力」下的极致优化,是一条中国工程师的隐形优势
还有一类技能,中国工程师天然有优势:
在拿不到顶配 GPU 的前提下,把模型压到「刚好不死」。
这里有两块:
- 模型压缩:INT8、FP8、4bit 量化、蒸馏、剪枝,把 70B 模型压成能跑在一两张卡上的版本,还能保持可用精度;
- 异构调度:CPU、旧 GPU、国产 NPU 混搭,什么便宜用什么,靠调度和分片把它们拧成一台「用得起的超算」。
你可能觉得这很“土法炼钢”,但现实是——
整个亚洲、拉美、中东一大票公司,未来都要走这条路,真正能在约束条件下做优化的人,非常稀缺。
三、第二类塔尖人才:从写 Prompt 到写「认知架构」的 Agent 工程师
很多人还停留在「Prompt 工程师」三个字上,其实这条路已经走到尽头了。
模型越来越聪明,Prompt 越来越「容错」,那种「背十句咒语」的时代会很快被抹平。
真正有价值的,不是你一句话怎么问,而是你能不能设计出一整套「智能体工作流」:
- 模型只是其中的大脑;
- 外面还有工具调用、状态机、记忆、评估、重试、人机回路;
- 整个系统要能在复杂业务里跑得稳。
我们可以把这一类人叫做:Flow Engineer 或「认知架构师」。
1)线性链已经不够用了,系统要变成一个「有记忆的图」
传统玩 RAG 的思路,是一条直线:
用户提问 → 检索文档 → 喂给模型 → 输出答案。
这套东西,已经被卷成基础配置。
现在真正难的是:
- 用户提了一个模糊问题,系统得先帮 ta 把问题拆开;
- 然后多轮检索、比对、汇总;
- 中间随时发现「信息不够」「方向错了」要重新规划;
- 甚至在某些关键节点,人需要插进来。
这就是为什么,像 LangGraph 这种「图式工作流框架」开始爆火。
一个成熟的 Agent 系统,背后往往是一张有状态的图:
- 节点是不同角色:规划、检索、分析、写作、评估、调用工具……
- 边是不同的流转路径:正常路径、失败重试、人工审批分支……
- 图上还挂着一块「共享记忆」,记录用户上下文、历史决策、外部环境。
这已经完全不像「写 Prompt」,更像在写一个「会思考的状态机」。
2)「多智能体」是生产力,不是噱头
你可以把智能体理解成一堆「性格不同的虚拟员工」:
- 有人负责拆需求,有人负责写代码,有人负责写文档,有人负责挑错;
- 他们互相对话、扯皮、纠错,你在旁边只看结果。
看起来很爽,但要在真实业务里跑起来,有几个硬门槛:
- 你得为每个智能体定义清晰的边界:它负责什么、不负责什么;
- 你得设计好「交班规则」:什么时候交给下一个智能体,失败了怎么退回;
- 你得想好「停机条件」:防止一群模型在那儿自言自语死循环。
所以,真正稀缺的不是「我会用某个多 Agent 框架」,而是:
- 我能画出这套系统的完整状态图;
- 我能用日志和指标分析它哪里容易发疯;
- 我能把“AI 想干的事”翻译成“业务真正允许的事”。
3)高阶 RAG:从「检索」到「自己知道自己不知道」
还有一块正在被严重低估的,是高阶 RAG。
大多数人做 RAG,是「有啥喂啥」,模型查完就回答。
真正成熟的系统,会多做几步:
- 先分析问题,判断「能不能靠现有知识回答」;
- 如果答案不确定,就自己规划检索策略:查哪个库、查几轮、换什么关键词;
- 查完之后,还要自己评估置信度,必要时把结果标成「建议人工复核」。
这背后,都是一整套「反思 + 自我纠错」的设计。
你要把「思维链」「思维树」「反思」这些本来写在 Prompt 里的东西,迁移到系统层。
所以,Agent 工程师本质上干两件事:
- 向下,懂得怎样把模型接到各种工具上,把复杂任务拆成一张「图」;
- 向上,能把一个模糊业务诉求,翻译成一套多步决策流程。
这就是为什么,我更愿意把这拨人叫做「认知架构师」,而不是「Prompt 工程师」。
四、第三类塔尖人才:具身智能与 AI for Science——跨界「双语者」
还有一条赛道,门槛很高,但一旦进去了,护城河极深:
具身智能 + 科学智能。
它们有一个共同特点:
不仅要懂模型,还要懂物理世界、化学世界、生命世界的规律。
1)具身智能:让模型走出屏幕,直接操控物理世界
你可以把具身智能理解成:
把一个大模型塞进机器人身体里。
它要做的,不只是「看懂画面」「听懂指令」,而是:
- 把「把桌上的红色杯子放进柜子」这种话,翻译成一连串精确的关节动作;
- 在不确定、噪声、遮挡、摩擦力乱七八糟的真实环境里,完成任务。
这背后,有三个必备能力:
- 多模态:同时处理 RGB 图像、深度信息、激光雷达、关节状态等一堆传感器输入;
- 仿真:在虚拟环境里大量练习,通过「域随机化」把光照、纹理、摩擦系数各种打乱,让策略在现实里也站得住;
- 中间件:把 PyTorch 里跑出来的策略,嵌进 ROS2、实时系统、驱动里,保证不延迟、不抖动。
你会发现,这个岗位的「双语」是:
一边是模型和算法,一边是真实世界的工程控制。
2)AI for Science:「懂科学又懂模型」的人,直接站在下一轮范式上游
另一条交叉赛道,是把 AI 用在生物医药、材料科学、能源、半导体这类硬核科学上。
- 在药物发现里,大模型学的是蛋白质结构、分子间作用力,帮你把 4–6 年的临床前周期压缩;
- 在材料科学里,模型给的是「这组元素 + 这组晶格结构」有没有可能形成更轻、更强、更稳定的新材料;
- 在计算物理里,它帮你把昂贵的 DFT、仿真算一次,后面全用近似模型替代。
这里的「稀缺」非常直接:
- 你既要看得懂论文里的方程,也要看得懂 Transformer 的结构;
- 你既要知道现实实验怎么做,也要知道数据怎么标、模型怎么评估。
这种「科学 + AI」的双语人才,数量极少,但对产业价值极高——
他们直接站在下一轮技术革命的原点。
五、地缘分工之后,你该怎么选赛道?
放大到全球来看,其实已经形成了一个很有意思的「人才版图」:
- 美国在做「全栈 + 前沿」,从大模型架构到系统框架,一整套标准都在那边定;
- 中国在「约束条件下的极致工程化」和「具身智能产业化」上跑得很快;
- 欧洲在「AI 治理、合规」和「科学智能」上积累很深。
对个人来说,更重要的问题是:
我们应该在这张版图里,给自己找什么位置?
如果你有技术背景,我的建议很简单:
先在下面三件事里选一条做深:
- 往下扎:AI Infra / CUDA / Triton / vLLM / MLOps,把自己变成那种「能让模型跑得快又稳」的人;
- 往中层扎:Agentic AI / LangGraph / 流程编排,把自己变成「认知架构师」;
- 往交叉扎:Embodied / AI for Science / 行业深度结合,把自己变成「双语者」。
三条路共通的一点是:
你的工作重心,从「自己产出内容」
变成了「设计系统 / 工作流 / 架构,让模型替你干活」。
六、那普通技术人,怎么在 12 个月内完成转型?
很多技术人现在的典型状态是:
Python 会一点,PyTorch 过过教程,微调玩过几次,业务里会调一下 API。
老实说,这个水平,在 2025 之后会非常危险——
因为这些事情,模型自己就能教新人做了。
如果你已经有一定工程基础,我会建议这样一条路线(非常落地):
第 1–3 个月:把环境和底层认知打牢
这三个月你只干三件事:
第一,搞定一台靠谱的机器和开发环境。
Ubuntu + CUDA + Docker + 一块还过得去的 RTX 卡。
别再用各种魔法版环境,生产上没法复用。
第二,把 Python 和异步编程补齐。
你不用做数据科学家,但要能写稳健的服务端、异步请求、日志监控。
第三,搞明白大模型的「执行链条」:
从请求进来 → Token 化 → 前向推理 → KV Cache → 输出 → 日志和指标。
你要能用监控工具看到:延迟卡在哪、显存耗在哪、吞吐量是怎么被拖垮的。
第 4–7 个月:选一条赛道,做出能打的 Side Project
不要贪多,只要一个方向:
如果选 Infra,就做一个「迷你版推理服务」:
- 用 Docker + FastAPI 把一个开源模型跑起来;
- 再尝试用量化、vLLM、Triton 慢慢替换底层组件;
- 同时用压测工具打,记录每次改动对延迟和成本的影响。
如果选 Agent,就做一个「企业级智能体 Demo」:
- 比如做一个深度研究助手,自动拆问题、查资料、做总结、给引用;
- 用 LangGraph 画出完整的状态机,把所有分支和失败路径设计清楚;
- 重点不是「看上去有多聪明」,而是「错误率、重试策略、人机回路怎么做」。
如果选 Embodied,就先从纯仿真开始:
- 用 Isaac Sim 或 Gazebo 搭一个简单场景;
- 让一个虚拟小车只靠摄像头画面学会避障、到达目标位置;
- 把整个训练、评估、部署流程写成一篇工程笔记。
这阶段的目标很简单:
拥有一个你能从「架构、实现、优化」三层完整讲清楚的项目。
第 8–12 个月:工程化和作品集
最后四个月,你要做两件经常被忽略的事:
第一,把你的项目「生产化」。
- 所有服务 Docker 化;
- 加上基础监控:请求量、延迟、错误率、Token 成本;
- 尝试做一个最简单的自动评估机制,让系统自己对自己的输出打分。
第二,把你的项目「故事化」。
- 把架构图画出来;
- 把关键决策写下来:你为什么用这个框架、为什么不用另一个;
- 把性能数据做成表格,对比「优化前 / 优化后」,写清楚 trade-off。
这些东西,不仅是简历内容,更是你在团队里说服别人的「谈资」。
一个能拿出完整技术叙事的人,永远比一个只会喊「我会 XXX 框架」的人值钱。
七、那非技术人呢?有没有出路?
很多非技术背景的同学,这两年被信息吓到了:
- 一会儿是大模型、向量数据库、RAG;
- 一会儿是 CUDA、Triton、vLLM;
- 一会儿是各种智能体框架、自动化工具。
看上去,每一个词都很陌生。
但如果你仔细拆一下,会发现,AI 把「技术门槛」压低的同时,反而推高了一类人的价值——
那就是能够设计「人机协同流程」、能做「认知判断」的人。
我会给非技术人一个新的职业定位:
认知架构师 + 公民开发者。
1)你的武器,不是代码,而是结构化思维
所谓「认知架构师」,不是让你去写算法,而是让你做三件事:
- 用结构化的方式向 AI 提需求,让它按你的逻辑思考,而不是暴力发挥;
- 设计一整套「AI 参与你工作流」的流程,而不是单点调用;
- 在关键节点做「判断」而不是「操作」,你负责拍板,AI 负责干活。
举两个非常具体的例子:
- 用「思维链」逼 AI 展开过程,而不是直接报答案;
- 用「思维树」让 AI 先列出几套方案,再让它自己对比优劣,你再做终局决策。
这些能力,本质上是「逻辑拆解 +沟通表达」,反而是很多文科背景更擅长的。
2)你的第二个武器,是低代码 & 自动化工具
低代码平台现在非常成熟了:
- Zapier / Make 可以帮你连起各种 SaaS 工具,把工作流自动跑起来;
- Coze / Copilot Studio 之类的智能体工厂,可以让你拖拖拽拽,就做出一个「懂你业务的 AI 助手」。
你不需要会写 Python,就能把一套「用户填写表单 → AI 生成报告 → 自动发邮件 → 写入表格」的流程,搭成一个自动系统。
只要你在某个业务场景里工作得足够久,你就天然比程序员更懂:
- 哪一步可以自动化;
- 哪一步要保留人工判断;
- 哪一步可以用 AI 帮忙写草稿;
- 哪一步必须由人来担责。
这就是你的机会。
八、最后:AI 自我自动化的时代,人真正的护城河是什么?
我一直在强调一个观点:未来几年,AI 会非常快地自动化掉「操作层」的工作,但会极大抬高「系统层 + 判断层」的溢价。
对技术人来说,两条最安全的避风港是:
- 向下,理解算力、理解推理、理解 Infra,把模型变成「一块高效的芯片」;
- 向上,理解业务、理解决策、理解认知,把模型变成「一支听你指挥的数字团队」。
对非技术人来说,你要刻意放大的,是四种能力:
- 拆解问题、设计流程,把任务变成步骤;
- 与 AI 协作,而不是被 AI 牵着走;
- 审美、判断、合规意识,做那个「最后说 Yes/No 的人」;
- 把自己的经验和知识,慢慢沉淀成一套「可以交给 AI 执行的规则」。
AI 不会替代「人」,它会替代的是——
只会机械执行流程、只会重复劳动、只会照抄模板的那一拨人。
真正被放大的,是那些:懂一点技术,懂很多业务,又愿意花时间理解系统、理解人的人。
如果你看到这里,只需要记住一句话:现在再把自己定位成「写代码的人」或「写文案的人」,都太窄了。
你应该把自己定位成:
——能指挥一整个 AI 军团,替你干活的那个「总指挥」。
AI 时代的护城河不是知识,而是思考方式。
而这,恰恰是 2025–2030 这五年,普通人还能抓住的,最大的结构性机会。
专栏作家
陆晨昕,公众号:晨昕资本论/晨昕全球Mkt ,人人都是产品经理专栏作家。资深媒体人,创业者,专注于科技&互联网&内容&教育行业深度研究。
本文原创发布于人人都是产品经理,未经许可,禁止转载。
题图来自 Unsplash,基于CC0协议
- 目前还没评论,等你发挥!

起点课堂会员权益




