为什么你越努力越焦虑?因为 AI 正在按“新逻辑”定价每一个人

0 评论 1315 浏览 1 收藏 26 分钟

未来几年,AI人才将分为两类:普通操作者和稀缺的系统型人才。本文深入探讨了2025年后AI人才红利的归属,揭示了真正的稀缺技能,并为普通人、程序员和职场人提供了转型建议。

先把结论说在前面:

未来几年里,所有跟 AI 有关的岗位,会被粗暴地分成两类人——

一类,是还停留在「会调包、会写点 Prompt、会用一下 Copilot」的普通操作者;

另一类,是真正能把模型关进「系统」里,让它又快、又省、又稳、又能挣钱的系统型人才。

前者很快会被 AI 自己吞掉,后者,正在变成这波浪潮里最稀缺、溢价最高的那拨人。

这篇文章,我想跟你系统拆一件事:

2025 之后,到 2030 之前,这波 AI 人才红利到底给谁?

普通人、普通程序员、普通职场人,还有没有机会?

真正的「稀缺技能」到底长什么样?

一、游戏规则已经改了:从「会训练模型」到「能养得起模型」

过去两年,很多人对 AI 的理解停在两个关键词:

「大模型」+「Prompt 工程」。

但 2025 开年这几件事,其实已经把方向悄悄拧过去了:

企业不再问:「我能不能搞个自己的大模型?」

而是开始问:「我能不能把现有模型,以可控的成本,稳定、低延迟地跑在我的业务里?」

换句话说,从「谁的模型更强」,变成了「谁能把模型养活」。

这背后有三层现实:

第一,模型自己在疯狂卷价。

开源模型越来越多、越来越强,Llama、Mistral 一波接一波,大模型本身越来越接近「基础设施」。

模型本身不再是护城河。

第二,真正贵的是推理成本。

你每多一个用户,请求多几毫秒,背后都是实打实的 GPU 账单。

能把推理成本砍掉 30%,就是直接动到了利润表。

第三,业务要的是「生产系统」,不是「炫技 Demo」。

公司不缺能做 Demo 的人,缺的是能把 Demo 变成 7×24 小时在线服务的人。

要考虑容错、监控、评估、限流、合规、权限、人机回路……所有传统工程问题,通通叠在 AI 上。

所以,2025 之后的 AI 人才金字塔,顺序已经完全反过来了:

  • 塔底,是会用模型、会写 Prompt、会做简单微调的人,供给开始过剩;
  • 塔中,是能做一点系统集成、能把 AI 接到业务里的人,价值在抬头;
  • 塔尖,是三类人: 一类是懂 AI 基础设施和推理优化的工程师; 一类是能编排复杂智能体工作流的「Agentic 工程师」; 再一类,是在具身智能、AI for Science 这些交叉领域里,既懂科学又懂模型的「双语者」。

他们共同的标签只有一个:

不再停留在「模型本身」,而是拿模型当「原材料」,去做系统工程。

二、金字塔顶端第一类人:把 GPU 当算盘用的 Infra 工程师

说残酷一点,现在很多所谓「AI 岗」,干的事情本质上是:

调现成模型、写业务逻辑、堆显卡。

这一套,在算力宽松期还能糊弄过去,但现实已经变了:

  • 大厂一年几百亿的 AI CapEx,不是为了让你开着 70B 模型帮用户写作文;
  • 初创公司烧钱烧到手抖,「每 1000 token 成本」会被算得非常细;
  • 一大堆团队拿不到顶级 GPU,只能在「算力贫乏」条件下硬挤性能。

在这种环境下,真正值钱的,是那拨能「直接给利润表提速」的人:

  • 通过底层优化,把推理成本砍掉三分之一;
  • 或者在同样的显存下,把吞吐量翻一倍;
  • 或者在一堆「过气旧卡、混搭硬件」上,把大模型跑得稳、跑得动。

他们做的事情,听上去有点「不性感」,但非常关键。

1)先看清敌人:推理的真正瓶颈不是算力,而是内存

很多人以为,GPU 就是「算得快」。

但大模型推理真正在卡的,不是「算」,而是「搬数据」。

  • 模型参数、KV Cache 全都在抢那点显存和内存带宽;
  • 绝大多数时候,GPU 核心在干的事是:等数据搬过来。

所以,Infra 工程师每天琢磨的是:

  • 怎么让数据更连续地「喂」进算子;
  • 怎么减少无意义的内存读写;
  • 怎么用同一块 KV Cache,服务更多并发。

这就是为什么,Triton 这种语言开始爆火。

它帮你用接近 Python 的写法,写出性能接近手搓 CUDA 的内核,去干三件事:

  • 把多个小操作融合成一个算子,减少内存往返;
  • 按照 GPU 内存布局优化访问模式,避免乱跳;
  • 为各种奇怪形状的矩阵、注意力模式,写定制内核。

你不需要天天搞新论文,你只要搞定一两个关键算子,就足够让业务线给你跪着叫爸爸。

2)vLLM 这类推理引擎,已经成了新底座

如果你还在用最原始的「Transformers + 手写循环 + Flask API」堆推理服务,只能说,你已经站在了「性能鄙视链」的最底端。

现在的标配,是一整套为推理优化的引擎,比如 vLLM。

它玩了两个非常关键的点:

  • 第一个叫 PagedAttention,把 KV Cache 按「页」切开,像操作系统虚拟内存那样管理。 不再需要一次性预留一大坨连续显存,显存利用率直接拔升。
  • 第二个叫 Continuous Batching,连续批处理。 不等一批请求全部结束,谁先结束谁先让位,新流量立刻补上。 对用户来说,排队时间大幅下降,系统整体吞吐还更高。

你会发现,这已经不是「AI 问题」,而是操作系统、编译器、分布式系统的问题。

所以,真正的 Infra 稀缺人才,是那拨能把传统 CS 知识「迁移」到大模型世界的人。

3)在「穷人版算力」下的极致优化,是一条中国工程师的隐形优势

还有一类技能,中国工程师天然有优势:

在拿不到顶配 GPU 的前提下,把模型压到「刚好不死」。

这里有两块:

  • 模型压缩:INT8、FP8、4bit 量化、蒸馏、剪枝,把 70B 模型压成能跑在一两张卡上的版本,还能保持可用精度;
  • 异构调度:CPU、旧 GPU、国产 NPU 混搭,什么便宜用什么,靠调度和分片把它们拧成一台「用得起的超算」。

你可能觉得这很“土法炼钢”,但现实是——

整个亚洲、拉美、中东一大票公司,未来都要走这条路,真正能在约束条件下做优化的人,非常稀缺。

三、第二类塔尖人才:从写 Prompt 到写「认知架构」的 Agent 工程师

很多人还停留在「Prompt 工程师」三个字上,其实这条路已经走到尽头了。

模型越来越聪明,Prompt 越来越「容错」,那种「背十句咒语」的时代会很快被抹平。

真正有价值的,不是你一句话怎么问,而是你能不能设计出一整套「智能体工作流」:

  • 模型只是其中的大脑;
  • 外面还有工具调用、状态机、记忆、评估、重试、人机回路;
  • 整个系统要能在复杂业务里跑得稳。

我们可以把这一类人叫做:Flow Engineer 或「认知架构师」。

1)线性链已经不够用了,系统要变成一个「有记忆的图」

传统玩 RAG 的思路,是一条直线:

用户提问 → 检索文档 → 喂给模型 → 输出答案。

这套东西,已经被卷成基础配置。

现在真正难的是:

  • 用户提了一个模糊问题,系统得先帮 ta 把问题拆开;
  • 然后多轮检索、比对、汇总;
  • 中间随时发现「信息不够」「方向错了」要重新规划;
  • 甚至在某些关键节点,人需要插进来。

这就是为什么,像 LangGraph 这种「图式工作流框架」开始爆火。

一个成熟的 Agent 系统,背后往往是一张有状态的图:

  • 节点是不同角色:规划、检索、分析、写作、评估、调用工具……
  • 边是不同的流转路径:正常路径、失败重试、人工审批分支……
  • 图上还挂着一块「共享记忆」,记录用户上下文、历史决策、外部环境。

这已经完全不像「写 Prompt」,更像在写一个「会思考的状态机」。

2)「多智能体」是生产力,不是噱头

你可以把智能体理解成一堆「性格不同的虚拟员工」:

  • 有人负责拆需求,有人负责写代码,有人负责写文档,有人负责挑错;
  • 他们互相对话、扯皮、纠错,你在旁边只看结果。

看起来很爽,但要在真实业务里跑起来,有几个硬门槛:

  • 你得为每个智能体定义清晰的边界:它负责什么、不负责什么;
  • 你得设计好「交班规则」:什么时候交给下一个智能体,失败了怎么退回;
  • 你得想好「停机条件」:防止一群模型在那儿自言自语死循环。

所以,真正稀缺的不是「我会用某个多 Agent 框架」,而是:

  • 我能画出这套系统的完整状态图;
  • 我能用日志和指标分析它哪里容易发疯;
  • 我能把“AI 想干的事”翻译成“业务真正允许的事”。

3)高阶 RAG:从「检索」到「自己知道自己不知道」

还有一块正在被严重低估的,是高阶 RAG。

大多数人做 RAG,是「有啥喂啥」,模型查完就回答。

真正成熟的系统,会多做几步:

  • 先分析问题,判断「能不能靠现有知识回答」;
  • 如果答案不确定,就自己规划检索策略:查哪个库、查几轮、换什么关键词;
  • 查完之后,还要自己评估置信度,必要时把结果标成「建议人工复核」。

这背后,都是一整套「反思 + 自我纠错」的设计。

你要把「思维链」「思维树」「反思」这些本来写在 Prompt 里的东西,迁移到系统层。

所以,Agent 工程师本质上干两件事:

  • 向下,懂得怎样把模型接到各种工具上,把复杂任务拆成一张「图」;
  • 向上,能把一个模糊业务诉求,翻译成一套多步决策流程。

这就是为什么,我更愿意把这拨人叫做「认知架构师」,而不是「Prompt 工程师」。

四、第三类塔尖人才:具身智能与 AI for Science——跨界「双语者」

还有一条赛道,门槛很高,但一旦进去了,护城河极深:

具身智能 + 科学智能。

它们有一个共同特点:

不仅要懂模型,还要懂物理世界、化学世界、生命世界的规律。

1)具身智能:让模型走出屏幕,直接操控物理世界

你可以把具身智能理解成:

把一个大模型塞进机器人身体里。

它要做的,不只是「看懂画面」「听懂指令」,而是:

  • 把「把桌上的红色杯子放进柜子」这种话,翻译成一连串精确的关节动作;
  • 在不确定、噪声、遮挡、摩擦力乱七八糟的真实环境里,完成任务。

这背后,有三个必备能力:

  • 多模态:同时处理 RGB 图像、深度信息、激光雷达、关节状态等一堆传感器输入;
  • 仿真:在虚拟环境里大量练习,通过「域随机化」把光照、纹理、摩擦系数各种打乱,让策略在现实里也站得住;
  • 中间件:把 PyTorch 里跑出来的策略,嵌进 ROS2、实时系统、驱动里,保证不延迟、不抖动。

你会发现,这个岗位的「双语」是:

一边是模型和算法,一边是真实世界的工程控制。

2)AI for Science:「懂科学又懂模型」的人,直接站在下一轮范式上游

另一条交叉赛道,是把 AI 用在生物医药、材料科学、能源、半导体这类硬核科学上。

  • 在药物发现里,大模型学的是蛋白质结构、分子间作用力,帮你把 4–6 年的临床前周期压缩;
  • 在材料科学里,模型给的是「这组元素 + 这组晶格结构」有没有可能形成更轻、更强、更稳定的新材料;
  • 在计算物理里,它帮你把昂贵的 DFT、仿真算一次,后面全用近似模型替代。

这里的「稀缺」非常直接:

  • 你既要看得懂论文里的方程,也要看得懂 Transformer 的结构;
  • 你既要知道现实实验怎么做,也要知道数据怎么标、模型怎么评估。

这种「科学 + AI」的双语人才,数量极少,但对产业价值极高——

他们直接站在下一轮技术革命的原点。

五、地缘分工之后,你该怎么选赛道?

放大到全球来看,其实已经形成了一个很有意思的「人才版图」:

  • 美国在做「全栈 + 前沿」,从大模型架构到系统框架,一整套标准都在那边定;
  • 中国在「约束条件下的极致工程化」和「具身智能产业化」上跑得很快;
  • 欧洲在「AI 治理、合规」和「科学智能」上积累很深。

对个人来说,更重要的问题是:

我们应该在这张版图里,给自己找什么位置?

如果你有技术背景,我的建议很简单:

先在下面三件事里选一条做深:

  • 往下扎:AI Infra / CUDA / Triton / vLLM / MLOps,把自己变成那种「能让模型跑得快又稳」的人;
  • 往中层扎:Agentic AI / LangGraph / 流程编排,把自己变成「认知架构师」;
  • 往交叉扎:Embodied / AI for Science / 行业深度结合,把自己变成「双语者」。

三条路共通的一点是:

你的工作重心,从「自己产出内容」

变成了「设计系统 / 工作流 / 架构,让模型替你干活」。

六、那普通技术人,怎么在 12 个月内完成转型?

很多技术人现在的典型状态是:

Python 会一点,PyTorch 过过教程,微调玩过几次,业务里会调一下 API。

老实说,这个水平,在 2025 之后会非常危险——

因为这些事情,模型自己就能教新人做了。

如果你已经有一定工程基础,我会建议这样一条路线(非常落地):

第 1–3 个月:把环境和底层认知打牢

这三个月你只干三件事:

第一,搞定一台靠谱的机器和开发环境。

Ubuntu + CUDA + Docker + 一块还过得去的 RTX 卡。

别再用各种魔法版环境,生产上没法复用。

第二,把 Python 和异步编程补齐。

你不用做数据科学家,但要能写稳健的服务端、异步请求、日志监控。

第三,搞明白大模型的「执行链条」:

从请求进来 → Token 化 → 前向推理 → KV Cache → 输出 → 日志和指标。

你要能用监控工具看到:延迟卡在哪、显存耗在哪、吞吐量是怎么被拖垮的。

第 4–7 个月:选一条赛道,做出能打的 Side Project

不要贪多,只要一个方向:

如果选 Infra,就做一个「迷你版推理服务」:

  • 用 Docker + FastAPI 把一个开源模型跑起来;
  • 再尝试用量化、vLLM、Triton 慢慢替换底层组件;
  • 同时用压测工具打,记录每次改动对延迟和成本的影响。

如果选 Agent,就做一个「企业级智能体 Demo」:

  • 比如做一个深度研究助手,自动拆问题、查资料、做总结、给引用;
  • 用 LangGraph 画出完整的状态机,把所有分支和失败路径设计清楚;
  • 重点不是「看上去有多聪明」,而是「错误率、重试策略、人机回路怎么做」。

如果选 Embodied,就先从纯仿真开始:

  • 用 Isaac Sim 或 Gazebo 搭一个简单场景;
  • 让一个虚拟小车只靠摄像头画面学会避障、到达目标位置;
  • 把整个训练、评估、部署流程写成一篇工程笔记。

这阶段的目标很简单:

拥有一个你能从「架构、实现、优化」三层完整讲清楚的项目。

第 8–12 个月:工程化和作品集

最后四个月,你要做两件经常被忽略的事:

第一,把你的项目「生产化」。

  • 所有服务 Docker 化;
  • 加上基础监控:请求量、延迟、错误率、Token 成本;
  • 尝试做一个最简单的自动评估机制,让系统自己对自己的输出打分。

第二,把你的项目「故事化」。

  • 把架构图画出来;
  • 把关键决策写下来:你为什么用这个框架、为什么不用另一个;
  • 把性能数据做成表格,对比「优化前 / 优化后」,写清楚 trade-off。

这些东西,不仅是简历内容,更是你在团队里说服别人的「谈资」。

一个能拿出完整技术叙事的人,永远比一个只会喊「我会 XXX 框架」的人值钱。

七、那非技术人呢?有没有出路?

很多非技术背景的同学,这两年被信息吓到了:

  • 一会儿是大模型、向量数据库、RAG;
  • 一会儿是 CUDA、Triton、vLLM;
  • 一会儿是各种智能体框架、自动化工具。

看上去,每一个词都很陌生。

但如果你仔细拆一下,会发现,AI 把「技术门槛」压低的同时,反而推高了一类人的价值——

那就是能够设计「人机协同流程」、能做「认知判断」的人。

我会给非技术人一个新的职业定位:

认知架构师 + 公民开发者。

1)你的武器,不是代码,而是结构化思维

所谓「认知架构师」,不是让你去写算法,而是让你做三件事:

  • 用结构化的方式向 AI 提需求,让它按你的逻辑思考,而不是暴力发挥;
  • 设计一整套「AI 参与你工作流」的流程,而不是单点调用;
  • 在关键节点做「判断」而不是「操作」,你负责拍板,AI 负责干活。

举两个非常具体的例子:

  • 用「思维链」逼 AI 展开过程,而不是直接报答案;
  • 用「思维树」让 AI 先列出几套方案,再让它自己对比优劣,你再做终局决策。

这些能力,本质上是「逻辑拆解 +沟通表达」,反而是很多文科背景更擅长的。

2)你的第二个武器,是低代码 & 自动化工具

低代码平台现在非常成熟了:

  • Zapier / Make 可以帮你连起各种 SaaS 工具,把工作流自动跑起来;
  • Coze / Copilot Studio 之类的智能体工厂,可以让你拖拖拽拽,就做出一个「懂你业务的 AI 助手」。

你不需要会写 Python,就能把一套「用户填写表单 → AI 生成报告 → 自动发邮件 → 写入表格」的流程,搭成一个自动系统。

只要你在某个业务场景里工作得足够久,你就天然比程序员更懂:

  • 哪一步可以自动化;
  • 哪一步要保留人工判断;
  • 哪一步可以用 AI 帮忙写草稿;
  • 哪一步必须由人来担责。

这就是你的机会。

八、最后:AI 自我自动化的时代,人真正的护城河是什么?

我一直在强调一个观点:未来几年,AI 会非常快地自动化掉「操作层」的工作,但会极大抬高「系统层 + 判断层」的溢价。

对技术人来说,两条最安全的避风港是:

  • 向下,理解算力、理解推理、理解 Infra,把模型变成「一块高效的芯片」;
  • 向上,理解业务、理解决策、理解认知,把模型变成「一支听你指挥的数字团队」。

对非技术人来说,你要刻意放大的,是四种能力:

  • 拆解问题、设计流程,把任务变成步骤;
  • 与 AI 协作,而不是被 AI 牵着走;
  • 审美、判断、合规意识,做那个「最后说 Yes/No 的人」;
  • 把自己的经验和知识,慢慢沉淀成一套「可以交给 AI 执行的规则」。

AI 不会替代「人」,它会替代的是——

只会机械执行流程、只会重复劳动、只会照抄模板的那一拨人。

真正被放大的,是那些:懂一点技术,懂很多业务,又愿意花时间理解系统、理解人的人。

如果你看到这里,只需要记住一句话:现在再把自己定位成「写代码的人」或「写文案的人」,都太窄了。

你应该把自己定位成:

——能指挥一整个 AI 军团,替你干活的那个「总指挥」。

AI 时代的护城河不是知识,而是思考方式。

而这,恰恰是 2025–2030 这五年,普通人还能抓住的,最大的结构性机会。

专栏作家

陆晨昕,公众号:晨昕资本论/晨昕全球Mkt ,人人都是产品经理专栏作家。资深媒体人,创业者,专注于科技&互联网&内容&教育行业深度研究。

本文原创发布于人人都是产品经理,未经许可,禁止转载。

题图来自 Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!