技能贬值越来越快,什么能力不会过时?

0 评论 126 浏览 0 收藏 9 分钟

Harness Engineering正成为AI领域的新焦点。当Agent能够自主调用工具却容易失控时,这套控制体系通过规则手册、反馈回路和边界定义,将AI力量导向正确方向。本文深度剖析从特征工程到Harness的技术演进,揭示智能时代人类如何通过框架设计能力构建核心竞争力。

2026年,AI圈出了个新词:Harness Engineering。

Harness,英文里是「马具」的意思。骑马时套在马身上的那套缰绳和鞍具。马力气很大,跑得很快,但如果没有缰绳,它可能往任何方向跑。Harness的作用,就是把马的力量引导到正确的方向上。

对应到AI这边,Agent能自动调用工具、自动获取信息、自动分解任务,整个流程变成了自动化。但自动化也意味着容易出错、容易幻觉、容易失控。

Harness,就是套在它身上的那套控制体系。

01

要理解Harness工程为什么重要,得先看看前面发生了什么。

2023年起,Agent Engineering(智能体工程)出现了。工程师的工作从写提示词,变成了设计Agent的决策骨架:规划系统怎么从目标分解出子任务,Agent能调用哪些工具、怎么用,以及记忆架构,记住什么、遗忘什么、什么时候回忆。

听起来很美好。但运行中,问题一个接一个冒出来了。

搜索接口超时了,Agent怎么办?简单说,就是AI突然找不到资料了,它会傻等还是会乱猜?它是在推进任务,还是在原地打转?Agent犯过一次错,下次同样的场景,它会不会再犯?

人们慢慢意识到,仅仅给Agent主动获取信息的能力是不够的。没有系统性的框架来约束和指导,主动权反而会变成混乱。

于是,Harness工程应运而生。

它的核心创新是一套清晰、持久、可演进的「规则手册」。每次调用模型前强制注入,存在代码仓库里,版本控制,可追踪。Agent犯一次错,对应的规则文件就更新一次,为所有未来的会话预防这类错误。

Harness工程师的功夫,花在定义输入输出规范、设计工具调用的触发条件、建立反馈回路来自动修正错误、通过编排层确保多个步骤协调执行。

02

这让我想起自己用AI的经历。

我曾经用OpenClaw在旧电脑搭了8个Agent,一开始,我觉得只要提示词写得够好,Agent就能乖乖干活。

但很快发现,提示词再精妙,也挡不住Agent「自由发挥」。它会在某个环节突然偏离轨道,把前面做对的事情推翻重来。或者在一个循环里反复横跳,我盯着日志看了十分钟,才发现它在原地打转。

后来我做了两件事。一是把每次出错的原因写成规则,塞进它的「开场白」里。二是建立了一个简单的反馈记录,每次任务结束,复盘哪里偏了、怎么拉回来的、下次怎么预防。

这其实就是 Harness 的雏形。只是我当时不知道这个词。

03

回顾AI发展的几个阶段,能看到一个清晰的模式。

特征工程时代,人告诉模型该看什么。神经网络时代,模型学会自己看,人转而调参数。大模型时代,参数也不用调了,人开始琢磨怎么写提示词。Agent时代,提示词也不那么重要了,人开始设计Agent的决策骨架。

而每一次升级,旧的技能在贬值,新的瓶颈在升值。

特征工程师需要理解数据,调参师需要理解模型,提示工程师需要理解意图,Agent设计师需要理解系统。每往上走一层,所需的抽象能力和全局视野就倍增。

Harness工程把这个趋势推到了新高度。人不再纠结单次调用的细节,而是设计整个系统的运作框架:目标定义、硬约束、角色边界、能力范围。这些文件存在代码仓库里,可追踪、可迭代、可复用。

04

这让我想到另一个问题。

如果AI一直在升级,为什么它不会最终取代「设计框架」这件事?为什么人类不会沦为给AI打杂的?

答案藏在训练目标里。

任何AI模型的训练,首先要设定一个明确的优化目标。目标确定后,模型才开始调整内部参数,去最优化这个目标。

但关键在于:这个优化目标,是由人来定义的。

什么是好、什么是坏,哪些指标重要、哪些不重要,这些决定包含了人的判断、审美和深层价值观。AI可以优化目标,但不能生成目标。它可以回答「怎么做」,但不能回答「为什么做」和「应不应该做」。

这是人类在智能时代最厚的护城河。

05

顺着这个思路,回到我们自己。

如果你也在用AI工具,不管是写代码、做分析还是处理日常事务,可能都遇到过类似的问题:它很能干,但偶尔会跑偏;它很快,但方向不一定对。

Harness工程给我们的启发,不是去学会写规则文件,而是建立一种意识:跟它协作,重点不是单次对话的质量,而是整个协作系统的稳定性。

具体来说,三件事值得做。

第一,把常犯的错误写成规则。不是记在脑子里,是写成文字,每次启动时强制加载。人的记忆会衰减,规则不会。

第二,建立反馈回路。每次任务结束,花两分钟复盘:哪里偏了、怎么拉回来的、下次怎么预防。这不需要复杂的系统,一个文档就够了。

第三,定义清楚边界。告诉它什么能做、什么不能做,比告诉它「尽量做好」更有效。约束不是限制,是保护。

06

最后,说一个让我挺意外的细节。

刘嘉老师在《通用人工智能》这本书里提到,考北大清华的意义,可能不如一个大模型给予我们的多。因为在大模型的加持下,我们学习的速度,会远远快于正规的课堂教育。

我一开始觉得这话有点激进。但看完Harness工程这段演进史,我理解了。

教育的本质,从来不是传授某个具体的技能。因为技能的半衰期越来越短。今天学的框架,明天可能就过时了。今天背下来的知识,后天可能就过时了。

Harness工程让我想通了一件事:技术永远在变,但有一些能力不会过时。

教育的本质,是培养定义问题的能力、设计框架的能力、判断「什么值得做」的能力。这些能力不会贬值,只会随着AI的升级而越来越值钱。

Harness工程的本质,不是约束AI,是训练人类定义框架的能力。我觉得这种能力,才是智能时代的核心竞争力。

本文由人人都是产品经理作者【林骥】,微信公众号:【林骥】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!