你的AI Agent总在犯同样的错?Harness Engineering完整指南

0 评论 332 浏览 0 收藏 36 分钟

AI协作的瓶颈从来不是模型不够聪明,而是你从来没给它搭过一个"不会犯错的工作环境"。本文从一个正在重塑AI工程圈的新概念——Harness Engineering出发,拆解AI协作低效的根源,解析从Prompt到Context到Harness的三次范式跳跃。无论你是否具备技术背景,都能从中获得一条清晰的进阶路径——从搭建规则文档、设计验证流程,到理解完整的工程化Harness该长什么样。

周一,你让Claude帮你写一份竞品分析,它把格式搞错了。你纠正了,继续。

周二,同样的格式问题又出现了。你耐着性子改了prompt,加了三行说明,心想这次总该记住了吧。

周三,格式对了。但它把你上周明确说过的产品定位理解反了——不是”面向中小企业的轻量级工具”,而是写成了”面向大型企业的全栈解决方案”。你盯着屏幕,深吸一口气,关掉对话,自己写。

然后你跟同事吐槽:”AI就这样,demo很惊艳,干活不靠谱。”

这个场景是不是很熟悉?如果你用AI协作超过三个月,大概率经历过无数次类似的循环。但问题真的出在AI身上吗?

2026年2月,HashiCorp联合创始人Mitchell Hashimoto发了一篇博客,提出了一个让整个AI工程圈重新审视自己工作方式的概念——Harness Engineering。他的核心观点只有一句话:

每次AI犯错,不要只修正这一次的输出,而要工程化一个方案,让它永远不再犯这个错。

读完那篇博客的那个下午,我突然意识到:过去一年我跟AI协作的所有挫败感,根源不是AI不够聪明,而是我从来没给它搭过一个“不会犯错的工作环境”

这篇文章,我会完整拆解Harness Engineering是什么、为什么它正在改变AI协作的底层逻辑,以及——不管你是否具备技术背景——你可以从今天开始走上的一条从Context到Harness的进阶路径。这条路径的前半段不需要你写代码,后半段需要工程支持,但理解完整的图景本身就是最重要的第一步。

一、你以为是prompt的问题,其实是环境的问题

先说一个每天都在发生的循环。

AI犯错了。你重写prompt。AI换个姿势犯错。你再改prompt,加更多限定条件。AI这次对了。你松了一口气,关掉对话。第二天,新对话,同样的错误卷土重来。

你以为你在解决问题,其实你在做西西弗斯——每天推同一块石头上山,到了山顶它又滚下来。

为什么prompt优化到极致也救不了你?因为prompt有一个致命缺陷:它是一次性的。你今天花20分钟给AI铺了完美的背景和规范,对话关了就消失了。你修好了这次的错误,AI对下一次一无所知。

但这还不是最深层的问题。更深层的问题是:你脑子里有大量的“标准”“偏好”“规范”,但它们从来没被写下来过。

你知道竞品分析应该用什么框架,你知道文档的格式标准是什么,你知道哪些表达方式是你们团队绝对不用的。但这些知识全部锁在你自己脑子里,AI读不到。读不到的东西,它不可能遵守。

所以当AI犯了一个”明显”的错误时,其实一点也不明显——对AI来说,它从来不知道有这条规则。

Nicholas Carlini,一位专注于AI安全的计算机科学家,在一次演示中让16个AI Agent并行构建一个C编译器。事后他说了一句话,我觉得精准地击中了这个问题的本质:

“Agent失败,不是因为它的能力不够,而是因为它需要的那些知识——什么叫’好’、你的架构鼓励哪些模式、又刻意回避哪些模式——全都锁在你自己脑子里,你从来没有把它们写出来。”

大多数人跟AI协作的挫败感,根源就在这里:你一直在优化“跟AI说什么”,但从没认真设计“AI在什么环境里工作”。

二、从Prompt到Context到Harness:AI协作的三次范式跳跃

要理解Harness Engineering为什么重要,需要先看清过去三年AI协作范式是怎么一步步演进的。这不是学术梳理,而是帮你定位——你现在卡在哪个阶段,下一步该往哪走。

第一代:Prompt Engineering(2022-2024)——教AI”这次该怎么做”

所有主流的早期AI教程都在讲同一件事:怎么写出更好的prompt。角色扮演、Few-shot、Chain-of-thought、Step-by-step……所有技巧都在优化同一个环节——单次指令的精确度

这个阶段的人和AI之间的关系像”出题者和答题者”。你费尽心思把题目出得足够精确,AI就能给出不错的答案。

但问题来了:一旦任务链变长,AI必然失忆。你必须全程守着它,不断下发新指令、纠正偏差。你以为你在用AI,其实你在伺候AI。

第二代:Context Engineering(2025)——给AI”足够的背景信息”

人们很快发现,光靠prompt不够。AI需要看到文档、数据、历史记录、工具调用结果才能给出好答案。于是RAG(检索增强生成)、知识库接入、MCP协议、各种上下文注入方案爆发式涌现。

这一步确实带来了质的提升。用户从”直接发号施令者”变成了”情境构建者”——你负责搭建信息环境,AI在给定的上下文中自行判断如何执行。协作重心从”优化指令”转向了”配置环境”。

但本质上,交互模式没变——还是”你给信息,AI生成内容”。AI变得更有背景知识了,但它依然不知道自己做对了没有,犯了错也不会被系统拦住。

第三代:Harness Engineering(2026)——给AI”一个不会犯错的工作系统”

2026年2月,事情发生了变化。

Mitchell Hashimoto在博客中提出”Engineer the Harness”这个说法。几天后,OpenAI发表了一篇详尽报告,描述他们如何用Codex Agent在零手写代码的条件下构建了百万行代码的产品。Martin Fowler随即在个人网站发表深度分析。Ethan Mollick围绕”Models, Apps, and Harnesses”重组了他的AI指南框架。

几周之内,Harness Engineering从一个个人博客里的命名,变成了整个AI工程社区的共识性议题。

它的核心关注点不再是”输入什么”或”看到什么”,而是:AI的运行边界在哪里?错了谁来检查?检查不过怎么自动修正?

一句话区分三者:Prompt决定你对AI说什么,Context决定AI能看到什么,Harness决定系统能预防什么、检测什么、自动修复什么。

如果说Prompt Engineering和Context Engineering都在优化”单次推理的质量”,那么Harness Engineering关注的是系统层面的持续质量。它不再寄希望于AI每次都做对,而是搭建一套机制,确保AI即使做错了也能被拦住、被纠正、并且下次不再犯。

三、Harness Engineering到底是什么

说了这么多演进脉络,Harness Engineering的核心定义其实非常朴素。

Mitchell Hashimoto的原话是:“每次你发现agent犯了一个错误,就花时间去工程化一个解决方案,使得agent再也不会犯同样的错误。”

就这么简单。没有复杂的数学公式,没有高深的架构图。它的力量来自于持续累积——每一次犯错都变成一条新规则,每一条新规则都让系统更健壮,随着时间推移,agent的可靠性是指数级增长的。

理解Harness的两个比喻

比喻一:引擎和刹车。 如果把大模型比作引擎,Harness就是方向盘和刹车。引擎的马力越大,对方向盘和刹车的要求就越高。一台没有刹车的跑车,马力越强,车毁人亡的速度就越快。今天的模型已经足够强大了,制约我们的不是引擎马力,而是控制系统。

比喻二:CPU和操作系统。 Phil Schmid提出过另一个类比:模型是CPU,Harness是操作系统。CPU再强大,操作系统拉胯,整体性能就是灾难。

“Harness”这个词的原意是”给役畜装的挽具”——缰绳、马鞍那一套装备。它的隐喻非常精准:你面对的是一匹马力强大但不可预测的马。让它跑100米不需要缰绳,让它拉着货物跑100公里穿越山路,没有缰绳就不行。

一个反直觉的核心洞察

Harness Engineering中最反直觉、但也最被反复验证的一个发现是:约束AI的解决空间,反而提升了它的生产力和可靠性。

你给AI的自由度越高,它犯错的空间就越大。但如果你给它一个严格的框架——明确的规则、清晰的边界、自动化的校验——它在这个框架内反而能交出更好的工作。

这跟管理人类团队的逻辑是一样的。一个新员工在没有任何规范的环境里自由发挥,产出质量一定很低。但如果你给他清晰的SOP、明确的验收标准、以及犯错后的反馈机制,他的产出会快速提升。AI也是一样。

四、一个极端实验验证了这件事

理论说再多不如看实证。2026年2月,OpenAI发表了一篇引发广泛讨论的报告。

实验条件: 3个工程师,5个月时间,使用Codex Agent,目标是构建一个完整的产品。规则只有一条:零行手写代码。 所有代码都由AI Agent生成。

结果: 他们成功构建了一个超过100万行代码的产品。

他们在复盘中明确指出:实现这一跨越的关键不在于使用了多强大的底座模型,而在于他们搭建了一套完整的Harness系统。

没有Harness的时候,Agent面临三个致命困境。第一,上下文被无关信息撑满,Agent在海量背景资料中迷失方向,不知道当前任务该关注什么。第二,缺少预置工具,Agent只能临场发挥,解决问题的路径不可控。第三,没有验收标准,Agent无法判断自己是否真的完成了任务,人必须全程盯着。

三个困境叠在一起,结果就是Agent变成了一个需要全程辅导的实习生。它一出错,人来修;跑偏了,人来拉回来;不确定做完没,人来审。

搭好Harness之后,一切变了。清晰的信息结构让Agent按需读取,上下文始终聚焦在当前任务上。工具和脚本提前备好,Agent需要什么直接调用。验收规则写得清清楚楚,完成后自动检查,达标才算收工。

在这套Harness下,Agent单次运行可以在一个任务上独立工作超过6小时,通常是在人类睡觉的时候。它自己打开浏览器验证UI,自己查日志找bug,自己跑测试修复,最后打开一个Pull Request附上执行记录。整个过程,人不在场。

还有一个更有说服力的数据。在另一组实验中,研究者仅仅改变了Harness的工具接口设计(完全没有更换模型),一个Agent的编码基准分从6.7%飙升到了68.3%。同一个大脑,同一套参数,换了一套工作环境,表现天差地别。

这组数据说明了一件事:在纠结该用哪个模型之前,先审视你的Harness设计,能获得更高的投资回报率。

五、Harness的四个核心支柱

概念和案例都讲了,接下来拆解Harness到底由什么构成。综合Mitchell Hashimoto、OpenAI实验报告、Martin Fowler的分析以及Anthropic工程团队的实践,我把Harness的核心归纳为四个支柱。

支柱一:规则文档化——必要的起点,但不是Harness本身

在AI Agent的工作流中,有一个叫AGENTS.md的概念正在快速普及。它是一个放在项目根目录的文档,Agent在每次工作会话开始时会自动读取,里面记录了项目的规范、约束、常见陷阱和执行标准。

Hashimoto自己的终端模拟器项目Ghostty里,AGENTS.md的每一行都能追溯到一次具体的Agent失败。这份文档是活的,每次Agent犯错就更新它,它随着协作不断生长。

但这里必须做一个严肃的技术区分:规则文档本质上仍然属于Context Engineering的范畴。 你把规范写成文档让AI读取,它依然靠的是大模型自身的”理解和遵守意愿”——一种概率性的、软性的对齐。模型完全可能因为上下文窗口过长、注意力漂移、或者单纯的幻觉而忽略你写得清清楚楚的规则。

这就像你给新员工发了一本员工手册,他可能认真读了也可能随手一翻。手册是必要的,但仅靠手册不够——你还需要门禁系统、代码审查流程和自动化测试来确保规则被真正执行。

规则文档是Harness的”最低门槛入口”,是搭建整个体系的第一步。但如果你只停留在这一步,你做的其实还是Context Engineering,只不过做得更系统了。真正让Harness区别于Context的,是下面这个支柱。

支柱二:约束机械化——Harness的核心特征是强制执行力

Harness与Context最本质的区别在于一个词:Enforcement(强制执行力)。Context告诉AI应该怎么做,Harness让AI不可能做错。

口头告诉AI”文件名要符合XX规范”是软约束——AI可能遵守,也可能不遵守,你无法控制。但如果你写一个自动校验脚本,AI产出的文件名不符合规范就直接报错、无法提交、被系统自动拦截,这就变成了硬约束。AI不需要”理解”这条规则,也不需要”选择”遵守——它在系统层面被强制执行了,没有绕过的可能。

在工程实践中,这种强制执行力通过一系列工程化手段来实现:自动化测试链、定制化Linter(代码检查工具)、沙箱执行环境、基于API的校验脚本。它们的共同特征是:把原本依赖模型“自觉性”的软约束,转化为系统级的硬约束。 大模型的概率不确定性,被工程架构的确定性所对冲。

OpenAI的团队在百万行代码实验中大量使用了自定义Linter来强制执行架构规则。而且他们做了一个巧妙的设计:Linter的报错信息本身就是写给Agent看的修复指引。这意味着Agent不仅被系统拦住了,还被告知该怎么改——拦截和引导在同一个机制里完成。

判断你做的是Context还是Harness,有一个简单的检验标准:你的”规则”写在文档里,AI读了但可能不遵守——那是Context。你的”规则”写在校验脚本里,AI违反了会被系统自动拦截——那才是Harness。

支柱三:反馈闭环——每次犯错都是一次系统升级的机会

Agent犯了错,大多数人的反应是烦躁,然后手动修正。但在Harness的思维里,每一次犯错都是一个珍贵的信号——它告诉你工作环境缺了什么。

正确的处理流程是:犯错→定位原因→判断是规则缺失、工具缺失还是验证缺失→对应地更新文档、补充工具或增加检查项→下次不再犯。这个闭环持续转动,Harness就在持续进化。

OpenAI团队甚至设置了专门的”清洁Agent”,定期扫描项目中的过期文档和不良代码模式,自动提交清理任务。这本质上就是让反馈闭环自动化运转——不等问题堆积到崩溃才处理,而是小额、高频、持续地修复。

支柱四:生成与评估分离——写的AI和检查的AI不应该是同一个

Anthropic的研究团队发现了一个关键问题:让AI自己评估自己的产出,效果很差。它会对自己太宽容,容易说服自己”这个问题不严重”或”这个结果已经够好了”。

但他们同时发现,训练一个独立的评估Agent做严格审查,比让生成Agent学会自我批判要容易得多。这就像在团队里,写方案的人和审方案的人最好不是同一个人——分工本身就能提高质量。

这种”生成-评估分离”的架构,是成熟Harness体系的重要标志。你不指望AI又会写又会自查,而是用系统设计来弥补它的盲区。

六、Harness思维的落地:从Context进阶到真正的Harness

看到这里,你可能会想:前面讲的自动化测试、Linter、沙箱环境,这些都是工程师的事,跟我有什么关系?

关系很大,但需要先说清楚一个前提:Harness Engineering是一个有明确技术门槛的工程学科,不是换个说法的高级Prompt技巧。 如果我们把”写一份规范文档让AI读取”就叫做Harness,那是对这个概念的降格和误用。

但这并不意味着非技术岗位就与Harness无关。正确的理解方式是:Harness是一个从软到硬的连续光谱,你可以从光谱的左端起步,逐步向右端推进。

第一层:Context进阶——把规则写下来让AI读取(软约束)

这是大多数非技术岗位今天就能做到的事,本质上属于Context Engineering的系统化实践。

场景举例:写文档/方案。 把你的文档规范、格式要求、逻辑框架、常见错误写成一份规则文档(如Claude Skill),AI每次工作前先读取。这确实能大幅减少重复沟通,提升产出的一致性。

场景举例:做内容创作。 把你的风格偏好显性化——短句还是长句、开头切入方式、禁用词汇——写成”风格DNA文档”,让AI第一稿就接近你的调性。

但要诚实承认它的局限: 这些规则文档依赖AI的”理解和自觉”,在上下文足够短、任务足够简单时效果很好,但随着任务复杂度增加,AI忽略规则的概率会显著上升。你写了10条规范,它可能遵守了8条——那2条遗漏仍然需要你人工检查。

这一层的价值是真实的,但不应该被包装成Harness。 它是走向Harness的第一步,是让你养成”把隐性知识显性化”习惯的起点。

第二层:半自动化验证——让规则可执行、可检测(软硬结合)

这是从Context到Harness的关键跨越。核心思路是:你写下的每一条规则,都追问自己一个问题——这条规则能不能被自动检查?

举个例子。你要求AI写的文档”每个章节结尾必须有一句加粗的核心总结”。在第一层,这只是一条AI可能遵守也可能不遵守的文字说明。但如果你写一个简单的检查脚本(甚至让AI帮你写),自动扫描输出文档里每个章节末尾是否存在加粗文本——这条规则就从”建议”变成了”可验证的检查项”。AI的产出通过检查才算合格,不通过就打回重做。

这一层不需要你成为程序员,但需要你开始用”规则→检查→拦截“的思维来设计协作流程,而不是仅仅用”规则→希望AI遵守”的思维。可以借助AI本身帮你生成简单的校验逻辑,也可以利用现有工具(如Claude的Code Execution功能)来实现基础的自动化验证。

第二层半:用低代码编排工具搭建无代码的反馈闭环(桥梁层)

这一层是很多人会忽视的、但对非技术人员极其重要的路径:你不需要写代码,就可以搭建出具备“不通过则打回重试”硬约束能力的自动化流程。

当前的AI Agent编排工具(如Dify、Coze,以及各类具备图形化Workflow的平台)已经内置了条件判断节点、校验器(Evaluator)和循环修正机制。纯业务人员完全可以通过可视化拖拽,把业务规则设成一个闭环:Agent生成产出→经过校验节点判断是否达标→不达标自动打回并附上修改指引→Agent修正后再次提交校验→直到通过才输出终稿。

这已经不再是”让AI读一份文档然后希望它遵守”的软约束了。校验节点的判断逻辑是确定性的——你设定”文档必须包含5个章节”,少一个就不通过,没有商量余地。这就是系统级拦截,只不过实现方式从写代码变成了拖拽配置。

从Harness的定义来看,这一层已经触及了Harness Engineering的核心机制——自动化的反馈闭环和强制执行力——只是实现工具从代码脚本变成了可视化编排平台。对于产品经理、运营、内容创作者来说,这可能是性价比最高的Harness入口。

第三层:系统级Harness——工程化的运行时环境(完整硬约束)

上一层通过编排工具能覆盖的,主要是单任务或短链条场景的校验闭环。但当你面对的是大型项目的长期维护、多Agent并行协作、架构级别的约束执行时,就需要Harness Engineering的完整形态了——也就是OpenAI百万行代码实验中实际搭建的东西:自定义Linter强制执行架构规范、沙箱环境隔离Agent的执行空间、自动化测试链验证每次产出、独立的评估Agent审查质量、后台清理Agent持续修复技术债。

这一层确实需要工程能力。但对于产品经理和非技术岗位来说,理解这一层的存在至关重要——因为你需要知道完整的Harness长什么样,才能在产品设计中为它预留空间,在团队协作中推动它被建立,在评估AI能力时知道问题出在模型还是出在环境。

一句话总结这几层的关系:第一层让你把隐性知识变成显性规则(Context),第二层让规则从”希望被遵守”变成”可以被检查”(验证设计),第二层半通过编排工具让检查变成”不通过就自动打回”的闭环(无代码Harness),第三层把这套机制工程化到整个系统的运行时层面(完整Harness)。这是一条渐进路径,每一层都有独立的价值,你不需要一步跳到终点。

关键心得

不管你处于哪一层,有一个底层逻辑是通用的:前期搭建环境花的时间,后期会指数级回收。 环境搭好了,Agent的产出质量和可靠性会持续提升;环境缺失,Agent再强也只是一个需要你全程辅导的实习生。

区别只在于:第一层的回收是线性的(每多写一条规则,少纠正一次错误),第三层的回收是指数级的(系统自动拦截所有已知错误类型,人只需要处理真正的新问题)。

七、从今天开始:一条从Context到Harness的行动路径

最后,给你一个可以立刻开始、持续进阶的行动路径。这不是”三步搭好Harness”——如前文所述,完整的Harness需要工程能力。但你可以从今天开始走上这条路,每一步都有实际的效率回报。

起步:把隐性规则显性化(今天,10分钟)

回忆你最近一周和AI协作的过程。有哪些错误是你反复纠正过的?格式不对?语气不对?总是遗漏某个关键信息?

把最高频的3个错误写下来,用明确的、AI能理解的语言。比如:

  • ❌ “格式要好看一点”(太模糊,AI不知道什么叫好看)
  • ✅ “输出格式必须包含:一级标题用##,二级标题用###;每个章节结尾必须有一句加粗的核心总结;全文不使用emoji”

诚实地说,这一步做的是Context Engineering,不是Harness。 但它是一切的起点——你不可能自动化检查一条你都没写下来的规则。先有规则,才谈得上执行。

进阶一:让规则可检测(这周,1-2小时)

上一步你写了规则。这一步追问自己:这些规则里,哪些可以被自动检查?

不需要你自己写代码。你可以让AI帮你生成一个简单的检查清单或脚本。比如:让Claude在完成一篇文档后,自动对照你的规则逐条自检,并输出一份”合规检查报告”——哪些通过了,哪些没通过。

这还不是系统级的硬约束(AI自检仍然有概率遗漏),但它比”写完就交给你人工审”前进了一大步。你开始把”规则→希望AI遵守”的模式,推进到”规则→要求AI自检→你审核自检结果”。人工审查的负担从”逐字审核全文”降低到了”审核一份检查报告”。

进阶二:用编排工具搭建你的第一个自动化闭环(本月,无需写代码)

如果你觉得”让AI帮写检查脚本”仍然有门槛,这里有一条更平坦的路:用Dify、Coze或其他支持图形化Workflow的Agent编排平台,拖拽搭建一个带校验节点的自动化流程。

具体做法:选你最高频的一个AI任务,在编排平台上搭一个Workflow——Agent生成产出后,接一个条件判断节点(校验你的核心规则),不通过就自动打回并附上修改指引,通过了才输出给你。整个过程可视化配置,不写一行代码。

这一步的意义在于:你第一次真正实现了”系统级拦截”——不再依赖AI的自觉性,而是让不合格的产出在流程层面就被自动挡住。从Harness的定义来看,你已经触及了核心机制。

进阶三:引入系统级拦截(持续,需要工程支持)

如果你有技术资源(自己会写脚本,或者团队有工程师可以配合),这一步是质的飞跃:把你的核心规则从“文档里的文字”变成“系统里的校验脚本”。

AI产出的内容,先经过自动化校验再到达你的手里。不通过校验的产出被系统自动打回,Agent收到报错信息后自行修正,直到通过才提交给你。这时候你审核的是一个已经通过了所有已知规则检查的产出,你的注意力可以完全集中在真正需要人类判断的新问题上。

到了这一步,你才真正开始做Harness Engineering。

持续做:每次犯错都是一次系统升级

不管你处于哪个阶段,养成一个习惯:

旧反应: AI犯错→你叹气→手动修正→下次还犯。

新反应: AI犯错→判断这个错误属于哪一层→如果是规则缺失就补充文档→如果规则已有但AI没遵守就升级为可检测的检查项→如果已经可检测但没拦住就升级为系统级拦截。

每一次犯错,都应该推动你在这条光谱上向右移动一步。 这才是Mitchell Hashimoto那句话的完整含义——不只是”把它写下来”,而是”工程化一个方案,让它永远不再犯”。”工程化”这三个字是关键。

结语

回到开头那个场景。

周一,AI把竞品分析的格式搞错了。这次你没有叹气重写prompt。你打开规则文档,加了一条格式规范——这是Context层面的修复。

周二,格式问题没有再出现。但你注意到AI偶尔还是会遗漏某些格式要求。于是你让AI帮你写了一个简单的格式检查脚本,每次产出后自动扫描——这是向Harness迈出的第一步。

周三,AI产出了一份报告,格式检查全部通过,你只需要审核内容质量。你的注意力从”到处找格式错误”释放出来,集中在了真正需要人类判断的地方。

一个月后,你的规则文档有30多条,其中15条已经有了对应的自动检查。那些曾经让你抓狂的重复性错误,有一半被系统自动拦截了,另一半至少会在自检报告里被标记出来。你的AI正在从一个需要全程辅导的实习生,向一个靠谱的同事进化。

这个进化不是一步到位的。它是一条从Context到Harness的渐进路径:先把规则写下来,再让规则可检测,最终让检测自动执行。每一步都有实际的效率回报,每一次AI犯错都是推动你向前一步的燃料。

这就是Harness Engineering的核心逻辑:

别试图给AI更好的指令。给AI搭一个更好的工作环境。而“更好的工作环境”的终极形态,不是一份更长的文档,是一套AI不可能绕过的系统。

2026年,AI协作的核心竞争力不是谁的prompt写得好,而是谁的Harness搭得稳。走出第一步很简单——下次AI犯错的时候,把那条规则写下来。但不要停在那里。继续追问自己:这条规则,能不能被自动检查?能不能被系统强制执行?

从“写下来”到“工程化”,中间的路就是Harness Engineering。

本文由 @Irene颜 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Pexels,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!