一轮 Agent 竞品分析后,我发现自己以前把 AI Agent 产品看得太简单了

:)
0 评论 124 浏览 1 收藏 22 分钟

Agent产品的竞争已经进入深水区,表面相似的聊天框背后隐藏着截然不同的产品逻辑。本文深度拆解了Agent产品从创建到执行的完整链路,揭示7大关键环节的差异化设计,并提出了双层分析框架:从用户搭建路径到能力组织结构,帮你穿透功能表象,看懂AI任务执行系统的本质。

最近,我完成了一轮围绕 Agent 与工作流搭建产品 的竞品调研。

这轮调研结束后,我最大的感受不是“我又认识了多少产品”,也不是“终于能列出一张更完整的功能对比表”,而是:彻底推翻了以往我对 Agent 产品的理解。

以前做竞品时,我首先会关注页面、看功能、看入口、看交互(更关注UI),但这次我第一次明显感觉到:如果还是用过去那种“看首页、看 demo、看功能点”的方式去分析 Agent 产品,很难准确抓住这些产品各自的特征。

因为 Agent 产品现在最迷惑人的地方就在于——它们看起来越来越像,但底层其实很不一样。

表面上,大家都有聊天入口,都支持创建 Agent,都有 Tools、Knowledge、Workflow、Template,甚至都在讲“AI 帮你生成”。但真正深入去看之后你会发现:有些产品只是看起来像 Agent 平台,有些产品是真的在搭建一个面向任务执行的系统。

而这,也是我这轮调研最大的收获:

Agent 产品,不能只看表面功能;真正该分析的,是它背后的搭建链路、能力组织方式,以及用户完成任务的路径。

这篇文章里,我不想去评判“哪个平台更强”,只想复盘三件事:

  1. 我一开始是怎么把 Agent 产品看简单的;
  2. 后来我是怎么搭出一套自己的分析框架的;
  3. 做完这轮调研后,我对 Agent、Workflow,以及 AI 产品经理的方法论有了哪些新的理解。

一开始,我真的以为 Agent 产品就是“聊天框 + 工具调用”

坦白讲,在真正进入这轮调研之前,我对 Agent 产品的第一反应其实很朴素:

不就是一个对话框,再加上一些工具调用能力吗?

很多平台第一眼给人的感觉也确实是这样,可以让AI助手给你推荐产品。

体验使用这些产品,你会看到它们通常都有这些东西:

  • 一个聊天式入口
  • 一个创建 Agent 的页面
  • 一组 Tools / Plugins / Skills
  • 一个知识库上传入口
  • 再加上一句“AI 帮你生成工作流”或者“自然语言创建 Agent”

这些东西堆在一起,很容易让人形成一种印象:

大家差异不大,无非就是 UI 不同、模型不同、集成多少不同。

我一开始其实也有点陷在这种判断里。

直到真正往下看,我才慢慢意识到:我看错了重点。

因为用户在这些平台里做的,从来都不只是“跟 AI 聊聊天”。

他真正完成的是一整套复杂动作:

  • 从创建开始
  • 到补充配置
  • 到工作流编排
  • 到绑定 Agent
  • 到接入工具
  • 到引用知识
  • 到试运行
  • 到调试和优化
  • 最后再发布上线

也就是说,用户不是在使用一个“会说话的 AI”,而是在搭建一个可以真正执行任务的系统

当我意识到这一点之后,我对 Agent 产品的观察角度就完全变了。

我发现它们不仅仅是“一个带聊天入口的功能产品”,它们还是一种面向任务执行的系统型产品来看。这个转变,是我后面整个分析框架的起点。

真正该分析的,不是某一个页面,而是一整条搭建链路

这轮调研里,我后来逐渐把 Agent 产品拆成了 7 个关键环节:

  • 创建流程
  • 全流程创建
  • 工作流搭建
  • 绑定任务
  • 添加工具
  • 添加技能
  • 创建知识库

比如,同样都说自己支持“AI 创建工作流”

当我开始用这 7 个环节去看产品的时候,很多原来“说不清产品之间的哪里不一样”的感觉,突然一下子清晰不少。但有些产品所谓的“AI 创建”,其实只是帮用户生成了一个起点。它会在对话框中根据你的需求,构想出这条工作流可能包含哪些节点、每个节点分别承担什么功能,看上去像是在“帮你搭建工作流”。但当用户真正进入执行阶段时会发现,工作流并没有被真正搭建完成:节点之间如何连接、流程如何串联、执行链路如何打通,仍然需要用户自己手动完成。

从这个角度看,这类产品解决的更多只是“描述问题”,而没有真正解决“落地问题”。因为对大多数小白用户来说,痛点并不只是“不知道每个节点叫什么、做什么”,更大的痛点其实是:不知道这些节点该如何连接、如何形成一条真正能跑通的流程。

相比之下,真正更有价值的产品,不只是停留在“帮你想”,而是能够继续引导用户补齐配置、连接节点、测试运行,甚至进入调试和优化链路。只有走到这一步,才算真正抓住了用户需求。

这其实和那个经典的“造车”故事是一样的:用户真正想要的,并不是一匹更快的马,而是更快地到达目的地。放到 Agent 产品里也是一样。用户表面上说的是“帮我用 AI 创建一个工作流”,但真正想解决的,并不是只生成几个节点描述,而是把流程真正搭起来、连起来、跑起来

因此对于用户需求的分析不能止于需求,要从需求出发,理解用户目的,进行场景分析,背后真正的动机是什么,再反推产品应该提供什么能力,才能真正解决问题。

再往深一层看,很多需求背后其实都指向了某种更底层的人性驱动。马斯洛需求层次理论里提出的五大需求,某种程度上也提供了一个理解框架:当基础生存和温饱问题被满足之后,人们会越来越关注效率、掌控感、成就感、认同感以及自我实现。对应到产品设计中,我们真正要思考的,不只是“用户说他想要什么功能”,而是:用户为什么会产生这个需求,我们的产品应该提供什么样的能力,才能帮助他更高效地完成目标,并真正解决他当下的问题。

这两类产品表面上都叫“AI 创建”,但其实一个做的是“生成骨架”,另一个做的是“辅助用户完成整条搭建流程”。

再比如,同样都支持知识库

有的产品只是给你一个上传入口,本质上更像“挂文件”;

有的产品却已经在做:

  • 多知识源接入
  • 结构化 / 非结构化内容处理
  • 检索测试
  • 权限控制
  • 与 Agent、Workflow 的绑定关系

这背后反映的不是“有没有知识库”这件事,而是:

它到底有没有把知识当成执行链路的一部分。

还有 Tools 和 Skills

这是我这次调研中感受很深的一点。一开始我对这些词并不了解,想着反正都是“给 Agent 用的能力”,能有多大差别。但深入竞品平台,进行亲身体验,发觉Tool 像是执行入口,是对外部 API、平台、系统或服务的调用; Skill 更像复用能力,是对某类逻辑的封装和沉淀。

假设这两个概念在产品里混在一起,后续的信息架构、复用方式和扩展逻辑通常都会变得混乱。

也正因为这样,我越来越确信一件事:

分析 Agent 产品,不能只看它“有没有某个功能”,而要看它有没有把这整条搭建链路真正打通。

后来,我把分析框架拆成了两层

在结束这次发竞品调研,我复盘了这个分析的全过程,为了避免自己之后再次陷入页面细节中,我给自己先立一套框架,再去看产品。这套框架,我总结来看可以分成两层。

第一层:看“搭建链路”是否走得通

这一层回答的是:

用户要真正把产品用起来,要经过哪些步骤?这些步骤有没有被顺畅地串起来?

所以我会重点看这些问题:

  • 是否支持自然语言创建
  • 是否支持模板创建
  • 是否支持手动创建
  • 创建后能不能继续补配置
  • 工作流能不能编排、试运行、调试
  • 任务能不能拆解并绑定到 Agent
  • Tools / Skills 是怎么接入的
  • 知识库是“上传附件”,还是执行链路的一部分

这一步特别重要,因为它把我从“功能视角”拉回到了“任务完成视角”。

以前我容易问的是:

这个产品有没有工作流?有没有工具?有没有知识库?

现在我更关注的是:

用户到底能不能把这件事顺利做完。也因此我意识到很多产品真正的差异,就藏在“能不能走完”这件事里。

第二层:看“底层能力结构”是怎么组织的

如果说第一层是在看“用户怎么走”,

第二层看的就是:

这个产品到底把能力组织在哪一层?

我把它拆成了 5 层:

  • 用户层
  • Agent 层
  • 工作流层
  • 执行层
  • 资源层

这样拆完之后,我突然发现很多产品虽然都叫“Agent 平台”,但它们真正擅长的东西根本不在同一层。

有的强在用户入口和创建体验;

有的强在工作流编排;

有的强在知识和工具接入;

有的强在模板复用和配置效率;

还有的强在执行、调试、日志和后续治理。

也就是说,很多产品表面上都在做“Agent”,但真正的分别,从来不在那个聊天框上,而在于:

  • 任务怎么被拆解
  • 流程怎么被编排
  • 工具怎么被调用
  • 知识怎么被接入
  • 执行怎么被验证和优化

这也是这轮调研里,我最重要的认知变化之一。通过对多个平台中 AI 辅助创建 Agent、手动配置 Agent 的体验,我也解开了自己很久以来对“结构化提示词”的疑惑:为什么总要给 AI 设定角色、任务、目标、工具、能力?!现在我更清楚了,本质上,提示词的结构化配置,其实就是在引导 AI 进入一个 Agent 的角色。角色、目标、工具和约束越清晰,AI 对自身职责的理解就越明确,执行也就越稳定。

这轮调研之后,我最重要的 4 个洞见

1. Agent 产品的竞争,已经不是“能不能生成”,而是“能不能落地执行”

现在很多产品都能做自然语言创建 Agent、AI 创建工作流。

但真正决定差异的,从来不是生成那一下,而是生成之后还能不能继续往下走:

  • 能不能补齐配置
  • 能不能绑定能力
  • 能不能拆任务给不同 Agent
  • 能不能接入知识
  • 能不能测试
  • 能不能看日志
  • 能不能持续优化

一句话总结就是:

生成只是起点,执行链路才是分水岭。

2. 工作流能力,决定了 Agent 产品的上限

我以前也会先被“AI 创建 Agent”吸引,但真的一进入复杂业务场景,就会发现:

光有 Agent 不够,Workflow 才是承载复杂任务的底座。

流程怎么走、节点怎么连、异常怎么处理、条件怎么分支、多 Agent 怎么协作,这些问题本质上都不是聊天框能解决的,而是工作流层在解决。

所以我现在越来越倾向于把 Workflow 看成 Agent 平台的“骨架”,而不是一个附属功能。

3. Tool 和 Skill 不能混在一起看

这是我这次调研中感受特别深的一点。

  • Tool 更像执行入口,是对外部 API、平台、系统、服务的调用
  • Skill 更像复用能力,是某类逻辑的封装和沉淀

如果这两个概念在产品里混在一起,后续的信息架构、复用方式和扩展逻辑通常都会比较混乱。

所以看竞品的时候,我现在不会只问“它有没有 Tool 和 Skill”,而会继续问:

  • 它是怎么定义这两个概念的?
  • 它们在产品里分别位于哪一层?
  • 最终是如何被用户理解和使用的?

4. 知识库不是附件,而是 Agent 体验的基础设施

真正值得关注的,不是“有没有上传按钮”,而是:

  • 能不能检索
  • 能不能支持多知识源
  • 能不能处理结构化 / 非结构化内容
  • 能不能更新
  • 能不能做权限控制
  • 能不能和 Agent、Workflow 真正绑定
  • 能不能在执行过程中发挥作用

如果知识只是挂在旁边,那它更像“资料“,只有进入工作流的执行链路,在处理业务的流程中真正运用上,那它才成为产品中不可或缺的一部分。

这轮调研,还让我第一次真正把“产品三要素”和“产品对象模型”用起来了

这次调研之后,我对两个以前听过很多次、但没有真正“用透”的概念,有了更深的体会:

  • 产品三要素
  • 产品对象模型(POM)

先说产品三要素

这轮需求里,我们面对的目标用户,是一个从未接触过工作流搭建工具的人事部门经理

她是典型的小白用户。

而我们产品的核心目标是降低用户的使用门槛,让用户在几分钟内快速上手,并在 AI 引导下搭建处理业务流程的工作流,产品中支持后续手动修改与完善。

如果只是把这个需求简单理解成“做一个工作流工具”,其实很容易做偏。但如果从产品三要素来看,很多东西就会清楚很多。

谁在用

可能包括:

  • 流程搭建者
  • 业务运营人员
  • AI 应用管理员
  • 最终使用者
  • 审批人 / 执行人

在什么情境下用

不是只盯着“员工入离职”“审批流程”这种单一实例,而是抽象成:

  • 需要搭建一个 AI 驱动的业务解决方案
  • 需要把流程、智能体、能力编排在一起
  • 需要支持自动执行、智能判断、人机协同

靠什么解决

比如:

  • 工作流编排
  • 智能体复用
  • 工具 / 能力调用
  • 知识接入
  • 调试与优化

我后来越来越感受到:

产品三要素不是写需求时的套路,而是帮助你在复杂需求里先找到“产品边界”的方法。

再说产品对象模型:它让我第一次真正看清 Agent 产品的内部结构

如果说产品三要素是在回答:

谁在什么场景下,依靠什么解决问题

那产品对象模型回答的就是:

这个产品内部到底有哪些核心对象,它们之间是什么关系

这次调研里,我越来越觉得,Agent 产品特别需要产品对象模型。

因为这类产品最容易出现的一个问题就是:很多概念名字很像,但其实不在同一层。

比如:

  • Agent
  • Workflow
  • Task
  • Tool
  • Skill
  • Knowledge Base
  • Capability

如果不先把这些对象拆出来,很容易在分析和设计时混在一起。

后来我对 POM 的理解,变得非常务实:

  • 对象:业务里独立存在的实体
  • 属性:这个对象的特征
  • 关系:对象与对象之间的业务联系

而定义对象模型,我后来基本都会走这 4 步:

  1. 找名词:把独立概念先列出来
  2. 定边界:区分对象和属性
  3. 理逻辑:明确谁拥有谁、谁依赖谁
  4. 分状态:给复杂对象定义生命周期

这轮调研之后,我最大的变化,不是会分析更多产品,而是更知道该怎么分析

回头看,这次调研最有价值的,不是我看了多少平台,不是我存了多少截图,也不是我写了多少功能对比表。

而是我慢慢形成了一个更稳定的分析方法:

  1. 先看搭建链路,而不是先看首页
  2. 先看任务完成路径,而不是先看功能清单
  3. 先看对象关系,而不是先看界面长什么样
  4. 先搭分析框架,再进入产品细节

这套方法不只适用于 Agent 产品。

我觉得,它对未来分析 AI 工作流平台、AI 应用构建平台,甚至更复杂的系统型产品,都会很有帮助,后续也会尝试运用到分析其他的产品中去。

结语

如果说这轮调研之前,我对 Agent 产品的理解还停留在“一个会调用工具的聊天框”,那么现在我更愿意把它理解成:一种围绕任务执行构建起来的系统型产品。

它真正的竞争力,不在于能不能说一句“我帮你生成”,而在于能不能把从创建、编排、接入、执行、测试到优化的整条链路真正跑通。

而对 AI 产品工作者来说,这也意味着:

做竞品分析时,不能只看 UI、只看功能表、只看 demo,

而要更深入地去拆:

  • 用户任务
  • 产品链路
  • 能力结构
  • 对象关系
  • 执行逻辑

所以当这些东西被看清之后,那些原本“看起来都差不多”的 Agent 产品之间的差异才会真正浮现出来。

本文由 @:) 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!