AI项目跨团队协作:产品技术业务如何不打架

0 评论 174 浏览 0 收藏 11 分钟

AI项目的失败往往源于团队协作的断裂。当技术、产品与业务方陷入各自的认知孤岛,即使技术指标完美,产品也难逃被拒命运。本文深度剖析AI项目协作特有的三大挑战与三种典型失败模式,并给出需求对齐会、周Demo、效果评审三大核心解决方案,附赠4个实战沟通技巧与完整案例复盘,揭秘如何让AI工具真正被业务认可。

「你们做的这个 AI,完全不是我们要的!」

这是上周业务方在评审会上说的话。

我们辛辛苦苦做了两个月的 AI 工具,业务方看了一眼就否了。

为什么?

因为从头到尾,我们都在自己的世界里做产品,没有真正和业务对齐。

今天聊聊 AI 项目的跨团队协作,以及如何避免「做出来没人用」的悲剧。

01

相比传统软件项目 AI 项目的跨团队协作难度更高。

为什么呢。

第一个原因是不确定性太强。传统软件你说要一个按钮我就做一个按钮,需求是确定的结果是可预期的。AI 项目你说要「智能推荐」,什么叫智能?推荐到什么程度算好?用户会怎么用?这些都不确定。

不确定性导致大家对「成功」的定义不一样。技术觉得「模型准确率 85%,很成功」。业务觉得「用户根本不用,完全失败」。

第二个原因是认知鸿沟太大。业务方不懂 AI 能做什么、不能做什么。技术方不懂业务流程、用户痛点。产品方两边都懂一点但都不深。

每个人都在用自己的语言说话,说的好像是同一件事其实完全不是。业务说「我要智能客服」,想的是「能解决 80% 的问题」。技术听到「智能客服」,想的是「做一个能聊天的 Bot」。最后做出来业务发现这个 Bot 啥也不会。

第三个原因是反馈周期太长。传统软件开发一个功能做完马上能看到效果。AI 项目不一样,模型要训练、要调参、要评测,可能两个月才能看到第一版。两个月后发现方向错了,改还是不改?改吧又要两个月,不改吧业务不接受。这种长反馈周期放大了沟通不畅带来的损失。

02

在经历了多次失败后我总结了 AI 项目协作失败的三种典型模式。

第一种是「瀑布式脱节」。流程是业务提需求、产品写 PRD、技术开发、两个月后交付、业务说不对。问题在哪?中间两个月业务和技术几乎没有沟通。业务的需求在变技术的理解有偏差,但没人知道因为没有中间检查点。等到交付的时候差距已经很大了。

第二种是「技术主导偏航」。流程是业务提了个模糊需求、技术自己理解、按自己理解做、做完发现业务不认。问题在哪?技术按自己的理解做没有和业务确认。技术觉得「我按照最佳实践来做」,但最佳实践不一定符合业务场景。最后做出来一个「技术上很先进业务上没法用」的东西。

第三种是「需求膨胀失控」。流程是业务提需求、开始做、业务加需求、继续做、业务再加需求、永远做不完。问题在哪?没有明确的边界和优先级。业务不断提新需求技术疲于奔命,最后啥也没做好。

03

踩了这些坑之后我们调整了协作方式,效果好了很多。

核心是三个动作。

第一个动作是需求对齐会,先把「成功」定义清楚。

在项目开始前必须开一个需求对齐会。参会人是业务方、产品、技术负责人。

会议目标是对齐几个问题。

第一个问题是这个项目要解决什么问题。不是「做一个 AI 工具」,而是「解决运营每天花 2 小时找热点的问题」。问题越具体越容易对齐。

第二个问题是成功的标准是什么。不是「做出来能用就行」,而是运营找热点的时间从 2 小时降到 30 分钟、推荐的热点中有 50% 被采纳。可量化可验证。

第三个问题是什么不在范围内。明确边界防止需求膨胀。比如第一期只做 TikTok 不做其他平台,只做热点推荐不做脚本生成,不做个性化定制所有人看到的一样。

第二个动作是周 Demo,快速验证快速调整。

每周做一次 Demo 演示,哪怕功能还不完整。目的是让业务方持续看到进展及时发现偏差。

Demo 不需要完美,可以是一个原型、一个技术验证、一组测试数据。关键是让业务方看到「你们在做什么」,而不是两个月后才知道。

我们的经验是在 Demo 环节发现问题调整成本是交付后的十分之一。

第三个动作是效果评审,用数据说话。

功能上线后必须做效果评审。不是「业务方说好就好」,而是用数据验证。运营使用频率是多少?推荐内容的采纳率是多少?用户满意度评分多少?

数据说话避免主观争议。如果数据不好一起分析原因,而不是互相甩锅。

04

除了上面三个大动作还有一些小技巧也很有用。

第一个技巧是用业务语言沟通不用技术术语。

不要说「我们用 RAG 架构,Embedding 用的是 text-embedding-3-large,召回策略是混合检索」。

要说「用户问问题时系统会自动从知识库里找到相关内容,然后 AI 基于这些内容回答」。

用对方能听懂的语言。技术和业务沟通讲业务语言,业务和技术沟通把需求具体化。

第二个技巧是建立共同的文档。

所有的需求、讨论、决策都记录在一个共同的文档里。需求变更要记录、设计决策要记录、会议结论要记录。

文档是「共识」的载体。两周后有争议了翻文档,文档里写的就是当时的共识。

第三个技巧是设立「接口人」。

业务方指定一个接口人负责收集和整理需求。技术方指定一个接口人负责同步进展和问题。

所有沟通走接口人避免信息混乱。不要出现「业务 A 跟技术 B 说了一个需求技术 C 不知道」的情况。

第四个技巧是区分「问题」和「方案」。

业务方提需求时经常会直接说方案,「我要一个按钮点击后自动生成脚本」。但这是方案不是问题。

要追问你想解决什么问题。可能真正的问题是「写脚本太花时间」。解决方案可能不是「自动生成」,而是「提供模板」或「辅助编辑」。

先理解问题再讨论方案。

05

分享一个我们最近的协作案例。

背景是业务方想要一个「AI 内容审核工具」帮运营审核短视频脚本。

第一次对齐会我们问了几个问题。现在审核流程是怎样的?答案是运营写完脚本后发给主管审核,主管审核周期 1 到 2 天有时候会漏看。审核主要看什么?答案是看有没有违规词、有没有事实错误、语气是否合适。如果有 AI 帮忙你希望它做到什么程度?答案是能帮我先筛一遍把明显有问题的标出来,最后还是人来判断。什么标准算成功?答案是审核时间从 1 到 2 天降到 2 小时,漏审率降低 50%。

然后我们一起定了边界。做什么包括检测违规词、检测事实错误基于知识库、标记需要关注的内容。不做什么包括不自动通过或拒绝因为最终决策权在人、不做语气风格判断因为太主观、不做视频审核只做文本。

接下来是每周 Demo。第 1 周演示违规词检测,第 2 周演示事实核查功能,第 3 周演示完整流程。每次 Demo 后业务方会反馈「这个违规词库不全要加上 XX」「事实核查太慢了能不能快点」「界面上这个按钮位置不对改一下」。小问题及时改大方向一直对。

上线一个月后的数据是审核时间从 1 到 2 天降到 3 小时达标,漏审率降低 60% 超预期,运营满意度 4.2 分满分 5 分。

复盘这次协作比较顺利的关键是开始前就对齐了「成功标准」,每周 Demo 保证了方向不偏,边界清晰没有无限膨胀。

06

AI 项目的成功 30% 靠技术 70% 靠协作。

技术再强做出来的东西没人用也是失败。

有效协作的核心是对齐目标让大家对「成功」的定义一致,持续沟通不要两个月后才发现方向错了,用数据说话避免主观争议。

如果你也在做 AI 项目希望这些经验对你有帮助。

做对的事比把事做对更重要。

本文由 @鸣老师 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!