AI 最难的一步是敢担责

0 评论 142 浏览 0 收藏 11 分钟

当AI从'问答助手'升级为'办事伙伴',责任边界正在被重新定义。千问接入打车服务标志着AI首次承担真实场景的决策风险,从信息整理者转变为结果负责人。本文深度剖析'托付'与'负责'背后的产品逻辑,揭示从GUI到LUI的交互革命如何让技术真正服务于人。

有朋友跟我聊:

千问又上新功能了,这次是打车。感觉它隔三差五就接一个生活服务skill,点外卖、订酒店机票和景点门票、买电影票,现在又加上了打车。

确实都是真能用上的东西,随口说一句,事儿就给你办好了。但你有没有发现一个现象?

行业里对这些动作的反应,大多还停留在「功能上新」的层面。每次千问发一个新能力,大家讨论的都是「这个功能好不好用、体验怎么样」。

可很少有人往后退一步想想:这么密集地接入这些服务,到底是在构建什么呢?

千问已经给出了答案,总结起来就两个字:办事。不过这次接入打车,可能让「办事」这件事,又往前迈了一大步,因为它跟之前那些服务,性质完全不一样。

我先跟你说一个词:托付(Entrustment)。

你琢磨琢磨,点外卖要是选错了,大不了换一家,损失也不大。买电影票选错场次,顶多退票重买,费不了啥功夫;这些场景的容错空间都很大,就算 AI 判断有一点点偏差,后果也完全扛得住。

可打车不一样。

车型不对,可能得在路边多等十五分钟;时间卡不准,搞不好就误了一场重要的会议。这些是实实在在的损失,一旦发生了,没法倒带重来。

以前我们跟 AI 的关系,说白了是「我问你答」;我问一个问题,你给我一个参考,采不采纳、怎么选,全看我自己。AI 相当于一个顾问,不用承担任何后果。

打车这个场景,关系就变了。

当我说「帮我打车去公司」时,把这件事托付给了它,托付和提问能一样吗?提问时,决策权在你自己手里;可托付时,是把决策权完完全全交出去了。

千问敢接下这份托付,意味着它必须做到另一件事:为结果负责(Accountability)。这四个字说起来轻飘飘的,放到打车场景里,分量就完全不一样了。

你跟千问说:帮我打车去湘湖风景区,开稳点,30 块以内,车里没味。

注意,就这么一句话,AI 得同时处理四个条件:

目的地、车辆类型、价格上限、车内环境。四个条件全满足了,你才会觉得好用;可只要漏了一个,比如来了辆燃油车,或者车里有味道,体验直接就归零了。

没有人会因为你是 AI,就降低对你的期待;接了这个活,就得按真人助理的标准来交付。做到了,应该的;做不到,那就是失败。

也正因为这样,千问迈出这一步,是需要很大勇气的。

而且你再想想,打车这件事还有个特别的地方:它天生自带验证标准。比如:跟千问说:我要去奥体中心看演唱会,6 个人,今晚 8 点出发。

这句话里有一半是没说出口的。

6 个人,普通车坐不下,AI 得自己想到要安排大车;去看演唱会,意味着那个时段那片区域大概率会堵车,出发时间可能得提前。

你甚至没提回程的事,但一个靠谱助理,会顺嘴问你一句,不管 AI 怎么处理,最后好不好,你一打完车就知道了。

千问把自己放进这种场景里,相当于主动坐到了考场上,每一个用户都是考官。

跑分可以挑赛道,排行榜也能靠策略优化,一个人打完车之后心里那句「靠不靠谱」的判断,是没法优化的。这种量化的体验是最诚实的背书。

讲真的,千问不是唯一在琢磨这件事的公司。

2025 年 11 月,OpenAI 把 Uber 接入了 ChatGPT。用户可以在对话里看到车型、价格区间、预计到达时间,但到了最后一步,还是得跳转到 Uber APP 里,自己完成叫车和支付。

说白了,AI 做的事更像帮你查好了所有信息,然后,跟你说:自己去下单吧。

到2026 年 2 月底,谷歌的 Gemini 也发布了类似的功能,不过目前还在测试阶段,只支持 Pixel 10 和三星 Galaxy S26 这两款手机。

它比 ChatGPT 稍微进了一步,但你仔细想想,这两家做的事,本质上都差不多:AI 只是帮人操作另一个 APP 而已。

千问和高德的做法不太一样。

两者同属阿里生态,AI 和打车服务之间不需要「跳转」,中间环节直接融合了。有人觉得,这不就是产品设计上的小差异嘛;但背后的逻辑完全不一样。

跳转,说明 AI 只负责整理信息,最终决策还是得用户自己来;闭环,才是真正无缝衔接的丝滑感;目前全球在做这件事的几家公司里,千问是第一个走到「闭环」这一步的。

其实从更底层的角度看,「一句话打车」背后还藏着一个交互方式的大转变:从 GUI(图形用户界面)到 LUI(语言用户界面)。

这个转变看起来只是少点了几个按钮,但门槛极高。

GUI 的逻辑是什么呢?

你告诉系统要什么,但得按照它的规则来表达;点哪个按钮、选哪个选项、在哪个页面确认,每一步都有固定流程。说到底,我们在学它的语言。

LUI 反过来了。我们用自己的方式说话,系统来理解你;自然语言本身就充满了模糊性、方言化、省略和潜台词等等。AI 不光要听懂字面意思,还要理解背后的意图。

好比同样一句「要快一点」, 赶飞机的「快」和不想多等的「快」,紧迫程度完全不同。

所以,千问做这件事的难度,是要让 AI 真正听懂人话,然后把人话变成一个靠谱的决策。这中间的技术跨度,比我们想象的要大得多。

说到这,我想起自己碰到的一件事。

上次去武汉出差,晚上九点,我在路边等朋友。一个老太太走过来,手机举到我眼前,说:小伙子,你能不能帮我看看,这个定位对不对?

她带着老花镜的手在抖。

是老年人拿手机时那种小心翼翼的、控制不住的小幅度颤抖;屏幕上,打车软件的界面被她调成了最大字号,可即便这样,她还在「确认上车点」那个按钮上犹豫了很久。

我帮她操作时,她一直在旁边说:这里,没错吧?不要定位到对面了。

这种事挺常见。你要去医院门口蹲一两天就会发现,没有家人陪同、从外地来看病的人,他们自己叫车时,光搞定定位就够折腾半天了。

要有一天,这些人能直接跟手机说一句「帮我打车去火车站」,然后车就来了 ,还很准确,那意义就完全不一样了,这是技术在变得对更多人有用。

所以你看,一句话打车最终的价值,是让之前不会用、用不了这些工具的人,也能轻松用上。

我一直在想一个词来形容这件事:结果在场(Outcome Presence)。

以前 AI 只活在对话框里,你跟它聊完,关掉窗口,生活照旧;打车把边界打破了;车真的来了,人真的坐上去了,真的到了要去的地方。对那个老太太来说,这个结果就是她能顺利回家。

也正因为这件事这么重要,做起来才格外难。说实话,功能刚上线,一定会有这样那样的问题,比如:场景处理、需求理解,这些都需要时间去打磨。

换个角度想,哪个产品刚上线的时候是完美的呢?

我记得微信第一版连语音功能都没有,淘宝刚上线时页面粗糙得不像样。重要的是方向找对了,然后在真实的使用中一点一点去完善。

工作这些年,讲真的,我不止一次在路边帮人叫过车。年轻同事还好,可碰到老人时,那个画面总会留很久。每次帮完忙走开之后,脑海中都会冒出同一个念头:哎,要是有一天,他们不用这么费劲就好了。

这种事每天都在发生。在医院门口,在火车站广场,在每一个路边……

AI 行业走到今天,敢把自己放到真实场景里接受检验的,确实不多;技术走到最后,衡量它的标准可能很简单:那些最需要帮助的人,用上了没有。

聪明的 AI 很多,愿意走到路边去的,太少了。

本文由人人都是产品经理作者【王智远】,微信公众号:【王智远】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!