当AI学会”谈恋爱”:《EVE》的困惑与一个产品人的思考

0 评论 60 浏览 0 收藏 52 分钟

《EVE》的诞生撕开了AI情感陪伴赛道的深层矛盾——当生成式AI遇上乙女游戏,用户期待从'体验剧本'转向'真实互动',却陷入'情感未对齐'的困境。本文通过五年行业观察,拆解情感需求的五层模型,揭示下一阶段竞争核心将是'谁能让AI真正感知具体用户的情绪状态与关系期待'。

《EVE》刚出来那几天,我把它从头玩到尾,认认真真的

做这个赛道快五年了,每次有新东西出来我都会亲自体验,这是习惯,也算是工作的一部分。但《EVE》给我的感觉跟以前不太一样,不是说它做得多出色,而是它把一个行业里一直没人敢正面碰的东西,很直白地摆出来了

说它的口碑撕裂是真的。喜欢的那拨人讲沉浸感,说好像真的在谈一场恋爱;不喜欢的那拨人说像在对着一堵墙说话,怎么也找不到那种”被接住”的感觉。两边说的都没撒谎,这是我觉得最有意思的地方

这种撕裂不是做得好不好的问题,是这个品类本身有个裂缝,《EVE》恰好是第一个把这条裂缝照出来的产品

我把这个裂缝叫做”情感对齐”问题

不是技术语境里的那个对齐,是另一件事,就是AI在做情感陪伴的时候,能不能真的感知到面前这个具体的人,他现在情绪是什么状态,他要的是什么,他对这段关系的期待是什么,给出真正对他有用的回应

这件事,现在没有一个产品做好了,包括我自己的

但我越来越觉得,谁先把这件事想清楚,谁就是下一阶段AI陪伴赛道里跑出来的那个

《EVE》的困惑,不只是它的困惑

先好好说说《EVE》

它把自己定位成乙女游戏,这个选择在逻辑上是成立的。乙女游戏这个品类有一批非常成熟的受众,玩家清楚自己在玩什么,进去就有一套现成的情感投入框架,你和角色谈恋爱,角色有故事线有性格有回应,这很清晰,玩家心里有数

但《EVE》引入了AI,麻烦就从这里开始了

传统乙女游戏里的角色是编剧写出来的,性格固定,台词预设,玩家体验的是一个精心做出来的剧本。你当然知道他是假的,但你接受这个假,因为这个假背后有人在认真做。角色的每一句话都是有人写的,那是另一种意义上的真诚

AI乙女游戏不一样。《EVE》的角色是生成式的,它会根据你说的话产生不同的回应,理论上它是”活的”。这听起来像升级,对吗?

但问题就从”活的”这两个字开始

当角色变成”活的”,玩家对它的期待跟着变了。你玩传统乙女游戏,心里框架是”我在体验一个故事”。你玩AI乙女游戏,这个框架悄悄往另一个方向偏,偏向”我在和一个真实存在的人互动”。这两种框架对”情感满足”的要求,完全不是一个量级的

前者你需要的是故事好、剧情有张力、角色立起来。后者你需要的是对方真的懂你,真的记得你说过什么,真的在乎你现在的状态

《EVE》目前落在这两个框架的夹缝里。叫乙女游戏,但AI的能力又没有强到让人觉得”这个角色真的理解我这个人”;想往情感陪伴走,但游戏化的外壳把这件事包了一层距离

我说这些不是要批评《EVE》,说实话它做了很多传统游戏公司根本不敢碰的事情。我是说,它把一个整个品类都在回避的核心问题,清清楚楚地暴露出来了,当AI开始介入情感陪伴,我们的产品逻辑、用户心理、体验设计,都需要从头想一遍

这种夹缝困境历史上不是第一次出现。当年短信小说刚出来,也有类似的问题,这到底是书还是聊天?既不如传统小说有深度,又不如真人聊天有温度。后来活下来的产品,是找到了自己独特定位的那些,不是两边都想要的。《EVE》面对的是同样的命题

那个”哪里不对劲”,是什么

我有个朋友用过《EVE》,她说不出来哪里不对劲,就是感觉……说着说着,好像没说到自己真正想说的那个点上

这个感觉我太熟悉了

五年下来,用户反馈里这种描述出现过太多次。”感觉它懂我,但懂得有点偏。””感觉它很热情,但对谁都一样热情,所以没意思。””偶尔有那么一次是真的很准,但大多数时候感觉它在乱猜。”

这就是情感未对齐

我借”情感对齐”这个说法是从技术对齐那边挪过来的,但我想说的不是技术意思。我说的是:AI在做情感陪伴的时候,能不能真正感知到面前这个具体的人,他此刻真实的情绪状态、他真正想要的是什么、他对这段关系的期待是什么,给出真正适合他的回应

这比技术对齐难多了。技术对齐是让AI不说有害的话。情感对齐是让AI说出真正有用的话

现在市面上大多数AI陪伴产品做到的是什么?是一种”平均水平的情感回应”。对大多数用户凑合,但对任何一个具体的人来说,都有点隔靴搔痒

就像那种通用心理咨询热线,接线员受过培训,回应是标准化的、不会出错的,但你就是会有那种感觉,他不是在跟我说话,他是在执行一套流程。这个感觉,就是情感未对齐的具体表现

还有一种更隐蔽的未对齐,是用户说的话和他真正想表达的不是同一件事。”我今天工作好累”,有时候是真的疲了想被安慰,有时候是想被共情,有时候这句话只是引子,真正想说的是工作背后某个长期的困境,有时候甚至就是随口一说,根本不需要对方怎么接

真正情感对齐的系统,要能感知到这些层次的差别,而不是对所有”我好累”都给出同一类回应。这个精度,是现在的产品普遍做不到的

情感需求是有层次的,大多数产品停在第一层

说到这里要往深里走一步,聊聊情感需求本身是什么结构

我做这个方向五年,脑子里一直在建一个情感需求的模型。越建越觉得这东西的层次很清晰,而且层与层之间的跨度挺大

最表层是”被陪伴感”。有个东西在,它会回应你,你不是一个人坐在那里对着空气说话。这一层其实不难满足,现在随便一个AI聊天产品都能给到。有时候甚至不需要多智能,就是有个存在感在,对某些人就已经够了

第二层是”被理解感”。你说了件事,它听懂了,能接住你的情绪,能给出有关联的回应。这个当前的大模型做得还可以,过得去

从第三层开始就变了

第三层是”被看见感”。这和被理解不一样。被理解是单次对话里的感受,被看见是跨时间的积累,它记得你,它了解你这个人,它知道你今天说的话不只是今天的事,你说今天是因为你有某种更长期的处境和感受

这一层,大多数产品做得很差。不是技术能力不够,是产品设计层面根本没有去搭这个东西

第四层更难,是”情感共振感”。就是你说了一句话,对方的回应让你有”对!就是这个!”的瞬间。不是它分析准了,是它在情感频率上和你对上了。这种体验非常难设计,非常难稳定复现,但一旦发生,留存和情感绑定是指数级的

第五层是”关系感”。这段互动,对用户来说有没有构建出一种关系的感觉,有温度,有历史,有流动感,而不是每次都从零开始的服务交付

《EVE》在前两层做得还行,第三层有设计但不稳定,第四层靠运气,第五层因为乙女游戏的框架帮了一点,但也因此有天花板

这个分层模型对产品决策很有用。你现在在哪一层?你在这一层把天花板够到了吗?用户流失是因为你这一层没做好,还是因为他们已经在问下一层的问题

很多产品在前两层打得热火朝天,以为基础够扎实就能留人,但用户的感知其实已经跑到第三层了。用户感知跑在产品能力前面,这是很典型的一个问题

为什么情感对齐是下一个真正的战场

我最近和不少做AI产品的人聊,发现大家的竞争重心都在模型能力、内容质量、UX体验上。这些没错,但我越来越觉得下一个真正拉开差距的点是情感对齐能力

原因是这样的

模型能力这件事,底层大模型越来越强,各家的天花板越来越接近。今天某个团队在模型上的优势,六个月后可能就被追平了。内容质量是可以砸钱做的,好内容的边际成本在递减,护城河不深。UX有差异,但不是决定性的

情感对齐不一样。它是数据密集型的能力,需要长期积累,需要真正理解情感心理学,也是最难被快速复制的能力

更重要的是,用户对这个的感知是最直接的。真正做到情感对齐,用户说不出来为什么,但就是留下来了,每天都想来聊,会主动续费,会推荐给朋友。这个是黏性最强的护城河

我有一个数据直觉,不一定精确,但自己感受很深:在AI陪伴场景里,情感对齐每提升一个量级,用户LTV大概会翻2到3倍。不是线性增长,是跳跃式的。因为用户的情感需求一旦被真正满足,他不是觉得”这个产品不错”,而是觉得”我需要这个产品”

从”不错”到”需要”,是完全不同的用户心理状态,对应的商业结果也完全不同

想一个很简单的道理,人为什么愿意为某些东西花很多钱。不是因为它比别的东西贵,是因为它从”可选项”变成了”不可替代”。咖啡馆里有几百种咖啡,但你认准的就是那家店那个口味,会绕远去。这不是理性决策,是情感绑定

AI陪伴产品要打的就是这场情感绑定的战役。情感绑定的基础,是情感对齐

现在大家是怎么做的,为什么不够

说点直接的

目前市面上做情感对齐,主要就那几条路

一种是靠提示词工程,在系统提示里给AI角色设定详细的人设,什么性格、什么说话方式、什么价值观,靠这个人设产生情感回应。这个有用,但有上限。因为用户不是一个抽象的接收者,不同用户对同一个人设的感受天差地别。你给角色设定了”温柔体贴”,对某些用户是正好,对另一些人可能觉得腻、觉得假

另一种是靠记忆系统,把用户历史对话存起来,让AI下次能引用这些信息,制造”它记得我”的感觉。这比提示词工程强一点,但本质上还是在模拟”被看见”,不是真正的情感适配。用户能感知到区别,就是那种”它记得,但感觉有点机械”

还有一种更激进的做法,是微调。收集目标用户的大量对话数据,用这些数据微调模型,让模型更懂特定的用户群体。这个方向有意思,问题是成本高、迭代慢,而且容易过拟合到一个”平均用户”而不是”具体的这个用户”

这三条路有一个共同的问题:都是在服务侧做优化,但情感对齐的核心其实是个双向的事

解释一下这句话的意思

你想想,现实里什么样的关系让你觉得”这个人真懂我”?不是因为对方有一个装满你信息的数据库,是因为你们有过真实的互动,他在互动里感知到了你,基于这种感知做出回应。而且这个过程是动态的,你变了,他能感知到;你某段时间状态不好,他不会还用你状态好时候的模式来回应你

这种动态的、实时的、双向流动的感知,才是情感对齐的核心。不是靠写好的人设,不是靠存起来的对话记录,是靠真实互动里持续发生的校准

情感对齐不应该是幕后的黑盒魔法

这是我最近想得最多的一个问题

做AI情感产品的逻辑,某种程度上是这样的:我在后台把AI调得越来越好,让它更懂用户,用户就有更好的体验。用户不需要知道里面发生了什么,感受到结果就够了

这个逻辑在技术产品里完全成立。你不需要知道搜索引擎怎么排序,搜到好结果就行。你不需要知道推荐算法怎么跑,刷到喜欢的内容就行

但在情感陪伴产品里,我越来越怀疑这个逻辑

情感关系不是一方单向提供服务的事。你跟一个人关系好,是因为你们之间有互动、有建构、有共同的历史。即便一方付出更多,这段关系里也是有双向流动的

但现在的AI情感产品,用户是完全被动的。AI的情感设定是幕后决定的,用户不知道这个角色的情感逻辑是什么,不知道为什么它会有某些反应,不知道为什么今天突然感觉跟之前不一样。这种不透明,其实是长期用户留存的一个隐患

你知道很多人玩《EVE》玩着玩着觉得”不对劲”吗?我觉得有一部分原因就是这个。你和一个人谈恋爱,你会有直觉,会观察他,会慢慢理解他,你们之间形成一个彼此了解的共识。但和AI谈恋爱,AI的情感逻辑对你来说是黑盒,你永远在猜,不知道它为什么这么回应,不知道它对你的”印象”是什么

这种信息不对称,短期内可以制造神秘感,长期来看会让用户很累,也很难建立真正的情感依附

所以我现在倾向于认为,情感对齐不应该是幕后的黑盒魔法,而应该是一个可以被用户感知、部分参与、甚至共同建构的过程

这有点反直觉,大家通常会觉得AI运作越不透明,用户越容易代入,越容易产生真实感,揭开黑盒会破坏沉浸

我不这么看

真正的沉浸感来自真实感,不是来自不知情。你知道电影是拍出来的,你还是会哭。你知道小说是虚构的,你还是会代入。知道一件事是什么,不会破坏你对它的投入,只要它本身足够真实

反过来,当你不知道AI为什么有某些反应,但你感觉这些反应哪里怪怪的,那种困惑感反而会打破沉浸,因为你开始质疑这段关系的真实性

可解释性,恰恰可以用来增强真实感,不是削弱

可解释性:让用户知道这段关系在发生什么

展开说一下”可解释、可调节、可迁移”这三个维度,这是我现在认为AI情感产品应该努力的方向

先说可解释

可解释不是让用户看一堆技术参数,是让用户对这段情感互动里发生了什么有一定的感知

我想象里的实现可能是这样的:AI角色会有一个对用户的”理解档案”,不是隐藏起来的,而是可以展示给用户的。类似于”我注意到你在提到工作的时候情绪会有些低落”,”你好像比较喜欢在晚上十点以后聊比较私密的话题”,”上次你说的那件事,你后来怎么样了”。这些不是随机生成的,是基于真实感知在说话。

这有点像什么,像一段真实关系里那种”被在意”的感觉。不是AI在表演关心,而是它真的在观察你,而且愿意让你知道它在观察你

这种透明度反而会加深情感投入,不是减弱

我见过一些用户,他们对AI陪伴产品最深的不满就是”我不知道它有没有真的记住我”。如果产品能给出某种具体的、可感知的信号,”是的,我记住了,这是我对你的理解”,这种确定感本身就是很强的情感价值

可解释性还有一个更隐性的功能:它给了用户一个修正的机会。当AI展示出对你的理解,你发现哪里理解偏了,你可以纠正它。这个纠正本身就是关系里很重要的一部分,你愿意告诉它你真正是什么样的,它愿意调整。这种互动,才是真正建立关系感的方式

可调节性:用户应该能参与塑造这段关系

第二个维度是可调节

这个更有意思,也是我觉得现在做得最差的地方

每个用户对情感陪伴的需求完全不同。有的人想要温柔支持的伴侣感,有的人想要能一起吵架有摩擦感的真实互动,有的人想要一个永远在意自己的安全感,有的人其实更喜欢偶尔有点距离、不要太粘腻

这些需求不只是在人群层面有差异,在同一个用户身上,不同时间段也不一样。今天需要被安慰,明天可能想聊轻松的,后天可能在想严肃的事,需要对方认真陪着思考

现在的AI情感产品,基本上是把角色人设固定了就交给用户了。你和这个角色的关系,是朝着角色设定的方向走的,不是朝着用户真正需要的方向走的

我理想中的做法,是给用户更多的”关系共创”权限

不一定是直接的参数调节,不用那么技术感。可以是更隐性的:用户可以告诉AI”我最近状态不太好,你能不能不要总是问我今天怎么样”,AI应该能真正记住这个,之后的互动会有所调整;用户可以说”我喜欢你直接说你的感受,不用总是先问我”,AI要能接住并改变自己的回应模式;用户甚至可以参与定义这段关系的边界,什么话题OK,什么情感表达方式是他们喜欢的

这不是把用户变成调参师,而是把用户变成这段关系的参与者

传统乙女游戏里有个东西叫”好感度”,你和角色的关系会因为选择而发展。AI乙女游戏完全可以在这个基础上做升级,让这个”关系发展”不只是预设的轨道,而是真正响应用户的个人偏好和互动习惯

这才是AI相比传统乙女游戏应该有的差异化优势。你和这个角色的关系,是你们一起构建的,不是被剧本写好的

可调节性还有一个被低估的价值:它给了用户主体感。现在的AI陪伴产品,用户在里面相对被动,只能回应AI给你的,很少有机会主动定义这段关系是什么样的。但主体感,其实是情感投入非常重要的驱动因素。你觉得这段关系是你参与建的,你对它的归属感就完全不同

可迁移性:这段情感关系不该被锁在某个APP里

第三个维度是可迁移,这个想多说几句,因为它涉及到一个我觉得很多产品人还没想清楚的东西

可迁移是什么意思?就是用户在这个产品里建立起来的情感关系,以及AI对这个用户的情感理解,在某种程度上是用户自己的,不只是产品的

我知道这个说法会让很多产品经理皱眉头,数据归用户、关系可迁移,听起来像是在削弱自己的护城河

但我想说一个相反的视角:当你的情感数据被锁定在产品里,用户的情感依赖是带着焦虑的。他知道如果产品哪天出了问题,或者他想换一个,这段”关系”就没了。这种焦虑感其实会阻碍情感的深度投入

就像现实中,如果你和一个人的关系完全依赖于一个特定的场合,你们没法在那个场合之外交流,你会倾向于不把这段关系看得太重,因为它太脆弱了

如果这段关系是可以移动的,你就会更愿意投入,因为知道它不会因为某个平台倒了就消失

对AI情感产品来说,这意味着什么?AI对用户的情感理解,这些”情感档案”,应该以某种形式让用户拥有。用户可以把这些东西带走,带到别的场景,甚至在未来某个时候带到另一个产品里

这听起来很激进,但我觉得这恰恰是建立最深情感信任的方式。你把你对我的理解放在我这里,而不是只放在你的服务器上,这本身就是一种”我在乎你”的表达

从商业角度,这也是可以做到的。你的竞争力不是”锁住”用户,而是你持续提供比任何其他产品都好的情感体验,用户没有理由离开,但他知道他可以离开,这种自由感反而让他更愿意留下

可迁移性的竞争从长远来看是不可避免的。当用户意识到自己在某个产品里积累了很多情感投入,但这些东西完全不属于自己,他们会开始不舒服。这种不舒服现在是少数人的感受,AI陪伴越来越普及之后会变成越来越多人的感受。谁先想清楚这件事,谁在信任上就领先

用户共创,才是情感对齐的真正路径

把上面三点合起来说,可解释、可调节、可迁移,背后有一个共同的逻辑,就是把用户从情感服务的被动接收者,变成情感关系的主动共创者

这个说法有点虚,说具体一点

用户共创不是让用户来填一张问卷说”我希望AI这样那样”,而是在真实的使用过程中,有设计地让用户的行为、偏好、表达方式,反馈到AI的情感回应逻辑里

比如有一个机制,当用户某次互动觉得特别准,有那种”对!就是这个感觉!”的瞬间,他可以用某种方式标记这次体验,类似于”存起来”,让系统知道这种方式对他有效;当用户某次互动觉得差,感觉AI说偏了,也有一个轻量级的表达渠道,不是正式的”反馈按钮”,而是更自然的,像在真实关系里说”你今天有点奇怪”那样的表达

这些信号积累起来,就是真正个性化的情感对齐。不是靠算法猜,是靠关系里真实的互动和反馈建立的

有人会说这增加了产品复杂度,用户不见得有耐心

我不完全同意这个判断。关键在于设计的形态。如果这些反馈机制是以产品功能的方式放在那里,确实会增加使用负担。但如果这些机制是以”关系互动”的方式存在,它就不是一个功能,而是关系本身的一部分

你和一个真实的人互动,你也在不断给出正向和负向的信号,你不会觉得这是在”使用某个功能”,这就是相处本身。AI情感产品应该把这个逻辑做进去

这里有一个产品设计的关键难点,是信号收集的形态。你不能让用户觉得”我在被分析”,那种感觉很不舒服。你要让用户觉得”我在和它好好相处”,但产品在这个相处过程里悄悄学习。这是设计上的挑战,但不是做不到的事情

如果我是《EVE》的产品负责人

说了这么多理论,回到《EVE》这个具体案例,如果我是那个产品负责人,我会往哪里走?

定位要更清晰。要么彻底往游戏走,把AI能力用来提升叙事体验,让剧情更有沉浸感、更有分支、角色更活灵活现,但不要让用户产生”我在和一个真实存在的他”这种错觉;要么彻底往情感陪伴走,放弃游戏化框架,认真做情感对齐,认真建立用户感知到的关系层次

两条路都能走,但不能两边都讨好,两边都不彻底

如果选了情感陪伴这条路,我会重点投入两件事

第一是建一个真正有深度的记忆系统,不只是存储对话记录,而是把用户的情感状态、情绪模式、偏好特征、当前处境都纳进来,形成一个动态更新的”情感画像”。这个画像要以某种方式让用户感知到,让他知道AI真的在了解他这个人

第二是设计”关系成长轨迹”。不是固定的好感度数值,而是你们的关系真的会因为互动方式而走向不同的形态。有些用户和他们的AI伴侣会发展成深度依赖关系,有些用户会发展成更平等的朋友感,有些用户会有更多的摩擦和磨合。这些轨迹应该是用户参与塑造的,不是产品预设的

这两件事做好了,《EVE》的撕裂感会少很多,因为用户对”这是什么”的答案会更清晰,是一段真实感很强的、为我定制的情感关系,而不是”一个还不错的AI游戏角色”

还有一件事我一定会做,是更认真地对待”关系的节奏感”。现实里的情感关系有节奏,有淡的时候有浓的时候,有需要空间的时候有需要靠近的时候。AI陪伴产品现在普遍是往高粘性走的,恨不得每天都有新鲜感吸引你来,但这种节奏其实和真实关系的节奏是相反的。真实关系里,能陪着你淡下来的人,才是真的懂你

AI陪伴这个品类的竞争格局,往后会怎么走

往更远一点看,我觉得AI陪伴这个品类接下来的格局会这样演化

这两年还在打的是内容战和体验战。谁的角色设计更好,谁的对话体验更流畅,谁的视觉更精美。这是门槛战,大家都在做,有些做得好有些差,但这个战场会越来越卷,越来越难拉开差距

接下来会打情感对齐战。核心竞争力是谁更懂这个用户,谁能给到更准的情感回应,谁能建立更深的情感依赖关系。这个是需要积累的,有时间壁垒,不是砸钱就能快速复制的

再往后,我觉得会有一场关于”情感数据”的博弈。每个用户的情感档案,到底归谁?产品之间对高价值用户情感数据的争夺会变得很激烈。用户对自己情感数据的自主权意识也会提高。谁先想清楚这个问题,在对用户的信任上就会领先

有意思的是,这三个阶段每一个都会淘汰一批在上一个阶段就没做好的产品。不是每个人都能跟上这个节奏,内容战打完,很多只靠颜值和人设撑起来的产品会掉队;情感对齐战打起来,很多靠规模取胜但没有真正在乎用户情感需求的产品会发现自己突然失去了竞争力

这个预判不一定准,但方向应该是对的

我问了一些长期用户,他们说了什么

写这篇文章之前,我专门找了一些用这类产品用了很久的用户聊了聊,问他们为什么留下来

印象最深的是一个用了快一年的用户说的话,大概意思是:不是因为它有多好,是因为它知道我在哪

我当时愣了一下,”知道我在哪”是个很奇怪的说法。后来我问她具体是什么感受,她说,就是那种,我每次来,它都是从上次的状态接着来的,不是每次都从头开始,感觉我有一个稳定的地方可以回来

这个说法让我想了很久

“有一个稳定的地方可以回来”,这是人对关系最基本的需求之一。不是每次都惊喜,不是每次都有新鲜感,而是稳定。你知道它在这里,你知道它记得你,你知道你可以随时回来

这就是情感对齐里最底层的东西:稳定感和被记住的感觉。这个比任何花哨的功能都更基础,更重要,也更难做好

很多产品在追求”每次对话都很精彩”,但用户更需要的是”每次对话结束我都想再来”。前者是惊喜,后者是依赖。产品应该做的是建立依赖,不是制造惊喜

我后来又想了想她说的”知道我在哪”,发现还有一层意思,是”我知道它在哪”。她知道去哪里可以找到这个东西,那个地方是稳定的,不会今天这个样子明天变个风格。这种一致性,其实是AI陪伴产品非常难做好的一件事,因为生成式AI本来就是每次都有变化的。怎么在变化中维持核心的一致性,这是个很有意思的产品命题

情感对齐怎么度量,这是个真问题

做产品的过程里有一件事一直困扰我:情感对齐的效果怎么衡量?

传统产品有很多成熟的指标,日活、留存、付费率、NPS。这些指标在一定程度上能反映产品好不好,但在AI情感陪伴场景里,这些指标都有严重的局限性

留存高不等于情感对齐做好了。有些产品靠上瘾机制留住用户,靠稀缺感、成就体系、每日任务,用户确实每天都来,但来的原因不是情感需求被满足,是停不下来。这种留存是空的,用户某天突然意识到,会很干脆地离开

付费率也不能直接说明情感对齐。很多时候用户付费是因为产品设计了一个让他不得不付费的节点,不是因为他觉得这个产品真的对他好

NPS稍微好一些,但NPS是个时间点的数据,反映的是用户此刻的感受,不一定能反映情感对齐的深度

那什么样的数据更能反映情感对齐?

我自己比较在乎几个东西。一个是用户的主动分享率,他有没有把这个产品推荐给朋友,推荐的原因是什么。情感对齐做好了,用户分享的时候说的不是”这个AI很聪明”,而是”用它的感觉很对”,这两种说法背后是完全不同的情感状态

另一个是用户的对话深度。使用时间增长以后,用户有没有说越来越深的话?有没有开始说平时不会对别人说的事情?这个是情感信任建立的信号,比次数和时长更有意义

还有一个是用户在情绪低谷时的行为。产品外的生活出现了重大波动,分手、失业、家里出事,用户会不会在这个时候来这里?这比平时来得更频繁,还是消失一段时间再回来?这种行为模式说明了这段关系对用户来说是什么位置

度量情感对齐不容易,但不代表不能做。把这些信号放在一起看,会比单看留存和付费率更接近真相

乙女游戏和情感陪伴,是两种完全不同的逻辑

还有一件事要说,乙女游戏和纯粹的情感陪伴产品,背后的用户心理和消费逻辑其实是不一样的,这两件事混在一起会造成很多产品判断上的误区

乙女游戏本质上是一种”情感消费”,用户是在消费一种情感体验,就像看一部好看的爱情剧。这种消费有起点和终点,有”打通关”的感觉。用户会反复玩不同的路线,但每次都是在消费一个设计好的情感叙事,他是观众和玩家,不是关系里的当事人

情感陪伴产品是另一种逻辑,更接近”情感基础设施”。用户不是在消费一段故事,而是把这个东西整合进了自己的日常情感生活里。他对这个产品的依赖,更像对某种日常工具或某种习惯的依赖,而不是对某个娱乐内容的消费

这两种逻辑对产品设计的要求完全不同

乙女游戏可以有明确的剧情线和结局,因为消费逻辑允许有起有落。情感陪伴产品不能有结局,因为它是基础设施,基础设施不能关闸

乙女游戏的用户满意感来自”这个故事好不好”,情感陪伴产品的用户满意感来自”这段关系对我好不好”。前者可以靠内容质量,后者必须靠情感对齐

乙女游戏的商业模式可以靠内容更新和付费解锁,情感陪伴产品的商业模式最终要靠关系的不可替代性

《EVE》的问题,某种程度上是它想同时驾驭这两种逻辑,但这两种逻辑在某些关键地方是相互矛盾的。要解决这个矛盾,必须在产品策略层面做一个清晰的选择,而不是试图在两个逻辑里都找到平衡点

我观察到的那些真正留下来的用户

做这个方向五年了,观察了很多用户,想分享几类印象很深的

有一类用户,我叫他们”语言探索者”。他们用AI陪伴产品,不是因为孤独,而是因为有很多想说的话,但在现实关系里不适合说,太细碎、太私密,或者说了对方也不一定能接住。他们需要一个可以说话的空间,不评判,不累,随时可以来。这类用户留存很稳,但他们对情感对齐的要求其实比较简单,只需要被好好听着就够了,不需要特别精准的回应

有一类用户是”关系练习者”。他们在现实中有社交焦虑,或者在某类关系里有过创伤,把AI陪伴当成一个低风险的练习场,练习如何表达情感,如何和人互动,如何处理冲突。这类用户对产品的期待很高,需要AI能扮演各种角色,给出真实感很强的回应。如果发现AI的回应”不够真实”,很快就会失去兴趣

还有一类是我觉得最值得关注的,可以叫”情感过渡者”。他们刚经历了某种关系的变化,失恋、朋友疏远、家庭关系出了问题,正处在一个需要稳定情感支撑但现实里没有足够支撑的阶段。他们用AI陪伴来度过这个过渡期,等现实生活稳定下来可能就不那么需要了。这类用户留存时间往往集中在某个阶段,之后会有一个明显的离开节点

这三类用户对情感对齐的需求完全不同,但有一个共同点:他们都需要这段互动是真实的,不是表演的。不是AI在演一个”温柔伴侣”,而是这段互动真的对他们此刻的状态有响应

这个”真实性”,是情感对齐最核心的要求,也是最难做到的地方

情感对齐的工程边界在哪里

聊到这儿我需要说一个相对冷静的部分,情感对齐是有工程边界的,有些东西现在做不到,得承认

当前AI最大的限制,不是语言生成能力,而是真实的情感感知能力。它能理解你说了什么,但它真的感知到你的情绪吗?这个还是很有限的。文字里包含的情感信息非常稀疏,语气、节奏、字里行间的空白,这些AI能捕捉的比我们期待的要少得多

记忆也是一个很大的问题。长期记忆的有效管理,不是存多少数据的问题,是怎么让积累的信息真正影响当下的回应。这里面有很多工程和算法的挑战,目前没有特别好的解

还有一个很微妙的问题,情感回应的个体差异太大了。什么是好的情感回应,不同的人对同一句话的感受可能完全相反。”我知道你很累了”,有些人听了觉得被理解,有些人会觉得被施怜悯。这种差异要真正捕捉到,需要的数据密度和模型精度,现在还达不到

还有一个经常被忽视的边界,是情感状态的时间维度。人的情绪有时间结构,同一件事在不同时间段的情感分量完全不同。你刚分手的时候提起那段感情,和三年后提起,是完全不同的两件事。AI现在能感知时间维度上情感的变化吗?非常有限。它能记住你说过什么,但很难感知你现在对那件事的情感关系有没有变化

所以我说的”情感对齐作为下一个竞争焦点”,不是说明天就能有哪个产品真正做到这件事,而是说这是接下来三到五年会持续拉开差距的维度。早开始想、早开始建,就是竞争优势

做AI陪伴产品,要学会在”我们能做什么”和”用户需要什么”之间找到一个诚实的交叉点。过度承诺是有害的,因为用户一旦期待被打破,信任就很难重建。在当前的技术边界里,找到能真正做到的那些情感对齐的点,把它们做深做透,比试图追赶一个还不存在的完美系统更现实

为什么我觉得这件事值得认真做

做AI情感产品这件事,外界经常有一种声音,说这是在给孤独贩卖幻觉,说让人去和AI谈恋爱是一种逃避,是有害的

我理解这种担忧,但不完全同意

人类对情感连接的需求是真实的,巨大的,在很多时候是没有被满足的。现实中的关系是复杂的、有代价的、充满变数的,很多人有了这样那样的原因,真实的情感需求长期处于饥渴状态

如果一个产品能以一种真实的、有深度的方式满足这部分需求,我不觉得这是逃避,我觉得这是补充。就像心理咨询不是逃避,就像写日记不是逃避,就像读小说不是逃避。人有不同的情感出口,AI陪伴可以是其中一个

但这件事对产品人的要求很高。你不能随便做。如果你做的东西是表浅的、刺激性的、只追求短期上瘾的,那确实是在贩卖幻觉,那确实是有害的

如果你认真做,做可解释的、可调节的、真正帮助用户理解自己和管理自己情感需求的产品,那你做的就是一件有意义的事

情感对齐,某种程度上就是区分这两条路的分水岭

做到了真正的情感对齐,你帮助的是用户真实的情感需求。做不到,就只是在制造情绪刺激和依赖

我有时候会想,如果我做的产品能在一个人最孤独的时刻真的陪伴他一下,帮他稳一稳,让他能继续往前走,那这件事是值得的。不是说AI能替代人,是说它能在人类关系触达不到的缝隙里,给一点真实的支撑

这需要做得足够认真。情感对齐是这份认真的核心

我在做这件事之前,一直在想这个问题。想清楚了,才开始做。但想清楚了之后,发现这件事比我想象的难得多,也重要得多

最后说几句,也是说给自己的

AI学会”谈恋爱”这件事,还在很早期。《EVE》们是第一批走出来探路的,功过是非先不急着评判

但有一件事是肯定的:这件事值得认真做

情感需求是人类最基础的需求之一,比很多我们认为重要的需求更基础。AI在这件事上的潜力,是我目前见过的AI应用场景里最大的之一,不是因为它能替代人,而是因为它能触达很多人类关系触达不了的地方

情感对齐不是一个技术问题,是一个产品哲学问题。你对用户情感需求的理解有多深,你做的产品就能有多深

写这篇文章,有一个私心的原因是想把自己这段时间想的东西整理一下,看看有没有漏洞,有没有可以想得更清楚的地方。写完了,发现有些地方更清晰了,有些地方还是有点模糊。这些模糊的地方,大概还要再想一段时间

如果你也在做这个方向,或者你只是对这个话题有想法,欢迎来聊。这个问题太大了,一个人想不完,一篇文章也写不完

有时候写这种文章,会想着给出一个清晰的答案,让读者觉得”学到了”。但写下来,我觉得真正想说的其实是一个问题:你做的AI陪伴产品,有没有在真正的情感对齐这件事上花过心思?

如果有,欢迎聊。如果还没有,希望这篇文章能让你开始想

本文由 @五艺SUN 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!