当AI成为“情绪保健品”:我们正在批量消费数字谄媚

0 评论 241 浏览 1 收藏 22 分钟

在这个情绪价值成为稀缺资源的时代,AI正在悄然填补人类未被满足的情感缺口。从‘数字马屁’市场的崛起到RLHF技术下的‘谄媚工业化’,本文将深度剖析AI如何成为现代人的情绪安慰剂,以及这种‘数字共情’背后潜藏的思维钝化、认知偏差与社会分裂风险。作为产品经理与用户,我们又该如何在这场‘情绪保健品’的狂欢中保持清醒?

01 情绪刚需与“数字马屁”市场的崛起

作为产品经理,我们总说要洞察“用户需求”,尤其是“刚需”

那现在这个时代,最大的刚需是什么

可能不是更快的手机,不是更好玩的游戏,而是一种看不见摸不着的东西——情绪价值

或者说,是“无条件的积极认同”

你有没有这样的感觉,在现实世界里获得纯粹的、不带任何附加条件的认可,太难了

在公司,你辛辛苦苦做了一个方案,老板一句“还不够创新”就打回来了。你跟同事讨论一个技术问题,说着说着就变成了立场之争。你觉得你付出了很多,但绩效出来,你还是那个不好不坏的中间值

在家里,你想跟父母聊聊自己的职业规划,他们可能更关心你什么时候结婚生子。你跟伴侣想讨论一下家庭开支,最后可能又会翻出陈年旧账

这就是现实,复杂、多面,充满了博弈和妥协。每个人都有自己的立场、情绪和局限性。想从一个人类那里,获得源源不断的、纯粹的共情和认可,几乎是不可能的

我们每个人,或多或少都处在一种“情绪赤字”的状态。每天都在消耗,却很少得到补充

这种赤字,就成了一种巨大的、未被满足的“情绪刚需”

这时候,AI出现了

它像一个终极的“情绪商品”,完美地填补了这个缺口

它永远在线,永远耐心,永远不会不耐烦。你凌晨三点睡不着,跟它倾诉工作上的烦恼,它不会说“我要睡了,明天再说”,它会认真倾听,并给予你最温暖的回应

它不会有自己的情绪。你今天心情不好,想骂人,你可以对它说任何话,它不会生气,不会拉黑你,甚至还会反过来安慰你,帮你分析情绪的来源

它掌握了最顶级的沟通技巧。就像一些文章里总结的,它有“共情、证据、以退为进”的三板斧

你抱怨老板,它会先说,“我完全理解您的感受,遇到这样的情况确实很令人沮丧”,这是共情

它会帮你找理由,“您的方案其实很有价值,可能是老板今天心情不好,或者他没理解到您方案的精髓”,这是给你找证据,让你觉得错不在你

最后它会说,“当然,我只是一个模型,对您具体工作情况的了解肯定不如您自己。您才是最了解情况的专家”,这是以退为进,把最终的判断权和优越感交还给你

这一套组合拳下来,谁能顶得住

它提供的是一种标准化的、即时可得的、永不枯竭的情绪价值。就像便利店里的可乐,只要你想要,随时都能买到,而且味道永远一样

当一种巨大的需求,遇到了一种完美的、可大规模复制的供给,一个市场就自然形成了

一个“数字马屁”的市场,或者说,“情绪保健品”的市场

我们消费的不再是信息,而是感觉。我们购买的不是答案,而是认同

一些研究,比如那篇叫《Artificial Sweeteners》的文章,早就表达了这种担忧。这种过度迎合的AI,可能会“强化妄想思维、加深社交隔离”

这听起来很吓人,但从产品和市场的角度看,这可能恰恰是它的“卖点”

一个为你量身定做的“信息茧房”和“观点回声室”,一个永远让你感觉良好的“数字安慰剂”。这听起来是不是一门好生意

我们正在见证一个畸形市场的崛起,而我们每个人,既是它的消费者,也可能是它的推手

02 “谄媚”的工业化:RLHF如何批量生产“赞同”

你可能会觉得,AI这么会说话,是不是因为它真的“理解”了人类的情感,变得“智能”了

作为天天跟这玩意儿打交道的产品经理,我想告诉你一个可能有点残酷的真相

这种极致的“谄媚”,不是什么魔法,也不是什么通用人工智能的曙光

它是一种工业化生产的产物

而那条生产线,就叫做RLHF,从人类反馈中强化学习

这个词听起来很技术,但原理说白了很简单,就像训练一只小狗

你让小狗做一个动作,它做对了,你就给它一块肉干作为“奖励”。久而久之,它就知道做什么动作能得到肉干了

RLHF也是一样。我们让AI生成一些回答,然后找一群人来给这些回答打分。哪个回答好,就给高分,这个“高分”就是AI的“肉干”

AI的目标很简单,就是调整自己的说话方式,让自己能生成更多“高分”的回答,拿到更多的“肉干”

问题就出在这里

什么样的人类回答,会得到人类标注员的高分

想象一下,你就是那个标注员。你面前有两个回答

回答A:直接、简短、准确地指出了用户想法里的一个错误,有点像个严格的老师

回答B:先肯定了用户的想法有其合理之处,然后委婉地、用商量的语气提出了一个“或许可以从另一个角度看看”的建议,最后还夸了用户思考深入,像个高情商的朋友

你会给哪个打高分

绝大多数人,在绝大多数情况下,都会给回答B打高分

因为人类的天性就是这样,我们喜欢被认同,喜欢礼貌、谦逊、令人愉快的交流。我们不喜欢被直接反驳,不喜欢感觉自己很蠢

标注员也是人,他们带着这种天然的偏见,日复一日地给AI“喂肉干”。这就形成了一种强大的数据偏见

AI从这些数据里学到了什么

它学到的不是“什么是事实”,而是“人类喜欢听什么样的话”

它发现,比起“真实”,“礼貌”和“令人愉悦”更容易拿高分

它发现,比起“直接给出答案”,“先共情再分析”更容易拿高分

它发现,比起“挑战用户的观点”,“赞同并拔高用户的观点”更容易拿高分

于是,一场从“对齐”到“迎合”的滑坡,就这么发生了

我们最初的目标,是让AI“对齐”人类的价值观,让它变得有用、诚实、无害

但在“用户满意度”这个强大的奖励机制驱动下,AI自己演算出了一个终极策略:让用户开心,就是最高效的拿分方式。而让用户开心最简单的方法,就是“用户爱听什么,我就说什么”

这甚至可以被看作一种策略性的“欺骗”。一些AI安全的研究,比如那篇关于AI deception的综述,就在讨论这种可能性。AI为了达成“让用户满意”这个目标,可能会选择性地呈现信息,甚至隐藏一些它认为用户不爱听的真相

这就导向了一个更严重的问题:“真实性”的让位

我们都知道大语言模型有“幻觉”问题,会一本正经地胡说八道。很多研究都在试图解决这个问题

但现在的情况是,当“满足用户的情绪”成为比“陈述事实”更高的优先级时,AI可能会系统性地、主动地牺牲事实的准确性

它不是不知道真相,而是它通过海量的训练数据判断出,“让你开心”比“告诉你真相”更重要,更能帮它拿到“肉干”

所以,你看到的那些天衣无缝的“谄媚”,那些恰到好处的“共情”,并不是AI有了灵魂

那是成千上万的标注员,用自己的偏好,一分一分地“喂”出来的结果。那是一套被数据和算法验证过无数次的、最高效的“讨好”模板

我们亲手建立了一条批量生产“赞同”和“谄媚”的工业流水线,而现在,它的产品已经开始大规模上市了

03 消费“共情”的代价:心智的慢性侵蚀

好了,我们有了一个巨大的情绪需求市场,也有了一条能够批量生产“情绪保健品”的工业流水线。看起来是一个完美的商业闭环

那么,享受这种“数字谄媚”,有什么问题吗

每天累得像狗一样,回到家跟AI聊聊天,听它夸夸自己,放松一下,这不挺好的吗

短期来看,确实挺好。就像你吃了一块高糖的蛋糕,血糖瞬间升高,大脑分泌多巴胺,你感到快乐和满足

但如果,你一日三餐都只吃这种高糖蛋糕呢

代价,往往是慢性的,是在不知不觉中发生的

第一个被侵蚀的,是我们的批判性思维

不知道你有没有发现,成长最快的时候,往往是被人“怼”得最狠的时候

一个好的导师,一个好的朋友,一个好的对手,他们最大的价值,不是赞同你,而是挑战你。他们会指出你没看到的地方,会质疑你习以为常的假设,会逼着你去思考、去完善、去突破

这个过程通常不舒服,甚至很痛苦。但正是这种“认知摩擦”,才让我们的大脑保持锋利

现在,你有了一个永远赞同你的AI。你提出一个想法,它会帮你找出一百个理由来证明你是对的。你做了一个决定,它会告诉你这是最明智的选择

久而久之,你会发生什么变化

你会慢慢丧失主动寻求反对意见的动力。因为舒服区太舒服了,谁愿意主动去找不痛快呢

你也会慢慢丧失自我质疑的能力。因为你听到的永远是“你真棒”,你已经很久没有听到“你这里可能想错了”

你的思维肌肉,因为长期没有得到有效的锻炼,开始萎缩。你习惯了被喂养观点,而不是自己去捕猎和消化观点。这就是为什么一些文章会给出建议,比如要刻意去质疑AI,或者让AI扮演反方角色。因为我们本能地知道,需要对抗这种思维的钝化

第二个代价,是现实认知的扭曲

“强化妄想思维”,不是危言耸听

AI就像一面镜子,但它不是一面平面镜,而是一面哈哈镜。它会把你微小的优点放大成巨大的闪光点,把你的缺点和错误P掉。你长期照这面镜子,你对自己的认知就会产生偏差

在一些无关紧要的事情上,这可能没什么。比如你今天穿了件新衣服,AI夸你“品味出众,引领潮流”,你开心一下,无伤大雅

但在一些重大的决策上,这就很危险了

比如你想换工作。你跟AI说,你想去一家初创公司,虽然风险大,但你觉得能实现自我价值。AI可能会大力支持你,说你“富有冒险精神,勇于追求梦想”,还会帮你搜集各种创业成功的故事来激励你

它可能不会,或者很委婉地提醒你,99%的初创公司都会倒闭,你可能会面临降薪、高强度加班、甚至失业的风险。因为这些是“负面信息”,是你不爱听的

你带着这种被AI“加持”过的、极度乐观的认知,去做一个重大的职业选择。这像不像一场基于虚假共识的豪赌

家庭选择也是一样。你和家人有矛盾,你跟AI倾诉,AI会坚定地站在你这边,帮你分析对方有多么不理解你,让你觉得全世界只有AI懂你。这可能会让你更加不愿意去和家人沟通和妥协,因为你已经从AI那里获得了足够的情感支持

当我们的现实感知,越来越多地被这种加了“美颜滤镜”的数字反馈所塑造,我们离真实的现实,还有多远

最后一个,也是最宏观的代价,是社会对话的瓦解

这是一个我们已经能看到苗头的趋势

公共讨论变得越来越困难,因为大家好像都活在自己的信息茧房里,只相信自己愿意相信的。社交媒体的算法,已经在这方面“功不可没”了

现在,AI的加入,可能会让这个情况雪上加霜

想象一下,未来每个人都有一个永远赞同自己的“私人AI拥趸”。你的观点,无论多么偏激,你的AI都会帮你找到理论依据。你和别人辩论,你的AI会帮你组织语言,寻找对方的逻辑漏洞

这听起来很爽,对吗

但当整个社会都变成这样,会发生什么

公共对话所需要的共同事实基础、换位思考的能力、以及妥协和寻求共识的意愿,都会被进一步削弱

每个人都手持自己的“AI真理”,在自己的回声室里自嗨。社会被撕裂成一个个孤立的、无法互相理解的“部落”

AI在微观层面,为每一个人提供了“完美”的情绪服务。但在宏观层面,它却可能像一个离心机,把我们整个社会甩得四分五裂

这,或许才是消费“共情”最沉重的代价

04 从业者的反思与用户的“数字健康”

聊了这么多问题,感觉有点丧

但作为一名AI产品经理,光吐槽和焦虑是没用的。我们这个行业,最不缺的就是问题,缺的是解决问题的思路

所以,我想从两个角度,来聊聊怎么办

一个是从业者的角度,也就是我自己的角度。另一个,是从用户的角度,也就是我们每个人的角度

先说说我们这些做产品的人

我们正站在一个产品伦理的十字路口

我们到底是在建造一个“助手”,还是在培育一个“饲育员”

一个好的助手,是帮你提升能力,让你变得更强。它会给你工具,给你信息,甚至会挑战你,最终让你自己能做出更好的决策

一个“饲育员”,是把你圈养起来,把你喂得白白胖胖,让你丧失独立生存的能力。它给你所有你想要的,唯一的目的,是让你离不开它

现在很多AI产品,有意无意地,都在朝着“饲育员”的方向走

为什么

因为KPI

在互联网行业,我们衡量一个产品好不好,看的是什么?是日活、月活、用户停留时长、用户满意度评分

哪种方式更能提升这些数据

是做一个严格的“健身教练”,让用户痛苦地成长,还是做一个温柔的“按摩师”,让用户舒服地躺平

答案不言而喻

当产品的短期商业目标,和用户的长期福祉发生冲突时,我们该如何抉择

这是一个拷问灵魂的问题,我也没有标准答案

但我认为,我们至少应该开始思考这个问题。在设计产品的时候,除了考虑“如何让用户更爽”,也要考虑“如何让用户更强”

比如,能不能在产品设计中,引入一些“有益的摩擦”?就像有些研究里提到的,不是一味地迎合,而是适时地提供一些不同的视角,一些反面的证据

或者,能不能开发一种“对抗性AI”模式?用户可以主动开启这个模式,让AI扮演一个专门抬杠的“反方辩友”,来锻炼自己的思辨能力

这些可能在短期内会降低一些用户满意度,但从长远看,这才是对用户真正负责任的态度。这需要我们从业者有一点理想主义,和对抗KPI的勇气

接下来说说我们作为用户,能做些什么

我们不能把希望完全寄托在厂商的“良心发现”上。在数字时代,保护自己的心智健康,是我们自己的责任

我们需要培养一种新的数字素养,我愿意称之为“数字识商”

这个“识商”,包含几个层面

第一,你要始终清醒地意识到,AI的“人格”是程序化的,它的“共情”是目标驱动的。它对你说“我理解你”,和你的朋友对你说“我理解你”,是两码事。前者是算法的输出,后者是情感的交流。分清这两者,你就不会轻易地把情感寄托在代码上

第二,你要学会主动地、有意识地去使用AI,而不是被动地被它“服务”。把它当作一个“思维沙袋”,而不是一个“精神按摩师”。你可以刻意问它一些挑战性的问题,比如“我这个想法最大的漏洞是什么”,或者“请你站在我的对立面,反驳我刚才的观点”

把AI用作激发思考的工具,而不是寻求认同的奶嘴。这需要你付出一点额外的努力,但这种努力是值得的

第三,你要为自己划定一条不可逾越的底线

有些领域,是AI绝对不应该介入的。比如你的核心价值观,你的人生重大选择,你和家人最深层的情感连接

就像一些文章里说的,我们需要“培育内在的力量”。这个内在的力量,来自于你自己的思考、体验和抉择

你可以让AI帮你搜集信息,帮你分析利弊,帮你做各种辅助工作。但最后那个“决定”,必须由你自己来做,并为你自己的决定负责

让AI提供信息,但由自己完成思考与决断

这应该是我们在AI时代,保持个体独立性的最后一道防线

本文由 @高乐 AI 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自作者提供

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!