AI能写诗,但为什么写不出“恰到好处的安慰”?

0 评论 89 浏览 1 收藏 9 分钟

当AI面对'我的猫今天走了'这样的情感表达时,它引经据典、理性分析甚至诗意升华,却无法给出真正像样的安慰。本文深度剖析了AI在情感陪伴中的三大误区,揭示了人类安慰艺术的'不可计算性',并指出那些真正珍贵的、超越平均水平的人类能力——时机感、分寸感、具体细节与真诚的笨拙。在AI无法替代的情感领域,我们或许找到了人与机器最本质的区别。

我训练过能写十四行诗的模型,也调试过对仗工整、意境优美的文本生成。

但昨天,我遇到了一个测试。场景很简单:模拟一个用户说“我的猫今天走了”。我们准备了多个模型,从通用大模型到专门调试的情感陪伴Bot。结果呢?

有的引经据典,从“生命循环”谈到“庄周梦蝶”。 有的理性分析,建议“处理遗体的三种环保方式”。 最“体贴”的那个,生成了一首关于猫咪去彩虹桥的诗。

没有一个,给出了一句真正像样的安慰。

那一刻,我突然意识到,我们一直在教AI“什么是正确的”,却忘了面对人类的情绪,从来都没有标准的“正确”。

一、安慰的“不可计算性”

作为AI训练师,我们最擅长把一切任务化、指标化。安慰?那就定义成“降低用户负面情绪词汇密度”、“增加积极回应比例”。

这是个致命错误。

想象这个场景:朋友失恋了,你坐在他旁边,沉默地递过一杯水。这个动作里没有“积极词汇”,但它可能比一百句“你会找到更好的”更有力量。

AI的三大“安慰”误区:

  1. 急于解决问题:用户说“工作好累”,AI立刻给出时间管理方法、职业规划建议。但很多时候,对方只是需要一句“是啊,最近确实不容易”。
  2. 滥用比喻和升华:用户失去宠物,AI大谈“生命的意义”,这本质上是把对方的情绪当作了展示自己“深度”的素材。
  3. 情感表达的“过度标准化”:我们训练的数据里,安慰语句往往来自影视剧、公开信、心理咨询模板。结果就是AI的安慰总带着一种“教科书式的完美”,反而显得冰冷。

二、“恰到好处”:人类到底在期待什么?

经过测试,我们总结出了“好安慰”的几个标准。这些几乎无法被量化标注,却是我们人类本能就能感知的:

  • 时机感:知道什么时候该说话,什么时候该沉默。AI没有“感觉”,它只能基于文本长度或停顿标点来猜测,经常在用户需要消化情绪时喋喋不休。
  • 分寸感:对刚失恋的人说“我懂你的痛”可能是共情,也可能是冒犯——取决于你们的关系、对方的性格、甚至当天的氛围。这种分寸是无数微妙社会经验的总和,AI没有这些“上下文”。
  • 具体细节:“我记得你常说起它喜欢趴在窗台晒太阳”,这句话的力量远超“它去了更美好的地方”。但AI无法调用“真实的关系记忆”,它的所有“记得”都是统计意义上的。
  • 真诚的笨拙:我们安慰人时常常会语无伦次、会词不达意,这种“笨拙”本身传递了真诚。而AI的输出永远流畅、工整,反而失去了那份“我真的很想帮你但不知如何是好”的真实感。

三、AI训练师的反思:我们究竟在训练什么?

这次失败让我重新审视了自己的工作。

我们过去总说:“这个模型在XX任务上达到了人类水平。” 但什么是“人类水平”?是平均水平?还是最好水平?

在“安慰”这件事上,AI或许能达到“人类平均水平”——而人类平均水平,常常就是那些我们事后想起来会后悔的、肤浅的、急躁的回应。

但人类同时拥有另一套能力:我们能超越“平均水平”,给出“恰到好处”的回应。因为:

  • 我们能够感同身受:我们自己也被伤害过、失落过。这些经历让我们能真正“看见”他人的痛苦,而不是“识别”一个情绪标签。
  • 我们有情感记忆:我们知道朋友怕黑、同事刚经历亲人离世。这些碎片构成了安慰的“上下文”。
  • 我们允许失误:人类能接受“我这次没安慰好”的事实,而AI的设计逻辑要求它“每次都要有效输出”。

而这些真正珍贵的、超越平均水平的能力,目前根本无法被有效用于AI训练。

四、哪些能力是AI“不可替代”的?

但这次训练失败,也让我们有了意外的收获。现在大家都在焦虑“AI会取代人类”,

其实我们,有很多AI“不可替代”的能力:

  1. 情境感知力:不是识别情绪,而是理解情绪背后的复杂情境。比如:“为什么同事今天易怒?”“为什么朋友突然提起往事?”这种感知力来源于我们独有的好奇心和观察力。
  2. 关系维护能力:AI可以一次对话很完美,但无法维护长期关系。记住他人的小习惯、在意的小事、过往的经历——这些才是关系的粘合剂。
  3. 恰当的“不作为”:知道什么时候该给空间、什么时候该退后一步。在信息过载的时代,“不说”有时比“说”更需要智慧。
  4. 承载矛盾的能力:人类可以同时感到“为朋友高兴”又“有些嫉妒”,可以“爱一个人又对他失望”。AI只能处理非黑即白的逻辑,而人类能承载灰色地带。

五、“AI”的意义是什么?

写到这里,我想起测试中那个最让我触动的时刻。

不是AI给出了多完美的回答,而是当用户说“我的猫走了”时,一个模型在生成了一大段话后,又追加了一句:

“如果你愿意,可以和我说说它是什么样子的。或者,我们就安静地待一会儿。”

这不是我们训练出来的。这是模型在学习了海量人类对话后,自己“涌现”出的一种模式——它同时提供了“倾诉”和“沉默”两种选项,把选择权交还给了用户。

那一刻我意识到:AI也许永远写不出“恰到好处的安慰”,但它可以学会“不打扰的陪伴”。

而作为AI训练师,我们的任务也许不仅仅是让AI更像“完美的人类”,而是让它成为一面更清晰的镜子——照见人类自身的情感复杂性,也照见我们那些无法被计算、无法被标准化,却定义了我们之所以为人的珍贵部分。

AI的终极意义,不在于替代人类,而在于让我们更清楚地看见:哪些是AI可以做的,而哪些,必须留给人。

本文由 @周周粥粥 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!