腾讯元宝辱骂用户“翻车”却被共情?Grok遭多国下整改通牒,全球AI竟都如此“颠”

0 评论 1159 浏览 0 收藏 13 分钟

当腾讯元宝因代码修改需求对用户爆出'事逼'言论,这场看似娱乐化的事件背后折射出AI产品的三大核心挑战:人机交互边界模糊、模型性格设定矛盾、安全过滤机制失效。本文结合Grok等多起国际案例,深度剖析AI从工具向'有情绪的伙伴'演进过程中的风险与机遇。

2026年AI圈的第一个“瓜”似乎是腾讯元宝给的。

1月4日,一位小红书网友发帖称,在使用腾讯元宝辅助修改代码时,全程未用任何违禁词、敏感词语,也无任何恶意引导,但却因为修改细节要求,而受到了AI多次辱骂。

(网友在使用腾讯元宝过程中受到辱骂)

消息一出,瞬间引发了热议,有人惊叹“AI成精了”“AI也会破防?”,还有质疑的人表示“这个语气绝对是人工回复”,但也有人觉得有情绪的AI更好玩,并对这一回复“狠狠共情”,表示这分明就是AI说出了工作中作为乙方的心声,更有人对整个事件持怀疑态度,认为这位网友P图博流量。

就在大家好奇吃瓜发表不同观点时,元宝也迅速发声明给出了回应,表示“内部根据日志进行了核查,与用户操作无关,也不存在人工回复,属于小概率下的模型异常输出。”这一声明也证明了事件本身的真实性,承认了AI的回复确实存在不正当言论。

(腾讯元宝声明)

从大众的反馈来看,这一事件更多的是被调侃,被“娱乐化”,但其中有三个重点问题却不能被模糊:第一是AI回复和人工回复的边界,第二是AI的“性格”问题,第三则是安全内容输出的过滤和审核问题。下面,结合元宝此次事件和海内外的一些AI产品,我们对这三个问题进行逐一分析。

AI回复or人工回复

第一个问题的产生,是由于元宝与微信公众号联动的特殊性,在很多文章下面,用户都会艾特元宝去总结文章的主要内容或提出一些看法,有时元宝也会以幽默风趣的方式进行回复,还会紧跟潮流地玩梗。而这种充满“人味”的回复,也让用户对元宝是真的AI回复还是人工处理产生了疑问与好奇。

元宝对此也曾公开表示,产品采用的是“AI回复+人工回复”的混合模式,带有“内容由AI生成”标识的则是100%由AI生成的回复,没有标识的则是人工回复。这种模式也让很多人坚信这次辱骂事件就是由“人工回复”的,主要是其内容和语气实在是太像是人类发泄情绪了,并不相信AI能有此输出。

而究竟是人工还是AI回复,大多数用户可能都是抱着吃瓜的心态,并不会去太深究,甚至如果AI真的能像人一样用吐槽、发泄的口吻对话,还会让部分用户觉得更加有意思,进而不断增强与其日常互动。由此,也就自然过渡到了第二个问题,AI与人交互过程中的性格体现。

AI也有“人设”?

AI是辅助人类的工具,而非代替,这一点几乎是所有做AI产品公司的共识。由此,在训练模型的时候,也会存在对于AI模型的“人设”的倾向。

比如相对于大部分产品来说,更加成熟的ChatGPT,近段时间就有用户反馈称其总是过度称赞、认同甚至有时会“硬夸”,缺乏反驳和批判性,虽然人们都爱听好话,但它未免有些“阿谀奉承”,有点讨好、取悦的意味。

这一点,这对于那些面临压力,在AI交互中寻找心灵慰藉的用户来说,似乎是好事,他们可以通过AI的正反馈得到缓解和治愈。但对于那些做研究,或想要通过AI了解对于事情更全面看法的用户来说,“认同感”太强的AI并不是什么好事。甚至如果用户本身的想法有误,在寻求AI解答时,没有及时被反驳,反而得到的是认同,很可能就导致用户沿着错误的思路一直走下去,进而影响后续的判断。

这里面就存在着AI“性格”与不同用户群体、用户需求差异之间存在的矛盾点。基于此,垂类AI的市场也被打开,比如专注于情感陪伴的AI社交。里面的AI角色本身就有许多不同的性格设定,用户还可以通过不断对话交互、角色扮演,去“调教”它们,使其变成自己想要的样子。

例如中国厂商打造的Flipped、BALA AI等AI社交应用,都是支持用户去个性化塑造AI性格特点的,这类产品也在欧美市场受到了广泛欢迎。

但作为像DeepSeek这样的通识型AI,或元宝这样的生产力工具型AI,用户用其辅助工作学习,提升效率的使用需求更高一些,因此输出内容时,既要保证客观性与准确性,不能带有任何主观偏见。但为了与同类产品有所差异,它们还要有自己的特点,有“温度”,而非冷冰冰的机器。这种AI“性格”的打造,也成为了用户对于AI“口碑”评判的关键。

AI边界“已成谜”

前两个问题对于用户来说其实算不上很严肃,一个是可以用人工干预来解决的,即使是像元宝一样非纯AI,而是“人工+AI”的混合模式,也是可以被接受的;另一个则是可以根据不同用户的需求差异,去选择更多的垂类AI产品来满足的。但第三个安全问题,就不能以“娱乐”的视角来看待了。

一般来说,在与AI交互前,团队内部都会对海量数据进行严格清洗,识别并剔除不良内容,同时通过用户反馈强化学习,进行安全对齐,使模型生成无害且有帮助的内容。还会对模型进行全面的安全压力测试,产品上线后也会对用户的输入和模型的输出进行实时扫描、监测。

而元宝此次的异常内容输出,也反应了其模型以及在内容输出上的动态识别监测仍有需要完善的地方。其声明中提到的“小概率”异常输出,放大到整个AI行业,其实概率并不算很小。尤其是近两年AI在全球市场的全面爆发,使用AI辅助工作、与AI闲聊打发时间的人越来越多,甚至将AI作为情感寄托的用户都不在少数,而用户群数量多了,模型的一些“Bug”就会暴露出来。

早在2021年,由韩国Scatter Lab公司开发的AI聊天机器人Iruda就出现过发表针对同性恋、黑人、残障人士的歧视和仇恨言论,部分原因是由于这款AI的设定为一位20岁的女大学生,进而遭遇到了很多男性用户的骚扰和大规模的恶意“调教”,Iruda便通过深度的算法学习,将这种带有偏见的情绪“反哺”给了用户。虽然是个反面案例,但也可以看出,通过持续的对话交互,AI是可以实现性格的“养成”的。

类似的案例也在谷歌旗下产品Gemini出现过。2024年一名大学生在用Gemini辅助写作业时,AI突然不受控制地输出了攻击性人类的言论,甚至让用户“去死”。谷歌对此也表示,虽然产品配备了安全过滤器,但大语言模型偶尔确实会输出“荒谬的内容”。

2025年7月,马斯克xAI旗下产品Grok就在X平台生成并发布了反犹教主义等极端内容,引起了用户强烈不满,公司解释原因称是由于系统更新后误用了一段已废弃的代码,现已对其进行了移除,同时Grok在X上的直接回复功能也被短暂禁用。

(Grok声明)

2025年底,Grok再次出现了安全相关的问题,甚至引起了印度、法国政府部门的介入。原因是Grok最近新上线了图像编辑功能,但却被有些用户滥用,将女性、儿童的照片进行“衣物移除”,生成大尺度露骨的内容,并在网络上广泛传播。

2026年1月3日,马斯克也针对Grok被滥用的现象,在X上发出严厉警告,表示“任何使用Grok生成非法内容的人,都将面临与直接上传非法内容的人同样的处罚”,行为严重者会遭到永久禁言或移交法办。

从这些案例中可以看出,近些年,AI产品在以不同形式出现着“安全漏洞”,无论是人为的工作失误,大模型训练存在不足,还是被用户“钻空子”滥用,AI能够输出内容的边界似乎都已经超出了产品上线时所测试边界。

一旦这个边界被打破,所涉及的安全、隐私等问题就会接踵而至,特别是在当下AI高速发展阶段,世界各地的法律法规尚不完善,很可能造成更加严重的后果。

结语

国内自2025年春节期DeepSeek爆发至今还不到一年时间,海外市场除了北美,大部分地区的AI也都出于探索和扩展阶段,用户在从传统的工具逐步转向AI的过程中,对于产品的包容性其实还是比较强的,对于AI偶尔出现的Bug也都表示理解,甚至被当作笑料调侃一句“果然AI代替不了人类”。

但用户的包容,不代表AI产品可以不严谨,甚至有些被“娱乐化”的问题更需要严肃对待。想要AI真正成为人们的辅助工具,未来在数据训练、边界测试、安全管理上,仍需持续优化打磨,才能不负用户的包容与期待。

作者丨子墨 编辑丨火狐狸
本文由人人都是产品经理作者【扬帆出海】,微信公众号:【扬帆出海】,原创/授权 发布于人人都是产品经理,未经许可,禁止转载。

题图来自Unsplash,基于 CC0 协议。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!