网友问NewBing问题,结果它上了另一个AI的当

0 评论 2660 浏览 3 收藏 9 分钟

最近,有网友在问New bing问题时发现,New bing给出了错误的回答,而造成这一问题发生的原因,在于New bing参考的AI信息源也有问题。具体如何看待这一事件,以及这类事件未来发生的可能性?不妨来看看本文的解读。

前几天,世超刷到一个帖子。

有个网友问 New Bing :象鼻山是否有缆车,New Bing上网查了下后说有的,并给出缆车开放时间和价格。

最后还强调,坐缆车可以欣赏到象鼻山的全景,值得一试。

网友问NewBing问题,结果它上了另一个AI的当。。。

乍一看, New Bing 回答还可以吼,一些必要信息它都给了,甚至想给你种草。

但一番考证后,网友发现New bing 回答是错的。

AI 回答错这种事,大家早见怪不怪了,但这次不同的是:

New Bing答错的原因,在于它参考的信息源有问题——

信息源,居然也是个AI

根据 Newbing 下方提供的参考来源,「象鼻山提供缆车」信息来自于一个知乎账号。

而这个账号,正疯狂生产大量的AI内容。

网友问NewBing问题,结果它上了另一个AI的当。。。

为啥这么说呢。

5 月 25 日这天,从下午 1 点05 开始, 20分钟内他回答了 5 个问题。

不仅回答速度快,他还涉猎贼广。

上能给出泰国、日本旅游攻略,下还熟知宠物训练,甚至了解果蛆生活习性,还知道留置看护笔试要考什么题。

字数大概都在 200字左右,回答的角度也都挺全面。

网友问NewBing问题,结果它上了另一个AI的当。。。

说实话,这背后要是一个真人在操作,那世超就是来人间凑数的……

我把它的回答复制到百度和谷歌,也并未发现是搬运。

既然不是营销号,那根据经验,这种文案口吻只有 AI 能写出来了。

目前知乎已经把百变人生禁言,并在它所有回答下方贴出「疑似 AI 」的提示,也基本能坐实这就是一个背靠 AI 的账号了。

网友问NewBing问题,结果它上了另一个AI的当。。。

所以整件事就是NewBing被另一个AI编造的答案给坑了。

你可以戏谑的说成:AI吃到了同类拉出来的狗粮。

但要世超看,这种事,将来在AI界内可能会被不断发生。

讲一个案例。

AI 行业有一种工作叫标注员,最简单的一类就是给图像打标签,比如标记下图片里的物体是汽车还是摩托车。

打过标签的图片,相当于有了参考答案,才可以拿去给AI进行训练,深度学习。

网友问NewBing问题,结果它上了另一个AI的当。。。

标注员的工作也能稍微复杂点,比如做摘要。

前段时间,瑞士洛桑联邦理工学院有一群研究人员就请了 44 名外包员工,让他们给 16 篇论文做摘要。

结果你猜咋地。

研究人员最后用技术手段识别出有 33%到 46%的摘要,是用大型语言模型生成的。

原来有一些外包员工偷懒,用 AI 帮他们生成摘要,然后用这批摘要用来训练 AI 。

他们是懂偷懒的。

网友问NewBing问题,结果它上了另一个AI的当。。。

虽然整个事件是学者们做的一场实验,但从本质上说,这不也是一起AI吃到同行拉的狗粮的故事么?

我认为这可不是个好兆头。

要知道大语言模型非常复杂,它需要的训练数据极其庞大,也是关键所在。

不管是书籍还是网络上发布的帖子,文章,这些由人类创造的作品,因为自然、干净、质量高,对正在长身体的AI来说,就是一个营养拉满的训练语料库,

前段时间为什么 reddit 要对 API 收费,就因为上面数以万计的帖子,对 AI 公司来说就是一个极具有价值的人类宝库,它不想被白嫖。

网友问NewBing问题,结果它上了另一个AI的当。。。

所以在未来一段时间,不仅网络上AI生成的内容会越来越多,而且,会有越多的内容创作者和平台认识到数据的价值,开始对内容进行收费。

这就意味着,以后训练AI时,语料库会不可避免来自于它们的前辈。

这个趋势下,会发生啥呢?

世超在网上搜罗一圈,发现前段时间就有英国和加拿大学者研究了这个问题,并为此发布了一篇论文。

简单概括就是,这种情况会导致AI越学越退步,他们称为Model Collapse「模型崩溃」,

网友问NewBing问题,结果它上了另一个AI的当。。。

一旦模型出现崩溃,它的瓦解速度会非常快, AI 会迅速忘了他们最开始学的大部分内容,错误也会越来越多。

说简单点, AI 会开始记不住东西,并且瞎 tm 回答。

这就意味着AI智商会迅速崩塌,一代更比一代蠢。好比一张图片被人们转来转去,高清无码总会成了爆浆表情包。

不过,比起AI和人类未来,我更担心人类自己。

因为「 AI 越练越蠢」说法建立在「大部分」训练数据来源于前辈的情况,且忽略 AI 未来可能会具备「识别 AI 文本」的能力。

而有个很残酷的事实是,互联网上 AI 生成的内容会越来越多,人类宝库会被逐渐污染。

那有没有一种可能,就像那些网络流行语一样,AI 作品、文案、图片也会逐渐融入我们日常沟通方式,甚至让我们无法离开。

长此以往,人类是否会被「驯化」。从说话习惯到思考方式,再到行为逻辑,会不会受到一定的影响。

我想,这可能要打一个问号了。

图片、资料来源

v2ex :在知乎抓到一个 ai 疯狂地污染中文互联网

The AI feedback loop:Researchers warn of‘model collapse’as AI trains on AI-generated content

AI is going to eat itself:Experiment shows people training bots are using bots

THE CURSE OF RECURSION:TRAINING ON GENERATED DATA MAKES MODELS FORGET

作者:刺猬;编辑:莽山烙铁头

来源公众号:差评(ID:chaping321),Debug the World。

本文由人人都是产品经理合作媒体 @差评 授权发布,未经许可,禁止转载。

题图来自 Unsplash,基于 CC0 协议。

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!