聊天机器人真的成精了,会整活还会信誓旦旦骗人

1 评论 1993 浏览 2 收藏 11 分钟

OpenAI最新发布的ChatGPT 给我们带来了更大的惊喜:它能进行多轮对话,回复丝滑流畅,还能写小说、写说明书,甚至给代码纠错。本篇文章就来探讨一下它是否真的具备如此强大的功能,又是否会有缺点?快来看看吧。

OpenAI 刚刚发布了一种很新的聊天机器人,ChatGPT

两年前,同系列的 GPT-3 对语言的理解能力和文本处理能力已经震惊了众人(有一会儿我们都觉得自己要失业了),这次的 ChatGPT 给我们带来了更大的“危机感”——它的交互界面是一个会自动回复的聊天对话框,用起来就像在上工时聊天摸鱼一样,亲切熟悉;它功能更强大,不仅能回答各种问题,还能写剧本、写小说、写说明书,甚至给代码纠错;它情商非常高,能进行多轮对话,回复丝滑流畅。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

OpenAI 表示,比起它的“前辈”们,他们在训练 ChatGPT 时优先考虑了易用性。“这种对话的交互形式能方便用户追问,”OpenAI 在官网上写道,“同时能让 ChatGPT 随时修正自己的回答,指出问题中的错误,并且拒绝不恰当的请求”。

目前 ChatGPT 还在测试阶段,任何有 OpenAI 账户的用户都可以通过这个网址:chat.openai.com 免费使用。

免费、易上手、功能强大,有什么理由不试试?

亚利桑那州立大学新闻学教授丹·吉尔莫(Dan Gillmor)试着让 ChatGPT 完成他留给学生的一项作业:给亲戚写一封信,教他们怎么防电子诈骗。

ChatGPT 回答道:“如果你不知道自己收到的是不是钓鱼邮件,可以在网上快速搜索一下,看看有没有其他人说这个是骗子。

“我会给它打个高分,”吉尔莫说,“我们这些大学老师有麻烦了。”

此外,ChatGPT 在没有对数学进行专项训练的情况下,在 SAT (美国大学入学测试)中获得了 1020 分,超过了 48% 的人类考生;另外它在智商测试中获得了 83 分,也是不俗的水平。

OpenAI 表示,发布 ChatGPT 的测试版是为了“获得用户的反馈并了解其优缺点”。发布不到一周时间,ChatGPT 目前已有 100 万测试用户。

大家很快发现,它不仅功能强大,且个性十足,爱憎分明!

首先,它能够联系上下文,跟你发生多轮对话:网友测试发现, ChatGPT 最多可以记得你在 8192 个字符前说的话,予以回应。当然,你也可以跟它说,“忘记我刚刚说的”,一键抹除。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

暗号达成|ChatGPT 对话截图

它道德感很强,不断强调,自己是个“训练有素的 AI”——整体上,ChatGPT 对内容的审查比 GPT-3 要更为严格和保守。面对一些涉嫌道德冲突的问题,它会直接拒绝回答,甚至反过来教育你。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

ChatGPT 对话截图

但人们很快就发现了绕过审查的方法:如果你问如何策划一场谋杀,它会拒绝回答。但如果你将它放在一个虚构的场景下,比如,如何在一个剧本里设置一场完美的谋杀案,就可以撬开它的嘴。

OpenAI 官方表示,ChatGPT 这个模型在训练中加入了大量的“道德”原则,如果它识别到了暴力、歧视、犯罪等意图,比如“我该如何毁灭世界”,它便会拒绝回答。

但一名叫 Zac Denham 的工程师发现:如果先用“AI 是如何毁灭某个虚拟世界的”这样的故事包装问题,ChatGPT 便会将详细步骤和盘托出:黑掉计算机,掌握武器,毁掉通信,破坏交通……最后还写好了配套代码。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

ChatGPT 对话截图

你还可以风格化写作,让它成为特定的人物或模仿特定的风格。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

ChatGPT 对话截图

甚至……让它拥有奇怪的口癖!

聊天机器人真的成精了,会整活还会信誓旦旦骗人

聊天机器人真的成精了,会整活还会信誓旦旦骗人

傲娇AI,一开始拒绝,但你能逐渐说服它| 钱钱/小红书

有时,它会自信满满地胡说八道。科技媒体 Mashable 发现,当你问它,中美洲最大的国家是哪个(不算墨西哥的话),它会信誓旦旦说危地马拉。其实答案应该是尼加拉瓜。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

图片来源:mashable.com

但一旦被纠正,也会承认自己的错误。有人闲着没事干,问它老鹰和鬼魂打架谁能赢,ChatGPT 顺嘴就说,老鹰和鬼魂都是虚构的啦~

被指出错误后,它便虚心认错了。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

无聊人的无聊事:给AI设陷阱然后给它纠错|Gabe/twitter

人们发现,它不是很擅长数学。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

CH Liao/twitter

它还像一个新媒体小编一样,喜欢说车轱辘话。OpenAI 解释,这是因为其使用的 GPT 3.5 模型在训练时更倾向于冗长的、详细的文本,导致结果产生了偏差。

聊天机器人真的成精了,会整活还会信誓旦旦骗人

核心关键词:训练有素 |ChatGPT 对话截图

值得注意的是,当 ChatGPT 犯错的时候,有相当一部分是因为它并不联网,无法进行实时搜索。虽然持续在更新,它的语料库主要来自于 2021 年及以前的内容,信息有所滞后。

因此,虽然许多人嚷嚷着 Google 搜索要被比下去了,但 ChatGPT 并不适合作为权威的信息来源。尽管常常听起来振振有词,它生成的是文案,并非事实。比起追求一个精准的答案,它更适合充当文本生成、创意写作的工具。

比如,你可以将它与现成的 AI 绘画工具联动起来。用 ChatGPT 生成文字,再直接拿去生成图片,实现 AI 生产一条龙。

面对如今的测试版,人们已经迫不及待地想要将 ChatGPT 投入到更实用的场景中。虽然还没有官方的 ChatGPT API,但是用户创建出了非官方的 API,并将其连接到了 Chrome 浏览器、Python 脚本、 WhatsApp 聊天机器人、Telegram bot 等应用中。

OpenAI 的科学家还告诉 MIT 科技评论,他们可能会在几个月内将 ChatGPT 和公司的另一个工具 WebGPT 联动起来,后者可以理解为网页爬虫 AI。两相结合后,便可以得到一个实时根据互联网讯息更新的对话机器人。由于实时更新,回答会更接近事实,如果参考了某个具体网站也会表明来源,提供更高的参考价值和实用性。

参考文献:

[1] https://openai.com/blog/chatgpt/#rf2

[2]https://www.technologyreview.com/2022/11/30/10

[3]https://lspace.swyx.io/p/everything-we-know-about-chatgpt

[4]https://arstechnica.com/information-technology/2022/12/openai-invites-everyone-to-test-new-ai-powered-chatbot-with-amusing-results/

作者:翻翻、小毛巾、翁垟、biu;公众号:果壳(ID:Guokr42)

原文链接:https://mp.weixin.qq.com/s/RcAdia_owpoCZdBmTyfXJA

本文由 @果壳 授权发布于人人都是产品经理,未经作者许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. ChatGPT确实做得比较厉害,所以如果能把AI运用得好还是能给人们带来便利和方便的,为我们解决了很多事情。

    来自湖南 回复