人工智能会将我们带向何方?

3 评论 4401 浏览 5 收藏 25 分钟

最近有关AI绘画的事情引发了人们的热烈讨论,而伴随着这一讨论,人们不禁再次思考起相关问题,即AI人工智能在未来是否能够代替人类的某些工作或工种,AI真的有可能产生自主意识吗?本篇文章里,作者便发表了他对人工智能的看法,一起来看一下。

01

最近在网上看到绘画界对于AI绘画热烈的争论。主要的焦点在于:AI绘画的兴起会给行业带来什么样的冲击?会否导致大量画师的失业?

其实,在这几年AI高速发展的阶段里,类似的争论一直都存在。比如:AlphaGo会不会摧毁围棋行业?GPT-3会不会摧毁传媒行业?DeepL会否摧毁翻译行业?诸如此类。

但这一次,AI在绘画界引起的反响要更大一些。为什么?也许一个原因是因为:AI绘画的兴起,的的确确让人看到了颠覆行业的可能性。

今年6月份,我体验了一款叫做Disco Diffusion的AI,做出了一些作品。详见分享一些新知识和生活方式 。当时我的感觉是:非常出色,效果极好,但是对行业尚算不上颠覆。因为出图速度太慢(一幅图要渲染10分钟),并且在构图、布局上较为欠缺,也无法准确地画出人物。只能作为辅助工具。

没想到才过了两个月,这个观点就遭到了无情的回击。

8月份,我尝试了一款新的AI,叫做Stable Diffusion。它可以说把Disco Diffusion远远甩在了后面,不仅出图速度极快(几十秒),并且质量极高,在纹理、细节、光影等方面几乎可以以假乱真,甚至可以忠实地还原出实物的效果。

以下是我从网上找的一些别人用Stable Diffusion做的图:

人工智能会将我们带向何方?

人工智能会将我们带向何方?

人工智能会将我们带向何方?

可以看到,它出图的效果,连一般的画师可能都望尘莫及。

02

那么,绘画行业会被AI绘画颠覆吗?

实际上,将AI绘画应用于实践中已经有了不少案例。一类案例是游戏工作室。现在已经有不少游戏工作室,用脚本在后台自动运行AI,在极短的时间内自动生成成千上万幅头像、人物和图标,再精选出能用的进行细化修改和调整,极大地压缩了成本。

另一类案例是专业画师。有不少画师已经开始利用AI绘画辅助创作。比如,先画一幅草图,定好整体布局,然后用AI填充上丰富而饱满的细节,再在最终的成品上进行微调,节省大量描绘和填充的时间。

可以想见,等AI绘画更进一步地发展和流行起来之后,大量基础的执行工作会被替代掉。像「人物头像」这种创意含量不高、执行步骤较为繁琐的任务,用AI来操作就可以极大地提升性价比。

进一步,AI也可以成为画师们的利器。利用AI来辅助构图、找寻灵感、填充细节……可以极大地解放画师们的劳动,而把更主要的精力集中在沟通、创意和调整上。就像电脑绘画替代了大部分手绘一样,未来无法用AI来辅助创作的画师,也同样可能会被同行所替代。

从这个角度来讲,不管行业会否被颠覆或摧毁,新的改变已经无可阻挡地、浩浩荡荡地到来。

不过,现阶段的AI,依然还停留在「工具」的定位。它能发挥出什么样的效果,完全取决于使用它的人。毕竟,AI无法取代人去跟客户沟通,也无法完全理解自然语言,更不具备通常意义上的「自主性」和「创造力」。因此,对于诸多行业而言,它其实更多的是一种机会,而不是威胁。

比如:在AphaGo家族出现的时候,也有许多人惊呼「围棋是不是要被AI摧毁了」。但其实,围棋AI给围棋行业带来的是什么呢?是门槛的大幅度降低和普及化。

在过去,你要学围棋,得去培训班学习,由专门的老师指导,跟同学对弈、复盘,经历高强度的训练。但如今不需要了。现在每个人在家里,都能非常方便地找到可用的围棋AI,你可以调整难度跟AI对弈,也可以用AI来帮你复盘。在这种情况下,老师能起到的作用就很小了,只剩下偶尔的点拨和答疑了。

这对于传统围棋培训行业的商业模式当然是一种冲击,但门槛的降低,也会带来大量热爱围棋的入门者,让围棋行业变得更加繁荣。那么,能否通过转型适应大环境的改变,就是这个行业需要去做的事情了。

再比如翻译行业。这几年,AI翻译的发展如火如荼。以最新的几个翻译引擎来说,翻译质量已经超越了一般外语水平的使用者,几乎达到了母语的水准。但AI翻译能否直接使用、会否替代掉人工翻译呢?答案也是否定的。

原因很简单:绝大多数需要翻译的领域,对翻译质量都有极高的要求,不仅要求准确,还可能会有专业术语、语境、背景、遣词用字上的要求,而这是AI难以胜任的。在这种情况下,用AI先粗译一遍,再进行细致的润色,就是更有效的做法。

因此,在这个行业,用AI进行辅助翻译已经是行业惯例。不使用AI的译员,可能很难在这个行业立足 —— 因为效率差距实在太大了。从这个角度来讲,AI给翻译行业带来的,也不是摧毁,而是更高的质量和效率。

这些只是一些消费行业的例子。事实上,近十几年以来,在全球的各个领域,使用AI作为辅助工具,已经是一种行业发展的必然趋势,也是一种默认选择。

比如,在美国,贷款机构已经开始利用AI来决定是否放款。他们会利用一套复杂的算法,依据客户的消费、债务和其他数据,最终得出客户的「信用评分」,并根据信用评分判断是否批准贷款、批准多少额度的贷款。

在英国,已经有许多地方议会开始利用AI进行社会保障决策。据《卫报》2020年的一项调查,在英国的229家地方议会中,约有100家使用AI来辅助决策,包括决定是否通过福利申请和提供社会保障。

国外的许多公司也开始用AI来进行招聘。从简历筛选、职位匹配,到对面试者进行打分和心理评估,节省了大量的人力。

在心理、医疗和健康行业,AI也得到了大量的应用。比如,能够跟你对话并引导你进行心理干预的AI,能够结合患者的数据量身制定治疗方案的AI,能够辅助医生进行诊断和提供治疗建议的AI……尽管还未实现大规模普及,但已经有了不少卓有成效的尝试。

我们都知道能够伪造视频和音频的Deepfake技术,许多人都对其忧心忡忡,但加以规范利用和引导,它也可以发展出正向的应用。比如,目前有一个研究方向,是用AI模拟出逝去的亲人,跟我们进行对话。尽管目前只能实现简单的动态,但假以时日,像《黑镜》里面的景象,很可能成为现实。

更有名的可能是GPT-3。GPT是一款非常出色的文本AI引擎,2020年发布的GPT-3,拥有1750亿个参数,可以「创作」出足以以假乱真的各种文字,包括小说、新闻、报告、散文……

它的应用空间也极其广阔。比如:游戏公司可以用它生成真正随机的、完全不同的游戏对白;小说和剧本创作者可以用它来帮助寻找灵感;媒体可以用它来快速生成新闻报道;各类服务提供商可以基于它开发各种各样的聊天机器人;文学研究者可以用它来进行文本分析……诸如此类。

那么,它摧毁传媒行业了吗?其实也没有。相反,它的存在,使得传媒和创意行业的可能性被极大地拓展了,未来的发展空间无比广阔。许多过去难以实现的效果,都变成了可能。

总而言之,不管各行各业的人怎么看待AI,AI的到来已经是一种无可争辩的事实。与其捂上眼睛去诋毁它、漠视它、恐惧它,不如想办法去迎接它,并利用它去提高自己的效率,实现人力难以企及的突破。这可能是一种更好的心态。

未来并不遥远,很可能已经在我们身边。

03

不过,要注意的是,上面所说的AI,都停留在工具的层面,也就是「弱人工智能」。本质上来说,它们只是一段对信息进行加工处理的程序。我们喂给它们一堆数据,它们再根据规则吐出我们想要的结果,仅此而已。跟我们所理解的「人工智能」有着天壤之别。

如果我们把科幻片里的人工智能 —— 那种有意识、有人格、有自己的「思想」,能够「理解」自己在做什么的强人工智能,看作100%的形态的话,那么目前的AI,可能只是不到1%。

换句话说,如果强人工智能可以看作生命的话,那么目前我们实现的弱人工智能,最多可能只是一个氨基酸。

这也说明,目前的AI只是一个极其初级的形态,它的成长空间几乎是无限的。实际上,现阶段的AI翻译引擎,比起几年前的版本,质量好了不止一个档次;同样是扩散模型,Stable Diffusion比起年初的Disco Diffusion,也好了不止一个档次。

那么,弱人工智能跟强人工智能的分野究竟在哪里呢?我们有没有可能对AI进行不断的优化和提升,使之最终能够达到强人工智能的程度?如果能够实现的话,到时的世界会变成什么样子?

以下是我的理解和思考,不一定对,仅供参考。

我们知道:目前所有的AI,不管是什么领域、采用什么模型,它们的本质都可以大致归纳为三步:训练,预测,反馈。

首先,我们需要喂给AI大量的数据,告诉它「我们希望它学到什么」,让它从这些数据里面提炼出特定的模式。这就叫做训练,这些数据就叫做训练集。

从训练集中提取出模式和特征之后,AI就可以根据这些模式,基于不同的场景,去「预测」在这个场景下会出现什么、应该如何应对。这就是AI能够产生的结果。

最后,就是对AI所产生的结果提供反馈,告诉AI它做得好不好、对不对,从而让它不断进行自我修正、自我提升,最终能够产出更好的成果。

一个常见的例子就是生成对抗网络(GAN)。它包含一个生成网络和一个对抗网络。用绘画来打比方:生成网络的任务,就是我们给它一堆训练集,比如说某个画家的许多幅画作,让它努力地学习画家的风格,然后想办法创作出一幅以假乱真的画。

而对抗网络的任务,就是努力去挑生成网络的刺,把它创作的画从真画中区分出来。通过这样的「左右互搏」,AI就能够不断自我提升,最终达到真正以假乱真的效果。

但是,目前所有的AI都存在一个问题:它们所有的训练集来源,都来源于数码信息。换句话说,它们相当于「活」在数码空间里面,跟我们所处的现实物理空间是没有任何交集的。因此,它们永远没有办法真正「理解」所得到的数据,而只能按照自己从数码空间得到的规律去生硬地「套用」在信息上面,完成我们要求的任务。

一个经典的例子是「莫拉维克悖论」:尽管AI可以做到许多人脑无法实现的事情,比如在一秒内完成上千万次运算、处理上百万条数据、做出极其复杂的决策,但是一些对人类来讲极其简单的任务,比如用眼睛区分两个杯子,在一个房间里自由行走,或者理解一段对话的上下文,对它们来说却难如登天。

为什么会这样呢?因为,数码世界是没有办法自发地产生数据,构建出一个完整的、自洽的世界的,它的一切数据,都来源于现实世界的「投射」。也就是说,它只是现实世界的一个「降维」的投影而已。因此,「活」在低维度世界的AI,只能理解我们输入给它、为它制定的规则,是不可能真正理解高维度的世界的。

打个比方:就像一部小说里的角色,哪怕写得再生动、再鲜明,他也不可能真正活过来,理解小说之外的现实世界。同样,目前的AI,只能是一种工具,它不可能具备真正意义上的意识、人格和「生命」。

04

人工智能哲学界有一个经典的问题,叫做「框架问题」。丹尼尔·丹尼特是这样表述它的:

假设现在有一个洞穴,洞穴里有一块电池,洞穴外有一个机器人,快没电了,机器人必须拿到这块电池。但与此同时,电池绑着一颗炸弹,触动电池就会引发炸弹。

机器人1号:被下达指令「拿出电池」。但拿出电池的同时,它也被炸毁了。因为它不知道触动电池同时会引发炸弹。

机器人2号:下达指令「做一件事时,必须考虑它是否会导致其他事件的发生」。于是,机器人2号一直在思考:当我拿动电池时,墙壁会变色吗?天花板会塌下来吗?等等。最终没电了。

机器人3号:下达指令「只考虑跟任务相关的事,不考虑不相关的事」。于是,机器人3号一直在思考:哪些是跟任务相关的,哪些是不相关的?墙壁相关吗?天花板相关吗?于是也没电了。

简而言之:对于AI来说,让它知道「应该在一个什么样的框架内去考虑问题」是非常困难的 —— 尽管这对人类来说毫无难度。

那么,为什么AI存在框架问题,而人类就没有这个问题呢?

我们不妨想一想:我们是如何知道「当我拿动电池时,天花板不会塌下来」的?是因为我们看到了这条规则吗?不是的。是因为我们知道:天花板是一个稳定的结构。一般来说,如果没有外力对它进行作用,它是不会变化的。

那么,我们又是如何知道「天花板是一个稳定的结构」的?是有人教给我们这条规则吗?也不是。是因为我们在成长的过程中,我们看到过非常多次的天花板,我们从生活经验中学习到天花板的特性,知道它不会轻易地塌下来,于是我们的大脑自发地从这些经验中提炼出了这条规则。

许许多多这样的规则组合起来,就形成了我们对这个世界的认知,也形成了我们思考问题、考虑问题的「框架」。

但AI是没有这些「生活经验」的。它们的所有信息来源,只有现实世界投射到数码世界的信息。因此,对它们来说,所有的信息本质上都是一堆数字,它们无法把这对数字还原成规则和框架。

我们在生活中看见过无数次的人脸,那么不需要别人教我们,我们也会知道人的脸有五官、大致的比例是什么。但AI没有这些经验。对它来说,「人脸」也只是一堆数字而已,只不过这些数字经常一起出现,似乎存在某种特定的规律 —— 这就是AI眼中的世界。

再比如,看到「落霞与孤鹜齐飞,秋水共长天一色」,会让我们产生各种各样的想象,体验到审美的愉悦感;但在AI眼中,这14个字只是一堆数据,无法产生任何联想,因此并不存在任何「意义」和「美感」。

所以,要想让AI能够真正理解现实世界,也许只有两种方式。要么,是找到一种方法,可以更加有效地传达给它关于现实世界的种种规则和「隐性知识」,让AI具备跟人类相似的思维基础;要么,是让AI模仿人类的成长过程,直接从现实世界中学习规则,构造关于现实世界的各种表征。

后者现在也开始有研究人员在探索了。今年发表在《Nature》上的一篇研究讲到:他们基于发展心理学设计出了一款机器人,可以像人类婴儿一样学习简单的物理规律。这个机器人在学习后,当看到不符合物理规律的画面时,会呈现出「惊讶」的反应 —— 这或许是一条可行的道路。

那么,AI有没有可能发展出真正的强人工智能?如果到了那一天,这个世界会变成什么样子?

说实话,我也不知道。如果AI真的能够弥补这一空缺,真正像人类一样思考和学习(或者起码「看起来」像),那么,理论上来说,似乎没有什么是无法实现的。到时的世界,也许会变得完全不一样。

尽管从目前看,这一天似乎还要很久。

05

最后,聊一个有趣的问题:AI会有意识吗?如果我们真的面对着一台宣称它具备了意识的AI,我们如何判断它是否具备意识呢?

图灵测试吗?显然不行。图灵测试测的是智能,而非意识。

意识是什么?是能够体验和感知到自身存在的一种状态。一个有意识的个体,它能够体验到自身的存在,能够有主观的感受(我们称之为感质,qualia),而不是只是对输入信息做出固定的、程式化的响应。

哲学家 Susan Schneider 提出过一个很有意思的「人工智能意识测试」。她认为:如果一台机器具备意识,能够体验到自我的存在,那么它一定也能产生跟意识相关的其他想法和感受,比如:灵魂,轮回,自我,等等。

一个简单的类推:我们每个人一定都曾经有过类似的想法:我是谁?为什么我会是「我」,而不是其他任何人?藏在「我」身体里,构成我的种种想法、念头和主观感受的那个东西是什么,在哪里?诸如此类。

Susan Schneider 认为,这是有意识的生物所必然会经历的困惑和思考。一个对象有了意识,意识到自己的存在,必然会对这种存在感到好奇,进而去探寻和思考这种存在的本质。

因此,「人工智能意识测试」的步骤如下:

  1. 阻止人工智能去学习关于意识、心灵、存在等相关的哲学和科学知识。
  2. 跟它正常交流,聊聊意识、心灵、存在……看它能不能流畅地、自然地进行回答。

如果能,那可能意味着人工智能自发地产生了对这些话题的理解和体验。这种体验来自哪里呢?既然没有外在信息的输入,那只能是来自于它自身所产生的意识体验了。

当然,让AI产生意识的难度,可能比产生强人工智能的难度还高。

我无比期待这一天的到来,又无比担忧这一天的到来。

作者:李睿秋Lachel;公众号:L先生说(ID:lxianshengmiao)

原文链接:https://mp.weixin.qq.com/s/wc7x8UpPwb1nQZpkEiSruQ

本文由 @L先生说 授权发布于人人都是产品经理,未经作者许可,禁止转载

题图来自 Unsplash,基于 CC0 协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. ai新的改变已经无可阻挡地、浩浩荡荡地到来。

    来自广东 回复
  2. 1、它们相当于「活」在数码空间里面,跟我们所处的现实物理空间是没有任何交集的。现在的数字孪生就是在帮AI建立虚拟空间到现实物理空间通道;
    2、人工智能意识测试。阻止人工智能去学习关于意识、心灵、存在等相关的哲学和科学知识。跟它正常交流,聊聊意识、心灵、存在……看它能不能流畅地、自然地进行回答。在1的基础上一旦AI完成对整个现实物理空间的全数字化,再加上不断的迭代,AI的意识觉醒应该是迟早的事,以现在的发展节奏,这一天不会太远。

    来自四川 回复
  3. 我无比期待这一天的到来,又无比担忧这一天的到来。确实,AI有太多不确定性了

    来自北京 回复