透过一段历史,来回答我们为什么需要手机AI

0 评论 1858 浏览 3 收藏 14 分钟

现在,越来越多的厂商和开发者正在加入手机AI这一领域,越来越多的用户也在关注手机AI。那我们为什么需要手机AI?到底期待什么样的AI体验?

我们已经讨论过很多有关手机AI的问题,半年过去,我们很高兴看到越来越多的厂商和开发者加入这个大命题,越来越多的消费者开始关注AI。同时,移动AI的相关平台、解决方案和黑科技也在开枝散叶。

智能手机的历史上,曾经出现过很多令人激动的时刻。而AI的加入,显然正在酝酿下一个。

要知道,手机AI的出现和发展,并不仅仅完成了手机某部分的进化。

在芯片、算法、开发平台,以及硬件、软件、传感设备等要素的协同进化下,我们接下来很可能见证一场,人与移动设备共存方式的长久改变。从摄影、游戏、翻译这样的手机固有功能,到旅行、商务、家庭这些与每个人密不可分的生活方式,都可能被手机AI带来的冲击所改变。

然而,在对未来满怀好奇的时候,手机AI的相关赛道也开始出现拥堵,甚至混乱。很多“AI擦边球”开始出现,劣币效应若隐若现,也不免让心底泛起忧虑。

于是我们似乎应该来回答一个问题:到底我们为什么需要手机AI?手机AI又有哪些必要条件?

想要回答它,让我们回到那久远的过去——几个月之前。

“史”前时代:手机开始尝试人工智能,以及遇到的问题

虽然手机AI,这件事大举跃入公共视野,仅仅是几个月之前的事。但恐怕我们想要搞明白这次相遇,还要再把时间倒回去一点,也不多,七十年吧。

自1951年,会议确定了AI概念开始,学术界对人工智能运算的期许,始终都可以总结成三件事:像人类一样对话;用如同人类的眼镜识别万物;如人类一样推理和思考。

为了这三个目标,计算机科学和数学界努力了几十年。发明了从逻辑到专家系统,再到机器学习的各种解决方案。

有意思的是,在智能手机彻底占领人类生活方式之后,这三个“小目标”刚好能满足手机下一步进化的需求——对话操作。可以抵消触屏操作中的不便、机器视觉技术,可以让手机的拍照、视频和图像处理更多元。而基于多元数据的机器学习,可以让手机开始理解用户的习惯和需求。

从这个逻辑上看,智能手机的下一步几乎肯定是AI。但怎么跨入AI的大门,对于手机产业来说却并不是那么容易解决的问题。

其实早在移动AI芯片出现之前,各种手机探索AI的方式已经陆续诞生,或许这个可以称为手机AI的“史前时代”。

比如说:苹果手机一度以语音助手Siri掀起了浪潮,而Siri的不断进化,基本是靠AI的语音交互和语义理解能力来实现的。最早的Siri是个问答模板,而AI的加入让ta不断变得“聪明”起来。

再比如:苹果手机,很早开始探索的图片识别和标签分类,也是利用了AI的图像理解技术来实现。

在语音和图像之外,AI理解用户这件事也被尝试了出来。

2016年,荣耀发布了荣耀magic,首次探索了利用AI技术,主动理解用户信息,提供主动服务。

除此之外,AI还隐藏在手机的更多角落。比如:很多双摄解决方案中,都需要用AI的空间算法来优化拍照效果。

但以上这些探索,却不约而同遇到了问题:AI的神经网络和卷积运算模式,不同于传统的运算和图像处理任务。用CPU+GPU的传统移动运算模式来处理比较吃力,还要大量耗能。

就像上文所说苹果的图像分类,由于让手机识别图像的运算非常缓慢,必须要依托云计算来完成,所以苹果选择在夜晚进行分类处理。对于用户来说,这种隔一天才能完成的运算当然体验很差。

AI很好,但运行AI很慢很耗电,在2017年之前差不多是手机产业的共识。

那么,解决方案是什么呢?

萌芽纪元:从AI芯片开始一切

差不多所有技术发展史上,关键节点的技术突破,都会成为撬动整个行业的“胜负手”。燃油机之于轮船、汽车;交流电之于照明和电器设备,莫不如是。

对于手机AI来说,既然CPU、GPU来承担复杂的AI计算任务不靠谱。那解决方案,当然是单独做一个基于深度学习和神经网络的AI专项处理单元。

其实类似的云计算芯片解决方案已经很多,但在2017年年中的时候,外界还是普遍不看好这类技术可以在移动终端实现。

清楚记得去年7月,一位同行还跟我抬杠。他言之凿凿地告诉我,以他报道芯片十年的经验,AI移动芯片五年内都不可能出现。

好吧,最后打脸的不是我。

去年9月2日,华为率先发布了世界首款搭载AI任务专项处理能力的移动芯片——麒麟970,它的最大特点显然在于它在CPU、GPU两个通用处理单元之外,加入了AI处理单元NPU(Neural network Processing Unit,神经网络单元)。

由于利用了深度学习处理技术,NPU可以比其他处理模式,更快地处理卷积、迁移等深度学习任务,也就可以达成更快的AI任务处理能力。

9月13日,苹果在发布iPhone X时发布了A11芯片。

A11集成了一个专用于处理AI任务的运算单元“神经网络引擎(Neural Engine)”,开启了iPhone的AI之路。

随后到了10月,华为发布了搭载麒麟970的旗舰机——华为mate10,在摄影、图片识别和用户服务几个层面展开了AI攻势;而荣耀也紧随其后,发布了搭载麒麟970的V10;刚刚发布的华为P20也以此为基础,创造了DxO摄像头评测的分数新高。

目前来看,华为、荣耀、苹果的主流旗舰产品,在今年都会搭载AI专用芯片,并以此作为产品功能创新的基础,应该已经没什么疑问。

此外,谷歌在pixel2中,使用了在摄像头区域安装专用图像处,处理单元ImageProcessing Unit(IPU)的解决方案;三星则希望以新的语音交互功能,带来AI体验。

整个移动AI赛道开始变得多元,但有一个共识,似乎已经在这场比赛初期就达成了——专用的处理能力,是AI体验的基础。

创生期的共识:AI为什么需要终端计算?

无论是华为、苹果还是谷歌,似乎都在一开始就认定了,先有AI处理单元,而后有AI体验。

这到底是什么道理?直到现在,很多手机评测和分析还是没有搞清。

让我们举个例子:应该很多人都用过拍照识花功能,春天是个踏青的季节,这功能在今天可谓正当其时。但不妨回想一下,这个很有代表性的AI体验,其实反应非常慢。各种识花软件都要等上一会,假如网络不好还要等更久。

这就是因为图像识别消耗算力较大,还要到云端进行数据库匹配,最终导致体验并不是瞬时的。

其实,用CPU和GPU也都能处理AI任务,就像单CPU也能处理图像任务一样,问题是缺乏针对性算力,会导致能耗过高和大量延迟。

假如是识花倒也还好,毕竟这么雅致的事值得等上一等,但假如是直播中进行AI优化与识别,高延迟加高耗电不就太过分了?

这就是通过AI处理单元,在终端完成AI任务处理的第一个原因:提高处理速度,达成实时化,低耗能,并能够处理复杂的AI任务

另一方面,最近Facebook的数据泄露事件,闹得沸沸扬扬。而此前谷歌、苹果也都有关于数据库泄露的问题出现。

在AI时代,用户把声音、图像和视频上传给系统,完成识别与优化已经成为必然。但上传到云端,把自己的数据交给一个远在天边的服务器,似乎有些不妥。

拍个花花草草当然还好了,但如果是自己与家人的照片和视频,冒着随时可能泄露的风险,上传到云端进行AI处理,估计很多用户都会选择放弃。

这就是手机必须搭载AI处理单元的第二个原因:终端处理,保证安全。

当然,云端训练机器,终端机器服务用户的“云端一体化”思路是更加合理的。但终端AI处理能力,是整个AI服务闭环中不可或缺,但也是最难攻克的一环。

除了上述两点之外,近半年的手机AI创生史中,还有一件事是值得大家思考的。

那就是我们到底期待什么样的AI体验?

再举个例子:在去年华为Mate10发布了场景化拍照模式之后,今天小米mix2S也发布了宣传话术都近乎一样的功能。

相信不久的将来,还会看到更多场景识别拍照,最终这将成为今年主流机型的标配。

但AI真的只能如此雷同吗?

回想一下乔布斯带给智能手机的创意,最大的突破在于引入了APP模式,让各种各样的功能和体验进入到同一部手机里。而AI原本应该是更多元化,更多想象力的技术逻辑,怎么竟然变成了“天下是一家,抄我再抄他”?

开发一种AI算法很容易(模仿就更容易),让各种各样的AI功能百花齐放却有点难。

而这就是AI需要在终端完成计算的第三个原因:通过硬件提供通用AI加速能力,引进开发生态

试想一下,假如手机AI算力支持,也不提供开放接口,只是自己搞了一些简单AI功能。那一个开发者即使想出来特别牛的AI创意,基本也于事无补。

是拿少数几个AI功能,赌消费者能否买账,还是拿千万开发者的创意能力,去赌AI生态的开花结果,显然并不是特别难的选择题。

所以,整个手机AI的从无到有,从蛮荒生长到萌芽勃发,基本可以看做是一个问题和一个回答:我们到底如何AI?

答案是:走最困难的路,搭建从芯片到平台,再到生态的逻辑闭环。

毕竟AI不是魔法,不能从空中结出果子。

 

作者:脑极体,微信公众号:脑极体

本文由 @脑极体 原创发布于人人都是产品经理。未经许可,禁止转载

题图来自 Unsplash ,基于 CC0 协议

更多精彩内容,请关注人人都是产品经理微信公众号或下载App
评论
评论请登录
  1. 目前还没评论,等你发挥!