2018年5月24日,高通在北京举行Qualcomm人工智能创新论坛,在此次论坛上除了推出首款专门针对AI市场的骁龙700系列新成员骁龙710之外,还宣布成立AI实验室,大力投入到AI基础技术的研发以及AI应用的生态整合之中。
《电子工程专辑》记者也受邀第一时间参与了本次活动,并第一时间带来了最新现场报道。
骁龙710与骁龙660的区别?
高通的AI平台从骁龙820开始,到第二代骁龙830以及第三代的骁龙845。目前已经发布了基于神经网络运算的AI引擎。
骁龙710是骁龙700系列的首款产品,其产品定位介于800系列和600系列之间,属于次旗舰平台产品。与以往产品线的不同之处在于是专门针对AI应用提供的产品线。骁龙710的CPU部分为2+6 bigLittle大小核设计,大核心频率为2.2GHz,小核心为1.7GHz,内核架构为Kryo 360,和骁龙845一样属于第三代自主架构。
那么相比骁龙660,骁龙710究竟有哪些变化呢?
高通产品管理总监Gary Brotman介绍了骁龙710针对骁龙660以及某款竞品手机的数据对比。通过对比,骁龙710手机的整体计算能力相比骁龙660有了近乎翻番的提升。
除此之外,还进行了准确度、能效等多项参数的对比。骁龙710和660的对比关键之处,在AI图像分类性能方面,骁龙660在inception的参数是17,710是31,另外在ResNt50 、 SqueezeNet 、MobileNet等参数对比上均有明显的提升。
Gary Brotman表示,高通做了很多持续优化的软件、工具的投入和提升。“我们可以将AI性能在所有系统级芯片中实现了2倍的提升,随着时间推移,我们的软件还会持续优化,因此性能会持续优化。”
据了解,骁龙710也搭载了高端的骁龙845上的多核AI引擎AI Engine,通过Hexagon DSPAdreno 616 GPU和Kryo 360 CPU协同工作,相比骁龙660可在AI应用中实现2倍的整体性能提升。
其它的亮点包括 Spectra 250 ISP可通过AIE实现深度感测人脸识别。通信方面支持骁龙X15 KTE和蓝牙5.0。工艺方面使用的是10nm LPP工艺。据介绍,骁龙710平台从即日起开始提供,预计Q2会有相关终端上市。
高通成立AI Research的目标?
除了骁龙710的发布,高通还宣布成立Qualcomm AI Research。这不是一个独立的公司,而是在高通公司内部的一个跨部门的协作组织,通过整合公司内部资源,进行包括深度学习、机器学习、能耗提升、算力分配等研究,开发如无人驾驶、ASR、计算机视觉等相关应用。
实际上,早在十多年前,高通就开始进行计算机视觉以及运动控制应用相关的神经网络研究,依托高通在连接和计算领域的优势,高通AI Research将开展多样化研究工作。帮助高通面向智能手机、汽车、物联网的商用解决方案奠定基础。
高通总裁 克里斯蒂安诺 阿蒙
高通做AI的研究已经有10年了,到2018年,我们已经进入第三代的AI平台。
我们看到这个平台已经做好准备,在全球提供硬件终端使用。
我们要做训练、执行和推理,这些以前在云端实现,现在通过5G也可以在所有的边缘设备进行机器学习,这意味着你的数据延迟非常低,效率也非常高。
高通的AI生态小伙伴
提到AI应用,自然离不开生态小伙伴的支持。由于高通一直以来是以技术提供商为主,涉及到具体产品的案例展示一般都是携手合作伙伴一起发布。这次AI论坛自然也不例外。在会场外的展示区,采用高通骁龙660及骁龙845的重要合作公司(如小米、黑鲨、一加、坚果、OPPO、VIVO)均进行了产品展示。
在论坛上,高通宣布与创通联达合作推出Turbox的平台,通过这种方式让开发者能使用骁龙AI平台在多种情况下实现集中开发。“过去12个月,AI性能在我们的平台上有200%的提升” 高通总裁 克里斯蒂安诺 阿蒙表示。
高通的重要合作伙伴小米AI与云平台副总裁 崔宝秋也登场为高通站台。
高通也和云端的合作伙伴一起合作实现体验,比如和百度一起做语音的用户界面,推动实现百度PaddlePaddle开源深度学习框架模型在骁龙移动平台的转换和应用。据介绍,百度PaddlePaddle是百度在2013年自主研发的深度学习平台,2016年8月,百度进行了开源。2018年2月,百度已表示全面支持高通AI Engine及其生态系统。
这些都是搭载了高通AI引擎的产品,所以不仅仅是关于硬件,还包括软件、框架广泛的支持,不管是Linux还是操作系统。
除了智能手机,骁龙AIE平台正在赋能各个行业,包括摄像头、音箱、无人机、无人驾驶汽车等。
从语音交互出发,如何把Voice UI建立一个真正的虚拟的个人助理?
高通总裁 克里斯蒂安诺 阿蒙认为,高通作为业界领先的公司,始终在推动系统侧在终端演进的发展上。他表示,从语音交互入手,未来往个人私人助理方向演进将是AI应用的一大趋势。
在以往,如亚马逊ECHO等智能音箱成为语音交互的主要设备,但是相关的AI应用主要在云端实现。而侯纪磊认为,未来在边缘设备实现本地化的AI计算将是趋势。从信号的前端处理,语音预处理,激活、识别对应人类的听觉过程,“我们大脑的语言信息处理的过程,最后从文字转成语言和信号回放,这代表了非常接近人类的语音交互方式。”
在今年的CES上,高通用骁龙845平台做了一个DEMO,就展示了VOICE UI的应用。智能家居的环境中实现终端侧的语音交互实例,这个实例中可以演示自动语音识别和自动语音处理。高通高级研发总监侯纪磊也表示,目前包括谷歌、百度等互联网公司都有先进的VOICE UI的技术,但是他们的方案偏重性还是偏云端。
Voice UI存在了很多年,为什么这几年这么火爆呢?侯纪磊认为,随着深度学习的出现,卷积和回归神经网络的使用,可以看到Voice UI的性能指标逐渐达到或超越人类的识别准确率。更多应用场景和商业模式开始出现,Voice UI从云端向终端侧快速迁移的过程。
Voice UI从云端到终端的演进过程的优势有哪些?侯纪磊认为有3点:
1.隐私,很多人从用户的隐私数据不希望上传到云端处理,
2.即时响应,这是终端语音处理的优势
3.始终开启和情景感知。当Voice UI跟人交流的时候,能够知道人的环境和心境,这样可以调整交流内容。
“当然我们认为云端仍然很重要,从云端角度,一些复杂的个别的语音的实例,终端还没办法助力。另外模型的更新,知识库的应用,不是更宽泛的服务角度,云端和终端都是互补的。” 侯纪磊表示。
由于Voice UI需要始终在线,高通通过机器学习的技术已经进行了多年研究,通过关键词寻找的方式,高通的性能达到非常高的一个准确率。另一个角度,针对生态链、亚马逊、百度、微软和谷歌各自的语音助理,高通的Voice UI都有很好的支持。
第一步最重要的是从个人助理来说,需要一个情景式的智能。要能融合各种传感器和个人信息能够放到一个模式中使用。目前大多数的个人信息助理,用到得到的大多数是终端侧和终端外数据,我们需要把大量的传感器能融合到其中。如何能够把传感连接是我们能够推动到的角度。
真正的个人助理应该是主动的。一个实例:一张照片是前段时间在圣地亚哥海边拍的照片,能看到GPS能告诉我这是哪里,通过卷积神经网络,视觉分析这是海边日落的照片。声音会分析在我拍照前后,会采集语音数据,当时你跟儿子聊天。从活动分析角度,我们手机有强大的惯性导航系统,这些传感器产生很多动作数据;还有很多情感和大数据分析,当你有了所有这些原始数据,可以创造一个个性化的回忆。
在这个基础上,我们怎么样去使用,如何采集到个性化的数据。
过了一段时间,我问智能助理会不会记得我跟儿子在海滩散步的记忆吗?她会直接提供这张照片,同时会分享到微信中的家庭群。基于情景分析,通过主人提示的方式实现反馈。
不要只看性能,AI能耗比将成为新的衡量标准
神经网络的规模在不断扩大,实现一点神经网络处理能力提升要花非常多的能量,所以整个曲线是往上翘的。
从上图来看,到2009年有一个深度学习的转折点,整个曲线一下变得非常陡峭。这种比例的失调,可以看到这种趋势保持下去,接下来消耗的能量会非常多。AI带来的经济效益要超过能耗的损失,不然经济上就无意义了。比如个性化的广告和推荐,基于图像和语音识别的智能安防监控,智慧城市和工厂效率的提升。
高通技术副总裁韦灵思
高通技术副总裁韦灵思认为, AI深入到行业的每一个组成部分和角落,我们今天用到的很多产品会应用到AI产品。当AI继续发展,会发现消耗的能源越来越多。
据预测,到2025年全球数据中心会消耗掉全球所有可用电力的20%。2014年一家云服务提供商消耗的电量达到36.6万美国家庭全年用电量。2017年比特币挖矿的消耗量达到爱尔兰全国的电量。
很快,AI算法的衡量标准将加入功耗和性能比。
如何让深度学习在边缘侧变得更加高效?高通在这个领域是领跑者,使用贝叶斯深度学习来进行压缩和量化应用。
贝叶斯方法的优势,一个是压缩,另一个对不确定性进行量化。比如无人驾驶中的一些不明物可以进行图像分类。
贝叶斯方法对于不确定性进行量化,如果你开车的时候,在新的环境,如果汽车没有在这个环境驾驶过,在新的环境下会思考,不知道怎么办,应该停车还是让用户决定,所以还是有局限性。
可以看到压缩比越大,性能表现越优越。AI硬件将来会是怎样的?我们有异构计算,CPU、DSP、GPU,我们过去不断提升这些硬件。我们可以去优化我们的内存和精度,能够恰到好处,有更多的能耗和更好的计算管理。
本文为《电子工程专辑》原创,版权所有,转载请注明出处并附链接
关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。