我们已经与深度学习与大规模神经网络一起生活,事实证明也有越来越多应用程序仰赖计算机视觉、语言理解以及机器人等技术;而如同Google资深院士Jeff Dean在近日于美国旧金山举行的SIGMOD 2016大会发表专题演说时所言,我们现在最需要从机器学习中取得的是“理解力(understanding)”。
Jeff Dean. Source: SIGMOD
“我们现在有充足的运算资源,以及足够大规模的、有趣的数据集;”Dean对SIGMOD大会的听众们表示:“我们可以储存大量的有趣资料,但我们真正需要的是理解那些数据。”
在专题演说中,Dean概述了机器学习(machine learning,ML)与神经网络的历史,还有利用以影音呈现的原始数据编程模型之不同方法;他也详细介绍Google初具规模的ML研究成果,该公司最近将在欧洲设置一个机器学习研究中心。Google继去年发表TensorFlow算法后,又宣布自己开发了命名为张量处理单元(TPU)的人工智能加速器芯片(参考阅读)。
Dean表示:“随着时间推移,我们看到越来越多利用ML技术来解决各种问题的成功案例,这导致了Google内部数百个开发团队对相关技术的使用出现真正大幅度成长。”
*Google对深度学习技术的使用趋势
(来源:SIGMOD/Jeff Dean)*
Dean举例指出,Google的语音识别开发团队,透过利用神经网络将字词错误率降低了30%;该团队以神经网络取代了语音识别流水线(pipeline)的声学模型──也就是利用原始音波来判别声音与字词──并达成了二十年来最大幅度的改善成果。
利用机器学习与神经网络技术解决的基础性问题,也能在其他领域看到,例如医疗与卫星影像;在这些案例中,可能是需要在地图上识别某栋房子以勘查太阳能光电板的安装,或是进行糖尿病患黄斑部病变的筛选。用于语音识别的相同模型,可以轻易被利用来解决其他问题。
“那些模型有很多类似的地方;”Dean指出,Google翻译应用程序现在可以利用像素识别(pixel identification),实时将符号翻译成不同语言。
不过在机器学习以及神经网络的理解能力发展方面,还有一些待克服的障碍;包括模型必须要能在无人监督的状况下学习、处理多任务任务并转换学习,还有根据现实世界情况采取行动(也被称为强化学习)。
Dean表示,研究人员已经开始关注机器学习的隐私保护技术,并将该模型架构添加到mdash广告程序中;在这部分的机器学习中,人类的互动扮演在权衡时扮演重要角色,是很大的进步:“确保你提供的资料实际遵循你想要的隐私权政策很重要,或者你可以强加更高层级的政策到模型之上。”
从系统的角度来看,Dean表示下一个挑战是如何:“利用高层级的机器语言算法描述,以及将那些不同的描述映像到广泛的不同硬件上;”他也期望能将机器学习整合到更多传统的数据处理方案中。
摩尔定律(Moore’s Law)的尾端为机器学习提供了有趣的发展方向,Dean预期会有越来越多进行机器学习运算的异质或特制硬件;Google的TensorFlow ASIC是一个例子,而最近则是尝试利用以TensorFlow启动的机器人进行大规模数据收集。
Embedded content: https://www.youtube.com/watch?time_continue=4&v=iaF43Ze1oeI
“我认为这一次神经网络已经准备就绪;在90年代,我认为它们虽然带来很多激励,但就是缺乏运算资源。而现在,我想该类技术已经展现它们能解决相关有趣问题的能力;”Dean结论指出:“如果你还没考虑如何为数据库提供深度神经网络,现在应该要开始了。”
编译:Judith Cheng
本文授权编译自EE Times,版权所有,谢绝转载
关注最前沿的电子设计资讯,请关注“电子工程专辑微信公众号”。