广告

一大波人工智能芯片将在2018上市 (下)

2018-01-24 09:48:53 Rick Merritt 阅读:
“我梦想的引擎,是可以随身携带,现场为我提供指导......我的目标是推动AI运行在小于100毫伏的运行。 我们需要重新思考我们如何做计算。 我们正在从基于算法的系统转向基于数据的系统。”
广告

接上两篇:

一大波人工智能芯片将在2018上市 (上)

一大波人工智能芯片将在2018上市 (中)

行业第一次致力于软件融合。

在早期的疯狂和分散之中,即使是软件融合的努力也是分散的。百度的人工智能研究团队进行了一项调查,发现了11项措施,弥补用于管理神经网络的竞争软件框架之间的差距。

最有希望的是开放神经网络交换(ONNX),这是一个由Facebook和微软开始的开源项目,最近由亚马逊加入。该小组在12月份发布了ONNX格式的第一版。它旨在将用十几个竞争软件框架中的任何一个创建的神经网络模型转换成图形表示。

芯片制造商可以在结果图上定位他们的硬件。这对于那些不能编写独立软件来支持竞争模型框架的创业公司来说是个好消息,例如Amazon的MxNet,Google的TensorFlow,Facebook的Caffe2以及微软的CNTK。

由30多家主要芯片供应商组成的团队于12月20日发布了他们的首选选项 - 神经网络交换格式(Neural Network Exchange Format,简称NNEF)。NNEF旨在为芯片制造商提供创建自己的内部格式的替代方案,就像英特尔在Nervana Graph和Nvidia所做的那样与TensorRT。

在百度找到的其他格式的大写字母名称缩写中,有ISAAC,NNVM,Poplar和XLA。百度硅谷人工智能实验室高级研究员格雷格·迪莫斯(Greg Diamos)表示:“现在知道是否会出现一个成功的实施可能还为时过早,但是我们正在走上一条更好的路,其中一条最终可能会胜出。”

AI18012401
图文: 在人工智能框架中,亚马逊声称其MxNet框架和新兴的Gluon API提供了最好的效率。 (来源:亚马逊)

另外,谷歌已经开始使用软件来自动化精简DNN模型的过程,以便他们可以运行从智能手机到物联网(IoT)节点的所有事情。 如果成功的话,可以将50Mbyte的模型降低到500K字节。

谷歌还在探索如何在手机上进行有限的模型培训,方法是根据当天收集的数据调整模型的顶层或者在夜间运行的一个流程。 像SqueezeNet和MobileNet这样的行业工作也类似地展示了更简单的成像模型的路径。

负责Google TensorFlow Lite工作的Pete Warden表示:“我们看到了大量使用机器学习的人们在各种各样的产品中大量涌现。 “让每次运算的能耗降下来这件事,让我每天工作到深夜。”

当专家细看AI的未来时,他们看到了一些有趣的可能。

今天我们使用基于手动调整模型的监督式学习。谷歌的守望者(Warden)是在不久的将来出现半监督方法的研究人员之一,手机等客户端设备自己处理一些学习。最终目标是无监督的学习 - 计算机教育它们自己,而不再需要建造它们的工程师的编程帮助。

在这条路上,研究人员正在设法自动标记数据,这些数据来自手机或物联网(IoT)节点等设备。

“谷歌说,现在我们需要大量的计算,在这个过度阶段,一旦事情被自动标记,你只需要索引新的增量内容,这更像是人类如何处理数据,”Janet George,西部数据的科学家说。

无监督学习打开了加速机器智能时代的大门,有些人认为这是数字化的必杀技。另一些人则担心技术可能会在没有人为干预的情况下以灾难性的方式失控。 Google公司TPU项目负责人Norm Jouppi说:“这让我感到害怕。

同时,从事半导体工作的学者对未来的AI芯片有自己的长远展望。

英特尔,Graphcore和Nvidia“已经在制造全标线芯片,下一步就是三维技术”,Patterson说。 “当摩尔定律如火如荼时,由于担心可靠性和成本问题,人们会在看到复杂的封装技术之前就临阵退缩了。现在摩尔定律正在结束,我们将看到很多封装方面的实验。“

这里的最终游戏是创造出新型的晶体管,可以在逻辑和存储器层上堆叠。

Notre Dame电气工程教授苏曼·达塔(Suman Datta)看好负电容铁电晶体管技术的晶体管。他在最近召开的所谓的单体三维(3-D)结构会议上展望了该领域的前景。这样的设计应用和先进的3-D NAND闪存已经采用了on-die芯片堆栈技术。

来自伯克利,麻省理工学院和斯坦福大学的团队将在二月份的国际固态电路会议上展示一个类似的前沿技术。芯片(下图)将电阻RAM(ReRAM)结构堆叠在由碳纳米管制成的逻辑上的碳纳米管。

AI18012402
伯克利,麻省理工学院和斯坦福大学的研究人员将在ISSCC上报告一种使用碳纳米管,ReRAM和图案作为计算元素的新型加速器。 (来源:加州大学伯克利分校)

从DNN获得灵感,该设备被编程为近似模式,而不是计算机迄今使用的确定性数字。 伯克利教授扬·拉巴伊(Jan Rabaey)说,这个所谓的高维计算使用了几万维的向量作为计算元素,伯克利教授为本文做出了贡献,并且是英特尔AI顾问委员会成员。

Rabaey说,这样的芯片可以从例子中学习,并且比传统系统需要的操作要少得多。一块测试芯片将很快问世,它使用振荡器阵列,作为与相关存储器阵列中的采用了ReRAM单元的模拟逻辑。

Rabaey在IEEE人工智能研讨会上表示:“我梦想的引擎,是可以随身携带,现场为我提供指导......我的目标是推动AI运行在小于100毫伏的运行。 我们需要重新思考我们如何做计算。 我们正在从基于算法的系统转向基于数据的系统。”

(全文完)

作者: Rick Merritt, EETimes硅谷主编

编译:Mike Zhang

本文为《电子工程专辑》作者原创,版权所有,未经许可,不得转载。

本文为EET电子工程专辑 原创文章,禁止转载。请尊重知识产权,违者本司保留追究责任的权利。
Rick Merritt
EE Times硅谷采访中心主任。Rick的工作地点位于圣何塞,他为EE Times撰写有关电子行业和工程专业的新闻和分析。 他关注Android,物联网,无线/网络和医疗设计行业。 他于1992年加入EE Times,担任香港记者,并担任EE Times和OEM Magazine的主编。
  • 2025年全球将启动18个新的晶圆厂项目建设,中国有5个 半导体行业正迎来一个新的建设高峰期,SEMI预测,2025年,全球范围内将有18个新的晶圆厂项目开始建设,其中15座为12英寸晶圆厂,3座为8英寸晶圆厂,大部分预计将于 2026 年至 2027 年开始运营......
  • 传Imagination停止RISC-V处理器核心开发,增强GPU和AI产品投资 尽管Imagination在RISC-V领域取得了一定的成就,但公司似乎认为继续投入资源于RISC-V处理器核心的开发并不符合其长期战略目标。Imagination决定终止其基于RISC-V指令集架构的GPGPU内核的研发工作,并将重心转向其擅长的GPU和AI领域......
  • TCL正式发布“世界上第一款模块化人工智能伴侣机器人” 这款机器人头上的摄像头可以录制视频或使用人工智能识别物体,虽然该机器人的动作仅限于挥动细小的手臂和眨动动画眼睛,但它可以与一把小型电动椅子配对,自动在家中导航。
  • 美国AI出口管制草案被批评:过度监管将把芯片市场拱手让给中国 Ken Glueck认为,美国2800亿美元的芯片法案所取得的成就,将被出口管制框架夺走,“因为在一项IFR中,它成功地将美国公司的全球芯片市场缩小了80%,并将其交给了中国。”
  • 四大合作揭秘新兴AI芯片设计模型 IP供应商、芯片设计服务提供商和AI专家在以AI为中心的设计价值链中的地位正变得更加突出。本文给出了四个设计用例,强调了服务于AI应用的芯片设计模型的重新调整。
  • GeForce RTX 50系显卡发布:三倍于40系GPU的算力 NVIDIA刚才在CES上发布了GeForce RTX 50系显卡,据说这一代的5070就能达到上代4090的性能水平...
  • 为什么翻新机的价格在上涨? • 目前,iPhone在翻新市场中是最热门的商品,并将长期主导着翻新机的平均销售价格。 • 全球翻新机市场持续向高端化发展,其平均销售价格(ASP)现已超过新手机。 • 新兴市场是增长的最大驱动力,消费者对高端旗舰产品有着迫切需求。 • 由于市场固化和供应链的一些问题限制推高中国、东南亚和非洲等大市场的价格。 • 2024年,这些翻新机平均销售价格将首次超过新手机。
  • 2024三季度全球扫地机器人市场出货 从全球厂商竞争来看,三季度凭借多个新品发布,石头科技市场份额提升至16.4%,连续两季度排名全球第一……
  •  摩尔斯微电子推出MM8108:全球体积 最新Wi-Fi HaLow片上系统(SoC)为物联网的性能、效率、安全性与多功能性设立新标准,配套USB网关,可轻松实现Wi-Fi HaLow在新建及现有Wi-Fi基础设施中的快速稳健集成
  • 移远通信再扩短距离通信模组版图:Wi 其中包含Wi-Fi 7和蓝牙5.4 模组FME170Q-865、Wi-Fi 6和蓝牙5.4 模组FCS962N-LP、Wi-Fi 6和蓝牙5.3模组FCU865R 、独立Wi-Fi和蓝牙模组FGM840R、高功率Wi-Fi HaLow模组FGH100M-H……
广告
热门推荐
广告
广告
广告
EE直播间
在线研讨会
广告
广告
广告
向右滑动:上一篇 向左滑动:下一篇 我知道了