新闻动态   News
搜索   Search
你的位置:官网首页 > 公司新闻 >

人工智能芯片战开打 边缘计算还面临哪些障碍?

2019-11-19 09:19      点击:

人工智能可说是2016年运算范畴最抢手的论题,厂商竞相开发专用芯片的战役现已开打

对运算工业来说,在曩昔的2016年应该没有一个概念比人工智能更抢手;跨入2017年,专家们表明,人工智能生态圈的需求生长会愈加迅猛。首要会集在为深度神经网络找寻功用和功率更合适的 推理引擎 。

现在的深度学习体系仰赖软件界说网络和巨量数据学习发生的超大型运算才能,并靠此来实现方针;惋惜的是,这类型的运算装备是很难嵌入到那些运算才能、内存容量巨细和带宽都有约束的体系中。

这为业界带来了一个新的应战──怎么透过立异将深度神经网络运算才能嵌入到终端设备中。如核算机视觉处理器规划业者Movidius履行长Remi El-Ouazzane在几个月前就说过,将人工智能布署在网络边际将会是一个大趋势。

在问到为什么人工智能会被 赶 到网络边际的时分,法国原子能委员会架构、IC规划与嵌入式软件部分院士Marc Duranton提出三个原因:安全性、隐私和经济;他以为这三点是驱动业界在终端处理数据的重要要素,而未来将会衍生更多「尽早将数据转化为信息」的需求。

Duranton指出,试想自动驾驶车辆,假如其方针是安全性,那些自动驾驶功用就不应该只仰赖永不中止的网络联机;还有例如白叟在家里跌倒了,这种状况应该由本地监测设备在当场就判别出来,考虑到隐私要素,这是非常重要的。而他弥补指出,不用搜集家里10台开麦拉的一切印象并传输以触发警报,这也能降低功耗、本钱与数据容量。

从各方面看来,芯片供货商现已意识到推理引擎的生长需求;包含Movidus , Mobileye 和Nvidia 在内的许多半导体公司正竞相开发低功耗、高功用的硬件加速器,好让机器学习功用在嵌入式体系中被更妥善履行。

从这些厂商的动作和SoC的发展方向看来,在后智能型手机年代,推理引擎现已逐步成为半导体厂商追逐的下一个方针商场。

在本年稍早,Google推出了张量处理单元,可说是工业界活跃推进机器学习芯片立异的一个转折点;Google在宣布芯片时表明,TPU每瓦功用较之传统的FPGA和GPU将会高一个等级,此外并指出这个加速器还被已被使用于本年年初风行全球的AlphaGo体系。可是迄今Google并未发表TPU的规范细节,也不计划让该组件在商业商场上出售。

许多SoC从业者从Google的TPU中得出了一个定论──机器学习需求客制化的架构;但在他们针对机器学习进行芯片规划的时分,他们又会对芯片的架构感到疑问,一起想知道业界是否现已有了一种评价不同形状下深度神经网络功用的东西。

CEA表明,该组织现已准备好为推理引擎探究不同的硬件架构,他们现已开宣布一种名为N2D2的软件架构,可以协助规划工程师探究和生成DNN架构;Duranton指出:「咱们开发这个东西之意图,是为DNN挑选合适的硬件方针。」CEA将会在2017年第一季释出N2D2的开放源码。

N2D2的特征在于不只是以辨认精确度为根底来比较硬件,它还能从处理时刻、硬件本钱和功耗等多个方面履行比较;Duranton表明,由于针对不同使用的深度学习,需求之硬件装备参数也会有所不同,因而以上几个比较非常重要。N2D2能为现有CPU、GPU和FPGA等硬件供给一个功用参阅规范。

人工智能芯片战开打 边际核算还面对哪些妨碍?

N2D2运作原理

CEA现已针对怎么把DNN完美地推展到边际运算进行了深入研讨;Duranton指出,其间最大的妨碍在于由于功耗、内存容量尺度和推迟等约束, 浮点 式服务器计划不适用;而其他妨碍还包含:「需求很多的MAC、带宽和芯片上内存容量。」

所以说,选用整数而非浮点运算是最需求优先考虑的问题 还有其他吗?Duranton以为,这种专属架构也需求选用新的编码方法,例如「棘波编码」;CEA的研讨人员研讨了神经网络的特性,发现这种网络能忍受运算差错,使其适用于「近似运算」。

如此一来,甚至于不需求选用二进制编码;而Duranton解说,其优点在于比如棘波编码的时刻编码,能在边际运算供给更具动力效益的成果。棘波编码之所以具吸引力,是由于棘波编码──或是以事情为根底的──体系能展示实践神经体系内的数据怎么被译码。

上一篇:苹果撤除“保密墙” 发布首份人工智能研讨论文

下一篇:寒武纪正式推出边际AI芯片思元220