美国采购网DealABC_工业品给世界动力,艺术品给世界温暖

 找回密码
 立即注册

英特尔Nervana处理器架构更新:带宽超越Tbp

2017-12-9 14:00| 发布者: dealabc_admin| 查看: 373| 评论: 0

摘要: 英特尔Nervana处理器架构更新:带宽超越Tbp 在今年早些时候,英特尔展示了他们在Nervana神经网络处理器方面的进展,Nervana芯片在机器学习和AI领域内大大超过了普通芯片,如今他们又发布了Nervana的最新信息,并表 ...
特尔Nervana处理器架构更新:带宽超越Tbp



在今年早些时候,英特尔展示了他们在Nervana神经网络处理器方面的进展,Nervana芯片在机器学习和AI领域内大大超过了普通芯片,如今他们又发布了Nervana的最新信息,并表示正努力将其推向市场。

新设计的芯片,其在机器学习和人工智能性能上远超通用型处理器。英特尔人工智能产品事业部副总裁 Carey Kloss 对 Nervana 架构的改进进行了解释,首先是理解一个神经网络(NNP)必须做些什么。使用神经网络训练一台机器,需要大量的内存和算数运算,才能产生有效的输出。

随着高带宽内存(HBM)的部署,片上和外埠内存之间的带宽可以超过 1TB/s 。尽管这是一个令人印象深刻的数字,内存带宽仍然是深度学习工作负载的一个限制因素。

扩展性、能耗、最大负荷,也是 Nervana 空间架构的主要考虑因素。为了最大限度地节省能源,除非绝对必要,否则数据不应在系统内移动;矢量数据可以在内存模块之间进行分割,让数据总是接近最需要它的地方。

Nervana NNP是一款特定用途积体电路(ASIC),能以极高运算效率从事深度学习演算法的训练与执行。英特尔舍弃了CPU上常见的快取,改由特殊软体负责特定演算法的芯片存储器管理,希望能借此将芯片的运算密度与性能提升到新的层次。

Nervana NNP还可透过芯片内外部的高速互连,支援大量双向资料传输。如果连结多个NNP芯片,就可组成一个巨大的虚拟芯片,应付规模不断升级的深度学习模组。

电脑视觉、语音辨识等深度学习应用通常需在大型阵列进行矩阵计算,而这并非英特尔Core或Xeon等通用型芯片的长项。英特尔期望借由即将推出的NNP弥补AI这块缺口,并邀请到致力于深度学习及AI展的Facebook参与芯片设计。

除了Facebook擅长的社群媒体应用外,英特尔还计划将其AI芯片推广到健康医疗、汽车、气象等领域







在英特尔投入AI发展前,nVIDIA便借着GPU的平行运算能力抢先一步攻克市场,但GPU擅长的是演算法训练而非执行。另一方面,英特尔最大竞争对手高通(Qualcomm)则投入了擅长执行AI程式的芯片研发。

英特尔的NNP芯片同时以AI的训练与执行为目标,并会陆续推出新的版本。除此之外,英特尔还投入了一款名为Loihi的神经形态(neuromorphic)芯片,以及机器视觉芯片Myriad X的研发。

就在英特尔努力追赶之际,NVIDIA也针对AI应用程式(App)推出了V100芯片,并延揽到Clement Farabet担任AI架构副总,希望能提升其芯片执行深度学习程式的能力。

在此同时,Google为数据中心应用自行打造了一款Tensor Processing Unit(TPU)芯片,IBM也发表了名为True North的仿神经型态芯片。



微信公众号搜索" FuninUSA "加关注,每日滚动更新美国市场讯息:金融、零售、批发。推荐关注!【微信扫描下图可直接关注

美国华人网微信公众号

【美国亚马逊代购拼单群】423286988

鲜花

握手

雷人

路过

鸡蛋

相关阅读

关于我们|Archiver|手机版|小黑屋|美国采购网DealABC_工业品给世界动力,艺术品给世界温暖  

GMT+8, 2024-7-6 14:31 , Processed in 0.051423 second(s), 8 queries , Gzip On, Apc On.

Powered by Discuz! X3.1

© 2014-2016 Sky-Express Inc.

返回顶部