新闻中心

EEPW首页>消费电子>业界动态> Intel摩拳擦掌抢攻人工智能市场商机

Intel摩拳擦掌抢攻人工智能市场商机

作者: 时间:2016-08-16 来源:eettaiwan 收藏

收购Nervana的目标在于取得其预计2017年问世的深度学习加速器晶片,如果该晶片的性能表现如预期,的深度学习加速器硬体开发板可望…

本文引用地址://m.amcfsurvey.com/article/201608/295546.htm

  处理器大厂英特尔()将于下周于美国旧金山举行的Intel Developer Forum (IDF)年度开发者论坛,进一步阐述该公司收购深度学习(deep learning)技术供应商Nervana Systems的意图──此举被视为Intel与深度学习人工智慧(AI)应用绘图处理器(GPU)竞争的重要策略。

  Intel在高性能运算(high-performance computing,HPC)市场居主导地位,Nvidia则以其复杂GPU在深度学习领域有大幅进展;而Nervana Systems的GPU则是以相容于Nvidia的Cuda软体与自家Neon云端服务在市场获得关注。

  Intel收购Nervana的目标在于取得其预计2017年问世的深度学习加速器晶片,如果该晶片的性能表现如预期,Intel的深度学习加速器硬体开发板可望超越Nvidia的GPU开发板,同时收购自Nervana的Neon云端服务之性能表现也将超越Nvidia的Cuda软体。

  “这并Intel给Nvidia的一记重击,”市场研究机构Moor Insights & Strategy的深度学习暨高性能运算资深分析师Karl Freund接受EE Times访问时表示:“但这是进军一个成长非常快速的市场之合理策略。”

  Freund进一步解释:“GPU是训练深度学习神经网路的一个热门方法,Nvidia在该领域是领导厂商;Intel则有自己的多核心Xeon/ Xeon Phi处理器,以及收购自Altera的FPGA,却没有GPU。收购Nervana是以一个非复制通用GPU策略进军深度学习市场的方法,也就是透过提供为神经网路量身打造的特制处理器。”

  Nervana运算速度号称可达每秒8 terabit的Engine晶片,是一款以矽中介层(silicon-interposer)为基础的多晶片模组,配备terabyte等级的3D记忆体,环绕着3D花托状架构(torus fabric)、采用低精度浮点运算单元(FPU)的连结神经元;因此Freund指出,该晶片与竞争通用GPU相较,能以更小的尺寸支援每秒更多次数的深度学习运算。

  Nervana 的Engine晶片架构

  Freund表示:“深度学习神经网路能摆脱通用GPU在理论上过度夸大的较低精度运算;虽然Nervana的晶片要到明年才问世、因此目前并没有公布任何性能量测基准资料,但为深度学习神经网路量身打造的特殊应用晶片,性能应该会超越在通用GPU的相同演算法。”

  Intel声称,目前全世界有97%支援机器学习的伺服器都是采用Xeon/Xeon Phi晶片,但这些伺服器占据全球伺服器的比例不到10%;不过Intel也表示,机器学习是成长速度最快的AI应用,因此该公司准备好以Nervana的Engine晶片为基础的深度学习神经网路,找回因GPU竞争而流失的市占率。

  针对Nervana的收购,Intel执行副总裁暨资料中心事业群总经理Diane Bryant在一篇部落格文章中表示:“人工智慧正在转变商业运作以及人们参与世界的模式,而它的子集──深度学习,是扩展AI领域的关键方法。”

  据了解,Intel将把Nervana的演算法纳入Math Kernel Library,以与其产业标准架构整合;此外收购Nervana将让Intel取得Neon云端服务,因此为旗下的云端服务增加支援Nvidia深度学习技术的产品。

  Freund表示,Nvidia若要维持竞争力,可能也需要以低精度特制深度学习处理器来回应Intel+Nervana。目前Nervana的团队有48位工程师与管理阶层,将归入Bryant负责的Intel资料中心事业群(Data Center Group)。



关键词:Intel人工智能

评论


相关推荐

技术专区

关闭