新闻中心

EEPW首页>消费电子>业界动态> NVIDIA要做一家“人工智能公司” 这个市场到底有多大?

NVIDIA要做一家“人工智能公司” 这个市场到底有多大?

作者: 时间:2016-09-18 来源:钛媒体 收藏
编者按:在其它公司还沉浸在自己过去辉煌的时候,NVIDIA已经“漂移”到了人工智能赛道上。但,人工智能的市场到底有多大?值得“赌”进去一家公司的命运么?

  黄仁勋在1993年创立了一家叫做的公司,于1999年发明了图形处理器GPU,从此GPU就改变了世界。特别是在游戏领域,GPU几乎已经成为了游戏设备的标配。如今,获得超过7300个专利,其中包括很多对现代计算有深刻影响的技术。

本文引用地址://m.amcfsurvey.com/article/201609/297101.htm

  6年前,黄仁勋开始意识到对于未来人类社会的巨大影响力,开始带领公司整体往方向转型。2016年,NVIDIA密集发布了全线GPU芯片、系统、软件和服务,而公司定位转向成为“世界上伟大的人工智能公司之一”。



  NVIDIA全球副总裁兼中国区总经理张建中说:“NVIDIA现在是一家人工智能公司,我们不再单一生产GPU芯片,而是系统性提供人工智能解决方案,包括芯片、服务器、软件和服务等。我们不再是一家GPU公司。”

  从NVIDIA的AI产品布局说起

  尽管NVIDIA从6年前开始布局人工智能AI产品,但到了2016年才推出了比较完整的产品线,特别是在2016年9月13日的GTC CHINA 2016(NVIDIAGPU技术大会)上发布的推理加速器Tesla P4/P40,形成了深度学习的核心产品。

  可能有人会问,什么是“推理加速器”?

  首先,NVIDIA选取的人工智能路线为基于神经元网络的深度学习算法,而这一算法有两大核心组成部分,分别是“训练”用于获得神经元网络模型,以及把训练好的神经元模型用于“推理”。简单理解,把基于神经元网络的深度学习用于图像识别,比如用海量花卉类图片“训练”出神经元网络模型,这个模型就能用于识别新图片里的花卉(“推理”)。

  其次,NVIDIA于两年前宣布了新一代PASCAL GPU芯片架构,这是NVIDIA的第五代GPU架构,也是首个为深度学习而设计的GPU,它支持所有主流的深度学习计算框架。在今年上半年,NVIDIA针对“训练”推出了基于PASCAL架构的Tesla P100芯片以及相应的超级计算机DGX-1;而在9月的北京GTC大会上,NVIDIA针对“推理”推出了基于PASCAL的产品Tesla P4/P40,主要区别在于小尺寸的P4可用于任何服务器,而大尺寸的P40则需要定制服务器。

  为什么要针对“推理”设计加速器呢?这是因为用于深度学习的神经元网络模型正在变成规模巨大。以百度用于语音识别的神经元网络为例,这个模型从2014年的2500万个参数暴涨到2015年的1亿个参数,而浮点运算则从2014年的2ExaFLOPS(每秒百亿亿次浮点计算)飙升到2015年的20ExaFLOPS,但错误率却下降了40%。而2015年Image Net大赛的冠军,即微软的残差网络ResNet达到了152层,而2012年的冠军Alex Net却只有8层。这就是推理加速器的诞生缘由,即针对上百层和数以万计参数的神经元网络的大规模并行计算。

  所以,Tesla P100是用于“训练”的GPU,Tesla P4/P40是用于“推理”的GPU,这两个产品都是针对企业和数据中心而设计。在更小型设备的物联网层,NVIDIA则在今年3月推出了第二代嵌入式计算机Jetson TX1用于无人机、机器人、智能摄像头等,以及9月推出的第二代自动汽车驾驶计算机Drive PX2。


上一页 1 2 下一页

关键词:NVIDIA人工智能

评论


相关推荐

技术专区

关闭