微波EDA网,见证研发工程师的成长!
首页 > 硬件设计 > 行业新闻动态 > 科技大佬扎堆AI领域,Intel让NVIDIA日子不好过?

科技大佬扎堆AI领域,Intel让NVIDIA日子不好过?

时间:07-16 来源:国际电子商情 点击:

科技大佬纷纷进军人工智能技术应用,英特尔收购Nervana的目标在于取得其预计2017年问世的深度学习加速器芯片……

  

处理器大厂英特尔(Intel)将于下周于美国旧金山举行的Intel Developer Forum (IDF)年度开发者论坛,进一步阐述该公司收购深度学习(deep learning)技术供货商Nervana Systems的意图──此举被视为Intel与深度学习人工智能(AI)应用绘图处理器(GPU)竞争的重要策略。

  

Intel在高性能运算(high-performance computing,HPC)市场居主导地位,Nvidia则以其复杂GPU在深度学习领域有大幅进展;而Nervana Systems的GPU则是以兼容于Nvidia的Cuda软件与自家Neon云端服务在市场获得关注。

  

Intel收购Nervana的目标在于取得其预计2017年问世的深度学习加速器芯片,如果该芯片的性能表现如预期,Intel的深度学习加速器硬件开发板可望超越Nvidia的GPU开发板,同时收购自Nervana的Neon云端服务之性能表现也将超越Nvidia的Cuda软件。

 

 Intel执行副总裁暨数据中心事业群总经理Diane Bryant与Nervana共同创办人Naveen Rao

  

"这并Intel给Nvidia的一记重击,"市场研究机构Moor Insights & Strategy的深度学习暨高性能运算资深分析师Karl Freund接受访问时表示:"但这是进军一个成长非常快速的市场之合理策略。"

  

Freund进一步解释:"GPU是训练深度学习神经网络的一个热门方法,Nvidia在该领域是领导厂商;Intel则有自己的多核心Xeon/ Xeon Phi处理器,以及收购自Altera的FPGA,却没有GPU。收购Nervana是以一个非复制通用GPU策略进军深度学习市场的方法,也就是透过提供为神经网络量身打造的特制处理器。"

  

Nervana指令周期号称可达每秒8 terabit的Engine芯片,是一款以硅中介层(silicon-interposer)为基础的多芯片模块,配备terabyte等级的3D存储器,环绕着3D花托状架构(torus fabric)、采用低精度浮点运算单元(FPU)的链接神经元;因此Freund指出,该芯片与竞争通用GPU相较,能以更小的尺寸支援每秒更多次数的深度学习运算。

Nervana 的Engine芯片架构

Freund表示:"深度学习神经网络能摆脱通用GPU在理论上过度夸大的较低精度运算;虽然Nervana的芯片要到明年才问世、因此目前并没有公布任何性能量测基准数据,但为深度学习神经网络量身打造的特殊应用芯片,性能应该会超越在通用GPU的相同算法。"

  

Intel声称,目前全世界有97%支持机器学习的服务器都是采用Xeon/Xeon Phi芯片,但这些服务器占据全球服务器的比例不到10%;不过Intel也表示,机器学习是成长速度最快的AI应用,因此该公司准备好以Nervana 的Engine芯片为基础的深度学习神经网络,找回因GPU竞争而流失的市占率。

  

针对Nervana的收购,Intel执行副总裁暨数据中心事业群总经理Diane Bryant在一篇博客文章中表示:"人工智能正在转变商业运作以及人们参与世界的模式,而它的子集──深度学习,是扩展AI领域的关键方法。"

  

据了解,Intel将把Nervana的算法纳入Math Kernel Library,以与其产业标准架构整合;此外收购Nervana将让Intel取得Neon云端服务,因此为旗下的云端服务增加支持Nvidia深度学习技术的产品。

  

Freund表示,Nvidia若要维持竞争力,可能也需要以低精度特制深度学习处理器来响应Intel+Nervana。目前Nervana的团队有48位工程师与管理阶层,将归入Bryant负责的Intel数据中心事业群(Data Center Group)。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top