微波EDA网,见证研发工程师的成长!
首页 > 硬件设计 > 行业新闻动态 > GPU/CPU/TPU,聊人工智能硬件前咱先把这几个概念搞懂

GPU/CPU/TPU,聊人工智能硬件前咱先把这几个概念搞懂

时间:04-25 来源:华尔街见闻 点击:

GPU的劣势
不过,GPU也有不足之处。据浙商证券总结:
虽然GPU更擅长于类似图像处理的并行计算,因为像素与像素之间相对独立,GPU 提供大量的核,可以同时对很多像素进行并行处理。但是,这并不能带来延迟的提升(而仅仅是处理吞吐量的提升)。比如,当一个消息到达时,虽然 GPU 有很多的核,但只能有其中一个核被用来处理当前这个消息,而且 GPU 核通常被设计为支持与图像处理相关的运算,不如 CPU 通用。

GPU 主要适用于在数据层呈现很高的并行特性(data-parallelism)的应用,比如 GPU 比较适合用于类似蒙特卡罗模拟这样的并行运算。

GPU 的另外一个问题是,它的"确定性"不如可编程的硅芯片FPGA,相对较容易产生计算错误。

TPU
TPU,即谷歌的张量处理器--Tensor Processing Unit。

据谷歌工程师Norm Jouppi介绍,TPU是一款为机器学习而定制的芯片,经过了专门深度机器学习方面的训练,它有更高效能(每瓦计算能力)。大致上,相对于现在的处理器有7年的领先优势,宽容度更高,每秒在芯片中可以挤出更多的操作时间,使用更复杂和强大的机器学习模型,将之更快的部署,用户也会更加迅速地获得更智能的结果。

谷歌专门为人工智能研发的TPU被疑将对GPU构成威胁。不过谷歌表示,其研发的TPU不会直接与英特尔或NVIDIA进行竞争。

据谷歌介绍,TPU已在谷歌的数据中心运行了一年多,表现非常好。谷歌的很多应用都用到了TPU,比如谷歌街景,以及AlphaGo等。

TPU最新的表现正是人工智能与人类顶级围棋手的那场比赛。在AlphaGo战胜李世石的系列赛中,TPU能让AlphaGo"思考"更快,"想"到更多棋招、更好地预判局势。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top