人工智能时代,GPU要火?
我们想用机器做越来越多的事,我们能做的、不能做的、懒得做的……统统都想让机器代劳。"人工智能"——已经不再是科幻电影里的事,Google、Microsoft、斯坦福大学……那些你所能想象到的知名企业、大学几乎都已启动这一研究。今年"两会"期间,李彦宏的提案就是"中国大脑",其实质就是通过人工智能来推动中国整体创新水平的提高。
在通往人工智能的路上,"深度学习"是核心,它也是机器学习最有前景的一个分支,指的是计算机使用神经网络自主学习的过程。传统电脑的计算模式是输入数据后通过程序得出输出结果;而机器学习模式是将输入和结果告诉电脑,由电脑自己来识别规则、产生程序,最终来分担编程人员大量枯燥的编程工作。
那么问题来了,人工智能这么好,深度学习前景这么美,怎么去实现?两个核心:首先是足够强大的数据库,其次是足够强大的计算能力。2011年以前,业界进行深度计算主要基于CPU来实现,直到斯坦福大学通过GPU进行了颠覆性的比较后,GPU在深度计算方面的强大性能才被认识——Google数据中心需要1000台CPU服务器完成的工作,斯坦福人工智能实验室仅用3台GPU服务器完全搞定。
虽然GPU的设计是针对图像、视频和游戏的处理,但在大规模信息的并行处理上表现非常好,可以同步处理众多的任务。如此有力的佐证也极大鼓舞了GPU厂商的斗志。在今年NVIDIA的GPU科技大会(GTC)上,几项重大发布全部都是关于深度学习。
NVIDIA最新发布的Pascal 架构,相较于当前的 Maxwell 处理器,可将深度学习应用中的计算速度加快十倍。其三大设计特色为:可通过混合精度计算达到更精准的结果、3D堆叠显存带来更快的传输速度和更佳的省电表现、NVlink实现更快的数据传输速度(较现有的 PCI-Express 标准加快5到12倍)。以上特性使得Pascal能够大幅加快训练速度,精准地训练更丰富的深度神经网络,犹如人类大脑皮层的资料结构将成为深度学习研究的基础。
此外,NVIDIA还发布了三项用于推动深度学习的新技术:
NVIDIA GeForce GTX TITAN X – 为训练深度神经网络而开发的处理器。
DIGITS 深度学习 GPU 训练系统 – 数据科学家与研究人员能利用这套软件便捷地开发出高品质深度神经网络。
DIGITS DevBox – 据称是全球最快的桌边型深度学习工具 – 专为相关任务而打造,采用 TITAN X GPU,搭配直观易用的 DIGITS 训练系统。
其中,TITAN X是NVIDIA全新推出的旗舰级游戏显卡,同时也特别适合用于深度学习。TITAN X 基于Maxwell GPU 架构,结合 3072 个处理核心、单精度峰值性能为 7 teraflops,加上板载的 12GB 显存,在性能和性能功耗比方面皆是前代产品的两倍。
凭借强大的处理能力和 336.5GB/s 的带宽,它能处理用于训练深度神经网络的数百万的数据。例如, TITAN X 在工业标准模型 AlexNet 上,花了不到三天的时间、使用 120万个 ImageNet 图像数据集去训练模型,而使用16核心的 CPU 得花上四十多天。
此外,NVIDIA也展示了深度学习的一些最新应用,例如自动驾驶汽车。随着汽车电子化的程度越来越高,它日渐成为消费者购买的最贵的"个人电脑",因此GPU在这一领域也大有用武之地。NVIDIA基于Tegra X1 SoC打造的Drive PX,最高支持12路摄像头输入,非常适用于在实际行驶道路中对周边情况进行判断,视频信号通过高速计算,进而可实时处理行驶信息。
- 德州仪器 (TI) 与斑马(Zebra)首个 EPC 第二代合规项目的内幕(06-19)
- 联发科推出智能手机解决方案MT6516(02-13)
- 重庆基于RFID的城市智能交通管理项目获得国家资金补助(08-19)
- 明年Android将成欧洲第一大智能手机平台(11-30)
- TD-LTE紧凑型智能天线首次亮相NGMN大会 (12-19)
- 图解智能手机专利战,苹果受困(04-13)