除了GPU/FPGA,AI芯片还有哪些硬件方向?
编者注:英伟达股价创历史新高,华尔街纷纷倒戈,现在开始唱买入了。AI芯片想象力无限,英伟达会赢到最后吗?本文由华盛学院九叔编译,为您整理了几个AI芯片的硬件方向。
GPU
GPU 最早是为生成基于多边形网络的计算机图形而设计的。在最近几年,由于近来计算机游戏和图形引擎领域的需求和复杂度需要,GPU 积累了强大的处理性能。英伟达是 GPU 领域的领军者,能生产有数千个内核的处理器,这些内核的设计工作效率可以达到 100%。实际上这些处理器也非常适用于运行神经网络和矩阵乘法方面的计算,因此GPU乘着深度学习的东风成为了目前最炙手可热的硬件解决方案。
FPGA
FPGA全称"可编辑门阵列"(Field Programmable Gate Array),其基本原理是在FPGA芯片内集成大量的数字电路基本门电路以及存储器,而用户可以通过烧入FPGA配置文件来来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,即用户今天可以把FPGA配置成一个微控制器MCU,明天可以编辑配置文件把同一个FPGA配置成一个音频编解码器。英特尔收购的Altera就是做FPGA的。
ASIC
ASIC则是专用集成电路(Application-Specific Integrated Circuit),一旦设计制造完成后电路就固定了,无法再改变。定制化的SoC就属于ASIC。高通、AMD、ARM、英特尔和英伟达都在致力于将定制化芯片整合进它们的现有解决方案中。Nervana 和 Movidius(目前都在英特尔旗下)据说正在开发集合方案。SoC 在同一技术节点上所能提供的性能大约是 FPGA 系统的 10 倍,在特定结构中还要更高。由于 SoC 和处理器所需的功率变得越来越低,其区别将来自于新的集合内存系统和带宽对外部存储器的有效利用。在这一领域,整合为 systems-on-a-package(SOP)的 3D memory 至少可以节约 10 倍的功率。
类脑芯片
人类大脑的神经元尽管传导信号的速度很慢,但是却拥有庞大的数量(千亿级),而且每个神经元都通过成千上万个突触与其他神经元相连,形成超级庞大的神经元回路,以分布式和并发式的方式传导信号,相当于超大规模的并行计算,从而弥补了单神经元处理速度的不足。人脑的另一个特点是部分神经元不使用时可以关闭,从而整体能耗很低。IBM的true north芯片就是对人脑在芯片上的模仿。
- 英伟达+台积电组合,英特尔人工智能必须跨过的坎(01-03)
- AI单芯片有啥神奇,凭它英特尔能让AMD、NVIDIA永不翻身?(01-26)
- 冤家路窄,英特尔/AMD/英伟达谁能在AI芯片战中笑到最后?(01-13)
- 没有无缘无故的爱恨,华尔街对英伟达/AMD的好恶对比自有其道理(04-17)
- 从投资看软银的科技野心,准备抱上NVIDIA的AI大腿?(04-28)
- CPU、GPU、FPGA和DSP开启AI芯片时代(05-29)