人工智能,深度学习和IC有什么结合么?
时间:12-12
整理:3721RD
点击:
有人在做这方面的工作吗?
隔壁csarch
主要是算法层面,和IC有什么具体关系?
加速器。但是现在主流是GPU加速,非主流是FPGA加速,还没什么人做IC加速
nvda市值都快超过高通了,还在这儿问dl和ic的关系
见识浅薄,深度学习人工智能这俩词含义闹得都不太明白。
NV的CPU是AI的基础,速度快,和IC。。。google的TPU?
现在就是西部淘金热挖金矿的年代,nvda就是专买铁锹铲子的
赞美
赞美
欢迎光临CSARCH版讨论人工智能、深度学习与新型计算架构对IC的挑战
深度学习就是层次化的神经网络算法。
冯诺依曼计算机只有一根串行的总线,用这种硬件运行全局并行的神经网络算法,
执行效率很低。
GPU或者TPU并行度大大提高了,但总归仍然是冯氏机,数据通量仍然有限,而且能
量效率也相对低。
最终出路是找到非冯非cmos的新计算范式。
这方面老美已经全面布局了,未来计算的重头戏首先是类脑计算,类脑计算的关键
在类脑芯片。
去看看SIA今年三月发的《半导体研发机遇:产业愿景与指南》吧,这份白皮书可以
诠释美国以往各个决策层面发布的各种未来计算计划。
DSP和一些CPU都是哈弗架构,跟不用说GPU了。神经网络的结构非常规整,考虑到NV更有钱,更有经验,也就导致ASIC很难形成对GPU的优势。
哈弗架构也是冯氏架构的变体。以前是总拿哈弗架构和普林斯顿架构(冯氏架构)相提
并论,其实只是指令有了专门的总线。处理与存储分离,数据总线单字并行,这些两者
本质上都是一码事。
所有的半导体电路在本质上也是一样的。但是想不出像TPU这种ASIC怎么能和诺依曼计算机画等号。