微波EDA网,见证研发工程师的成长!
首页 > 研发问答 > 微电子和IC设计 > 微电子学习交流 > 感觉深度学习芯片方向已经开始扎堆儿了

感觉深度学习芯片方向已经开始扎堆儿了

时间:12-12 整理:3721RD 点击:
深度学习火了之后很多公司都在打鸡血的布局深度学习芯片啊,但总感觉门槛并不是很高,产品落地不久各家就会打起来。学校里大大小小的课题组只要搞个FPGA板子、能跑通caffe,也在强转这个方向。
自己并不是做这个方向的,一点浅见:目前主流的神经网络芯片本质还是基于矩阵乘法(比如CNN),从芯片设计的角度来看,难点与门槛更多还是传统的IC工程问题,主要利用大规模片上缓存和乘法-加法器阵列上的数据流调度使计算力和并行度最大化,外围接口也都是比较成熟的方案。
这样看来,其实各家设计的芯片本身,最终并不会有太大差异?
只是做芯片的话,应该还是传统IC巨头优势比较大,毕竟有足够的工程实力。
初创公司的优势主要在于打包从算法到芯片的一揽子方案,当然也有寒武纪那样直接开发指令集的。
真正能够达到差异化的就是这样的一揽子方案,但现在似乎除了扎堆儿图像、语音、自动车之外,其他落地的应用场景并不多,芯片似乎是有些超前于这样的整体方案了。
当然,算法组那边神仙打架,硅农们仍然只是根据新的架构和spec去埋头写rtl,没啥新东西玩儿。
芯片本身有技术门槛的模式可能是spike,但这东西仍然还主要是实验室成果。

原来是传统的ic巨头里的人,真酸

深度学习究竟能用在哪些方面赚钱?
分析股票?
行车记录仪识别车辆,行人?
做成机器人陪人下棋?
有没有好的商业模式?

这种芯片应该类似gpu芯片吧,那是不是还是nvidia的优势最大。

支持技术讨论
我的理解,深度学习就是一类算法,比如说视频压缩就是另一类,那么做实现的时候
就是一个通用性和性能的折中
通用性越好,性能和功耗效率越差,最通用的莫过于GPU
如果要提高性能和功耗效率,优化结构和运算单元的复杂度
代价就是降低通用性,对做芯片来讲,就是市场面变窄,mask费用摊销增大
目前各家做的就是找不同折中点

只是浮点矩阵运算的话用gpu就好了
  

NV也在做TPU那样的研究了,这个领域,我倾向于认为大家还是合作分工,各取所长会是最终的发展模式。想搞平台的搞应用平台就好了,像Google这种芯片、算法、操作系统一锅端的,市场也容不下他吧

同意,搞芯片的,除了技术创新,就是各种不同应用场合的折中。

分析挺好
扎堆上
又没有技术门槛
大部分都是完蛋

大规模卷积不需要浮点那么高精度
用gpu功耗有浪费

gpu本身就是会丢精度的,反而是做成指令集没法丢了  
  

单精度浮点开销太大,可以吧数据压缩到-1~1的范围内用16位定点来做。

抓住机会!大微电子要起飞了

这些芯片都有要求定点化网络么?话说现在的网络定点化都是咋弄的有综述么?
是先浮点训练然后强行定点化还是直接网络架构就是定点化的,训练也是定点化?
  

网络定点化怎么考虑?  
  

都out了,学术界的神仙们已经在弄非冯诺依曼架构神经网络了,芯片什么的完全落后

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top