微波EDA网,见证研发工程师的成长!
首页 > 研发问答 > 微电子和IC设计 > 微电子学习交流 > 深度学习加速卡市场大不大?

深度学习加速卡市场大不大?

时间:12-12 整理:3721RD 点击:
加速矩阵运算

原来还有些市场,现在有了fpga云,我觉得没啥市场了

学生用开发板?

FPGA云要把算法改为VERILOG,我的不用。

Fpga性能功耗比有优势。你的是基于什么的?

一阵风而已,骗到了投资赶快跑路。

有前途,fpga过渡几天就gg了
关键是这玩意很难做,你能做?核心芯片很有门槛。  
  

基于C。算法验证时一般用PYTHON,通过后,改成C,再加载到加速卡。
FPGA灵活,但速度慢,实现时并行度不高的话,干不过CPU,更不用说GPU。

FPGA类似PYTHON,验证调试方便。真跑起来,还是全定制方案。
核心芯片是简化版。我不是软硬通吃,还得找做过处理器的高手裁剪实现。

这个就和tpu类似啊,

高性能复杂芯片不是谁都能做的,烧钱,门槛太高,慎重。

IC版就差一个程序眼啦

以后都用stratus了,不用写verilog

后面貌似NV的DLA要开源啊,如果真开源了,做这块就没前途了吧

不同编程语言还是有些差异,本质上编译原理一直没变过,就算是综合器,也是基于它。
但是由于语言差异造成的用户体验,代码效率等其它方面不能忽视。
最后要拼的也是硬件资源,是跑全定制的处理器指令,还是可重定义硬连线。

可能NV不想应对多个开源框架,让社区自己把底层都搞了吧。

intel有类似的加速卡 低端的才几十刀 好像是usb接口的 跟u盘差不多

深度学习能加速挖矿么?

已经有很多家类似的公司了吧。
深鉴不就是搞了个编译器,能把c写的神经算法编译到底层的FPGA板卡上进行加速吗?(如果我没理解错的话)
跟你这个方案只差一步流片。不过考虑到他们可能就是设计成底层结构可变,流片反而效果不好。

加速卡是加速特定类型的运算,可以是矩阵,或者以后有别的数据密集型运算。
深度学习也没有限定适用于具体数据结构,图像用矩阵比较多。
挖矿里面某个操作或许可以直接映射到运算单元,我没研究过挖矿代码。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top