微波EDA网,见证研发工程师的成长!
首页 > 硬件设计 > 行业新闻动态 > 人工智能芯片报告和半导体行业现状(聚合帖)

人工智能芯片报告和半导体行业现状(聚合帖)

时间:07-23 来源:3721RD 点击:

1、麦肯锡报告:2017年机器学习和人工智能现状

包括百度和谷歌在内的科技巨头,2016年在人工智能上的投入在200亿至300亿美元之间,其中90%投入研发和部署上,还有10%用于人工智能收购。目前的人工智能投资速度3倍于2013年以来的外部投资增长。麦肯锡发现,有人工智能意识的公司有20%是早期尝鲜者,主要集中于高科技/电信、汽车/组装和金融服务行业。下图显示了研究团队在他们的分析过程中发现的趋势。

http://www.openhw.org/module/forum/thread-658114-1-1.html

2、人工智能芯片(一):发展史

人工智能算法的实现需要强大的计算能力支撑,特别是深度学习算法的大规模使用,对计算能力提出了更高的要求。深度学习模型参数多、计算量大、数据的规模更大,在早期使用深度学习算法进行语音识别的模型中,拥有429个神经元的输入层,整个网络拥有156M个参数,训练时间超过75天;人工智能领军人物Andrew Ng和Jeff Dean打造的Google Brain项目,使用包含16000个CPU核的并行计算平台,训练超过10亿个神经元的深度神经网络。下一步,如果模拟人类大脑的神经系统,需要模拟1000亿个神经元,计算能力将有数个量级的提升。

http://www.openhw.org/module/forum/thread-658119-1-1.html

3、人工智能芯片(二):GPU

传统的通用CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力。与之不同的是,GPU具有高并行结构,在处理图形数据和复杂算法方面拥有比CPU更高的效率。对比GPU和CPU在结构上的差异,CPU大部分面积为控制器和寄存器,而GPU拥有更多的ALU(ARITHMETIC LOGIC UNIT,逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理。CPU执行计算任务时,一个时刻只处理一个数据,不存在真正意义上的并行,而GPU具有多个处理器核,在一个时刻可以并行处理多个数据。程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。随着英伟达、AMD等公司不断推进其GPU的大规模并行架构支持,面向通用计算的GPU(即GPGPU,GENERAL PURPOSE GPU,通用计算图形处理器)已成为加速可并行应用程序的重要手段。

http://www.openhw.org/module/forum/thread-658120-1-1.html

4、人工智能或是半导体产业的"假春药"

杨瑞临表示,未来AI时代商机将离硬件越来越远,半导体厂投资回收难度增高,风险加剧,业者不能只卖芯片;数字内容才是AI 时代最具产值的范畴,芯片厂应朝系统与服务领域发展。

http://www.openhw.org/module/forum/thread-658187-1-1.html

5、深度学习-人工智能大爆炸的核心驱动

2015年以来,人工智能开始大爆发。很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效。当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

http://www.openhw.org/module/forum/thread-658018-1-1.html

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top