微波EDA网,见证研发工程师的成长!
首页 > 硬件设计 > 硬件工程师文库 > 通往人工智能的未来——智能终端与云大脑的结合

通往人工智能的未来——智能终端与云大脑的结合

时间:07-30 来源:Qualcomm中国 点击:

协同合作,面向手势识别、连续认证、个性化用户界面和面向自动驾驶的精密地图构建等使用场景进行终端侧人工智能训练。实际上,得益于高速连接和高性能本地处理,我们有独特的能力去探索未来架构,实现最佳的总体系统性能。

 

 

高效运行终端侧人工智能需要异构计算

 

 

十多年来,Qualcomm 一直专注于在移动终端的功耗、散热和尺寸限制之内,高效地处理多种计算工作负载。骁龙移动平台是最高性能移动终端的首选系统级芯片(SoC)。人工智能工作负载在这方面提出了另一个挑战。通过在适宜的计算引擎上运行各种机器学习任务(如 CPU、GPU 和 DSP 等),我们能提供最高效的解决方案。这已经集成在了我们的 SoC 中。Qualcomm Hexagon DSP 就是一个典型范例,它最初是面向其他向量数学密集型工作而设计,但已通过进一步增强用来解决人工智能的工作负载。实际上,在骁龙835 上支持 Qualcomm Hexagon 向量扩展的 Hexagon DSP,与 Qualcomm Kryo CPU 相比,在运行相同工作负载时(GoogleNet Inception网络)能够实现 25 倍能效提升和 8 倍性能提升。

 

架构的多样性是至关重要的,你不能仅依赖某一类引擎处理所有工作。我们将持续演进面向机器学习工作负载的现有引擎,保持我们在性能表现最大化上的领先优势。利用我们对新兴神经网络的研究,我们在专注提升性能表现,以扩展异构计算能力,应对未来人工智能工作负载上已具备了优势。实际上早在 2012 年,我们已预见了通过专用硬件高效运行人工智能的构想。

 

 

我们正大规模普及人工智能

 

 

让开发者能简单利用异构计算并非易事,仅有优良硬件还不够。为了弥补这一差距,我们发布了骁龙神经处理引擎(NPE)软件开发包(SDK)。它能缩短终端侧卷积神经网络(CNN)和递归神经网络(RNN)在合适的骁龙引擎(例如 Kryo CPU、Qualcomm Adreno GPU 和 Hexagon DSP)上的运行时间,对图形识别和自然语言处理分别都有着重要作用。相同的开发者 API 给每个引擎都提供接入口,从而使开发者能够方便地无缝切换人工智能任务。

 

该神经处理引擎还支持通用深度学习模型框架,例如 Caffe/Caffe2 和 TensorFlow。该 SDK 是利用骁龙技术提供最佳性能和功耗的轻量灵活平台,旨在帮助从医疗健康到安全的广泛行业内的开发者和 OEM 厂商,在便携式终端上运行它们自己的专有神经网络模型。例如,今年的 F8 大会上,Facebook 和 Qualcomm 宣布合作,支持优化 Facebook 开源深度学习框架 Caffe2,以及 NPE 框架。

 

 

持续研究扩展人工智能范围,带来效率提升

 

 

我们正处于机器学习发展征程的最初期,深度学习也仅是具备改变计算潜力的多项机器学习技术之一。

 

 

为了实现更复杂的应用,我们在多个领域持续前进:

 

  • 专门的硬件架构:持续关注低功耗硬件(无论增强型、专用型还是定制型),以处理这些机器学习工作负载;

  • 神经网络技术的提升:针对半监督和无监督训练进行相关研究,如生成式对抗网络(GANs)、分布式学习和隐私保护;

  • 面向终端侧应用的网络优化:进行压缩、层间优化、稀疏优化,以及更好地利用内存和空间/时间复杂度的其他技术的相关研究;

 

在终端侧完成全部或大部分思考的、"始终开启"的智能终端中蕴藏着巨大的机遇,我们期待通过研究和产品化推动先进机器学习的发展。目前,Qualcomm 人工智能平台可通过高效的终端侧机器学习,提供高度响应、高度安全且直观的用户体验。未来还有更多可能。

 

 

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top