微波EDA网,见证研发工程师的成长!
首页 > 硬件设计 > 硬件工程师文库 > A11神经网络引擎成苹果新发布手机最大亮点

A11神经网络引擎成苹果新发布手机最大亮点

时间:08-25 来源:EETOP 点击:

其实苹果很早就十分清楚移动 AI 处理单元的趋势。几天前,苹果硬件技术高级副总裁斯强尼·斯洛基接受采访时表示,3 年前发布搭载 A8 芯片的 iPhone 6 时,苹果就已经在开发 A11 仿生芯片了,然而三年前移动行业关于 AI 和机器学习的话题还不多。斯强尼·斯洛基特别强调,"内置神经网络引擎是苹果在 3 年打的一个赌。" 神经网络引擎服务于现在和未来 苹果称,有了"神经网络引擎服"的 A11 变得十分智能,因为能够把云端基于大数据深度学习训练成型的神经网络传输到手机中,与本地的神经网络引擎结合提供完整的 AI 知识和能力。而对于本地的 AI 人工智能处理,目前神经网络引擎已胜任诸多任务,包括更智能的够识别人物、地点和物体,为"面容 ID"和"动话表情"等创新的功能提供强大的性能等等。 

  其中对于 iPhone X 的"面容 ID"就运用到了智能面部识别和机器学习这些 AI 人工智能技术。其原深感摄像头系统,通过泛光感应元件会借助不可见的红外光线,来"照亮"识别人的脸,然后点阵投影器将 30000 多个肉眼不可见的光点投影在人脸部,绘制出精确细致、独一无二的深度面谱,而红外摄像头会探测点阵反射的细微变化,读取点阵图案,捕捉它的红外图像数据。   关键是,被捕捉到的这些非常精确的红外图像和点阵图案的深度数据,将会被发送至 A11 仿生这枚芯片中的神经网络,创建脸部的数学模型,再将这些精准绘制面谱的数据发送至安全隔区,以确认数据是否匹配。苹果从来不会将生物识别的数据传输到网络上,面容 ID 功能的面谱数据同样如此。   与此同时,面容 ID 功能在神经网络引擎的 AI 人工智能技术下,就算人脸的样貌随着时间而改变,也能随之进行调整适应,哪怕是化妆、卸妆、戴上眼镜、帽子或留起胡须时也能一眼认出。一般使用照片或面具这种欺骗性手段来破解面容 ID,在 AI 技术下基本是不可能的事情。   AI 技术除了服务于面容 ID 之外,新一代 iPhone 的相机系统也受益于此。例如人像模式自拍现在有了神经网络引擎的 AI 技术加持,景深虚化效果更加突出,而且所延伸出的"人像光效"这一特性,也利用到了 AI 复杂的算法,计算出容貌特征会怎样受到光线影响,利用数据创造出色的光效。至于"动话表情",AI 技术能够让捕捉到的运动更准确的分析肌肉运动,以便于重现神态。   当然了,A11 的神经网络引擎是是苹果 AR 增强现实体验和 Siri 私人助理的核心,而且未来还将运用到更多方面,并扩展到更多苹果生态的领域当中,包括医疗健康相关应用、无人驾驶汽车系统、Apple Watch、Apple TV 和 HomePod 音箱等,让更多原本生硬的设备也能采用与人类同样的方式进行交互,变得真正会思考。   注重隐私的情况下,苹果 AI 将持续进步   苹果是手机行业最早踏入 AI 人工智能领域厂商之一,早在 2011 年就已经在 iPhone 当中首度集成 Siri 智能助理,为其提供相应的语音识别支持。A11 仿生芯片的亮相是苹果在 AI 人工智能领域的又一大动作,其神经网络引擎标志着全新的开始。尽管苹果 AI 人工智能目前仍落后于其他竞争对手,但利用神经网络引擎这种新的方式,苹果可以做到不侵犯用户隐私的情况下加速发展。   A11 仿生芯片集成的神经网络引擎,主要针对本地大量的数据处理,配合芯片本身强劲的处理能力,大幅提升认知能力,为用户本地提供最直达的服务,隐私数据本地处理的安全性毋庸置疑。而在本地 AI 处理能力强劲的情况下,还能配合发展多年的云端 AI 数据协同展开,进一步为设备提供完整的、高效的体验。

Copyright © 2017-2020 微波EDA网 版权所有

网站地图

Top