麦克雷 Mavom.cn
标题:
iPhone X 的 A11 Bionic 内置了神经网络硬件支持
[打印本页]
作者:
andrewpyxf
时间:
昨天 12:02
标题:
iPhone X 的 A11 Bionic 内置了神经网络硬件支持
iPhone X 的 A11 Bionic 内置了神经网络硬件支持
作者:
飞翔de希望
时间:
昨天 12:03
iPhone X的A11 Bionic芯片内置的Neural Engine(神经网络引擎)具备6000亿次每秒(600 billion operations per second,即600B op/s)的实时运算能力,这一性能相当于约600G FLOPS(每秒6000亿次浮点运算),接近同期部分手机GPU的算力水平,但与独立GPU或专用NPU相比仍有差距。
具体分析如下:
1.
A11 Bionic的Neural Engine性能解析
600B op/s的含义
:“600 billion operations per second”指每秒可执行6000亿次操作(op/s),这里的“操作”通常包括整数或低精度浮点运算(如8位、16位),而非标准的32位浮点运算(FLOPS)。若按近似换算(假设1次操作≈1次浮点运算),600B op/s≈600G FLOPS。
对比手机GPU
:PowerVR GT7900:666G FLOPS(峰值)
Adreno 540:567G FLOPS
Mali-G72(Kirin 970):347G FLOPSA11的Neural Engine算力与高端手机GPU处于同一量级,但GPU需处理图形渲染等通用任务,而Neural Engine专为神经网络优化(如矩阵乘法、激活函数),效率更高。
与独立GPU/NPU的对比
:
GeForce GTX 1050(桌面级)
:1.8T FLOPS(约3倍于A11)
Kirin 970 NPU
:1.92T FLOPS(华为专用NPU,算力远超A11)A11的Neural Engine在移动端属于顶尖水平,但专用NPU(如Kirin 970)通过定制架构实现了更高算力。
2.
Neural Engine的设计定位
专用加速
:Neural Engine是苹果首款专用AI加速器,针对机器学习任务(如面部识别、AR场景分析、图像处理)优化,可高效执行卷积神经网络(CNN)的矩阵运算,减少对CPU/GPU的依赖。
能效优势
:在600B op/s的算力下,Neural Engine的功耗显著低于通用GPU,适合移动设备持续运行AI任务(如Face ID的实时面部建模)。
多核协同
:A11的6核CPU(2大核+4小核)与Neural Engine可协同工作。例如,CPU负责任务调度和预处理,Neural Engine执行核心AI计算,GPU参与图形渲染,形成高效异构计算体系。
3.
与同期竞品的横向对比
华为Kirin 970
:集成NPU(1.92T FLOPS),算力是A11的3倍以上,但实际性能受软件优化和任务类型影响。例如,Kirin 970在图像分类任务中可能更快,而A11在实时动作识别中更高效。
高通Adreno 540
:作为GPU,其567G FLOPS算力接近A11,但需通过软件库(如Hexagon DSP)支持AI任务,效率低于专用硬件。
苹果的后续迭代
:A12 Bionic的Neural Engine将算力提升至5T op/s(约5倍于A11),显示苹果在专用AI硬件上的持续投入。
4.
技术背景与行业意义
移动端AI硬件趋势
:A11的Neural Engine标志着手机芯片从“通用计算”向“专用AI加速”转型。此后,高通(Hexagon DSP)、华为(NPU)、三星(NPU)均推出类似设计,推动端侧AI普及。
操作精度与场景适配
:Neural Engine支持低精度计算(如INT8),在保持高算力的同时降低功耗,适合语音识别、图像增强等对精度要求不高的任务。而桌面GPU(如GTX 1050)需处理高精度计算(FP32/FP64),应用场景不同。
5.
总结:A11 Neural Engine的核心价值
性能水平
:600B op/s(约600G FLOPS)的算力在移动端属于第一梯队,接近高端手机GPU。
能效优势
:专用设计使其在AI任务中功耗远低于通用GPU,支撑Face ID、Animoji等实时功能。
行业影响
:推动了移动芯片的AI硬件竞赛,后续产品(如A12、Kirin 980)进一步提升了端侧AI能力。
注
:实际性能需结合具体任务测试。例如,A11在iOS生态中的软件优化可能使其AI任务实际速度超越算力更高的竞品。
欢迎光临 麦克雷 Mavom.cn (http://www.mavom.cn/)
Powered by Discuz! X3.5