NXP eIQ® Neutron 神经处理单元 (NPU)
NXP eIQ 用于下一代边缘应用:高度可扩展、区域和功耗高效的机器学习加速器核心架构。
下一波的边缘应用需要高级处理和机器学习功能。机器学习的应用场景因不同的市场和应用领域而异,所需的加速计算性能、功耗以及整体解决方案成本也各不相同。
为机器学习应用提供更高的计算性能和能效的最有效方法之一是将一个专门设计的、专用的神经处理单元(NPU,有时也称为机器学习加速器(MLA)或深度学习加速器(DLA))集成到设备中,用以补充CPU计算核心。
NXP 提供了非常广泛的产品组合,从 Kinetis、LPC 系列的传统 MCU,以及最近推出的 MCX 设备系列,到我们的 i.MX RT 跨界 MCU 和 i.MX 应用处理器。在我们服务的各个市场领域中,我们都看到了对高效机器学习计算能力的需求日益增长。为了在我们的产品组合中为用户提供高度优化的设备,我们开发了 eIQ Neutron 神经处理单元 (NPU)。eIQ Neutron NPU 架构能够从我们产品组合中最高效的 MCU 扩展到功能最强大的 i.MX 应用处理器。这种每个周期从数十亿(Giga)到数万亿(Tera)次操作的可扩展性,再加上对广泛的神经网络类型(如 CNN、RNN、TCN 和 Transformer 网络等)的支持,是成功的关键。
eIQ Neutron NPU 提供丰富的选项,可根据核心集成的 NXP 边缘处理设备以及该设备系列所面向的市场需求进行利用。
- 专用控制器核心
- 内联反量化、激活和池化
- 内置微型缓存以降低功耗,并减少对系统内存速度的依赖
- 权重解压引擎
- 高级多维DMA支持输入和输出格式,包括跨步、批处理、交错、拼接
- 可配置耦合内存
正在为下一代安全、互联的边缘设备设计吗?
通过阅读i.MX 95 产品发布博客获取更多见解。
除了硬件能力和功能外,eIQ Neutron NPU 内核还完全支持屡获殊荣的 eIQ® 机器学习 (ML) 软件 (SW) 开发环境。NXP 开发的硬件加速与软件支持的结合,为用户提供了利用其在 NXP 边缘处理产品组合中的经验的能力,同时也让用户放心,即使设备已部署并在现场运行,针对新兴机器学习神经网络、模型和算子的支持也能更高效地实现。
您可以使用MCX-N系列MCU上的eIQ Neutron NPU以及i.MX 95应用处理器开始开发智能解决方案,并且未来还会有更多设备支持。
探索用于MCX N系列MCU的eIQ Neutron NPU:
MCX N系列产品
文章标签