Stai esplorando il nuovo arrow.com, puoi tornare alla tua esperienza originale in qualsiasi momento. Torna al sito originale

Arrow Electronic Components Online

NXP eIQ® Neutron Unità di Elaborazione Neurale (NPU)

Apprendimento Automatico09 mag 2024
Una rappresentazione concettuale di una rete neurale con nodi digitali interconnessi
Visualizza tutti gli articoli

NXP eIQ per la prossima generazione di applicazioni edge: architettura del core dell'acceleratore di apprendimento automatico altamente scalabile, efficiente in termini di area e consumo energetico.

La prossima ondata di applicazioni edge richiede capacità avanzate di elaborazione e apprendimento automatico. I casi d'uso dell'apprendimento automatico variano ampiamente nei diversi mercati e domini applicativi, richiedendo diverse quantità di prestazioni di calcolo accelerate, differenti livelli di dissipazione di potenza e costi complessivi della soluzione.

Uno dei modi più efficaci per offrire prestazioni di calcolo migliorate e efficienza energetica per le applicazioni di machine learning è integrare un'unità di elaborazione neurale (NPU) progettata appositamente e dedicata, talvolta anche chiamata acceleratore di machine learning (MLA) o acceleratori di deep learning (DLA), all'interno del dispositivo per completare i core di calcolo della CPU.

NXP offre un ampio portafoglio di dispositivi che spazia dai tradizionali MCU delle famiglie Kinetis, LPC e più recentemente dalla gamma di dispositivi MCX, ai nostri crossover MCU i.MX RT e ai processori applicativi i.MX. In ciascuna delle aree di mercato in cui operiamo, osserviamo una crescente domanda di capacità di calcolo efficienti per l'apprendimento automatico. Per offrire dispositivi altamente ottimizzati ai nostri utenti attraverso il nostro portafoglio, abbiamo sviluppato l'unità di elaborazione neurale (NPU) eIQ Neutron. L'architettura eIQ Neutron NPU si adatta dai MCU più efficienti ai processori applicativi i.MX più avanzati del nostro portafoglio. Questa scalabilità da miliardi (Giga) a trilioni (Tera) di operazioni per ciclo, combinata con il supporto per una vasta gamma di tipi di reti neurali come CNN, RNN, TCN e reti Transformer e altro ancora, è una formula vincente.

La NPU eIQ Neutron offre un ricco insieme di opzioni che possono essere sfruttate in base al dispositivo di elaborazione edge NXP in cui il core è integrato e alle esigenze di mercato che la famiglia di dispositivi sta affrontando.

  • Core del controller dedicato
  • Dequantizzazione, attivazione e pooling in linea
  • Cache di dimensioni ridotte integrato per ridurre il consumo energetico e diminuire la dipendenza dalla velocità della memoria di sistema
  • Motore di decompressione del peso
  • DMA multidimensionale avanzato per formati di input e output, inclusi stride, batching, interleaving, concatenazione
  • Memoria accoppiata configurabile

Progetti dispositivi Edge sicuri e connessi di nuova generazione?

Ottieni maggiori informazioni leggendo il blog sull'annuncio del prodotto i.MX 95.

Oltre alle capacità e alle funzionalità hardware, i core eIQ Neutron NPU sono completamente supportati dall'ambiente di sviluppo software (SW) per il Machine Learning (ML) eIQ®, premiato a livello internazionale. La combinazione tra accelerazione hardware sviluppata da NXP e supporto software offre agli utenti la possibilità di sfruttare la loro esperienza sull'intero portafoglio di elaborazione edge di NXP, oltre alla garanzia che il supporto per nuove reti neurali, modelli e operatori di machine learning emergenti possa essere gestito in modo più efficiente anche dopo che i dispositivi sono stati distribuiti e sono operativi sul campo.

Puoi iniziare a sviluppare soluzioni intelligenti con l'eIQ Neutron NPU utilizzando la serie di MCU MCX-N e i processori applicativi i.MX 95, con più dispositivi in arrivo.

Esplora eIQ Neutron NPU su MCU MCX N:

Prodotti della Serie MCX N

Tag articolo

Robotica
EMEA
Articolo
Intelligenza Artificiale (IA)
Apprendimento Automatico

Contenuto Correlato