L'aumento dei calcoli eseguiti sull'edge sta promuovendo la crescita della domanda di memoria interna, capacità di archiviazione ed elaborazione per supportare l'intelligenza artificiale più avanzata e l'apprendimento automatico eseguito localmente a livello di dispositivo.
L'aumento dei calcoli eseguiti sull'edge sta promuovendo la crescita della domanda di memoria interna, capacità di archiviazione ed elaborazione per supportare l'intelligenza artificiale più avanzata e l'apprendimento automatico eseguito localmente a livello di dispositivo.
Sebbene i primi casi d'uso dell'IA edge includessero attività semplici quali il rilevamento ai fini della sicurezza e dell'accesso, i dispositivi per l'Internet delle cose conducono una maggiore attività di inferenza a livello locale, non raccolgono più soltanto i dati per inviarli a un cloud centrale che esegue la parte più impegnativa del lavoro di analisi IA/ML. Invece, questi dispositivi eseguono l'apprendimento automatico locale che può essere condiviso e ridistribuito ad altri dispositivi.
IA e ML più complesse implicano la necessità di utilizzare una maggiore potenza di calcolo e ciò include prestazioni di memoria e capacità di archiviazione dei dati maggiori.
I dispositivi edge prendono decisioni più complesse
Fino a poco tempo fa, una grande quantità di IA si riduceva essenzialmente a dei sensori che rilevavano dei problemi (la presenza di un intruso nell'edificio o una macchina o una linea di produzione surriscaldata o sul punto di creare problemi. Questi sistemi erano sufficientemente intelligenti da comprendere che qualcosa non funzionava e avvisare qualcuno affinché intervenisse in qualche modo.
L'odierna IA sull'edge sta diventando di gran lunga più intelligente in quanto l'hardware consente ai dispositivi IoT di fare i più. Questo, a sua volta, aumenta le aspettative di cosa sia possibile fare sull'edge e pertanto promuove la domanda di hardware. Grazie ai progressi di processori, memoria e supporti di archiviazione, l'IA sull'edge può eseguire attività di inferenza o apprendimento automatico più complesse, sempre più senza la necessità di scambiare dati con un cloud centrale.
Oltre all'evoluzione di memorie emergenti ed esistenti, incluse le tecnologie rapide per l'accumulo, ci sono diversi altri vantaggi nella tecnologia che rendono possibili le attività di IA e apprendimento automatico sull'edge. Le GPU altamente parallele sono state adattate per eseguire le reti neurali, che consentono l'apprendimento automatico generalizzato che può essere distribuito sull'edge, mentre il gran numero di dispositivi IoT, inclusi sensori, fotocamere e persino robot, per raccogliere i dati, rivela costantemente nuove opportunità per le capacità di IA e apprendimento automatico che supportano un'ampia gamma di obiettivi aziendali. Complessivamente, le reti neurali e l'infrastruttura IA che le supporta hanno raggiunto la maturità, inclusa la connettività 5G che elimina la latenza per supportare la comunicazione locale tra i dispositivi e con il cloud.
L'elevata disponibilità dei moderni dispositivi di edge computing abbinata alle capacità offline e alla decentralizzazione implicano l'assenza di necessità dell'accesso costante a Internet per elaborare i dati ed eseguire le operazioni di IA e apprendimento automatico. Le applicazioni di IA Edge ora sono più potenti e possono fornire informazioni approfondite in tempo reale, in quanto i dati possono essere analizzati a livello locale ed elaborare input diversificati come testo, voce e video nonché creare inferenze in modo indipendente. Non solo sono addestrate a rispondere a una domanda specifica, ma possono anche rispondere a nuove domande se di un tipo specifico. Ciò riduce l'esigenza di comunicare con un cloud centrale, ma consente anche a un gruppo di dispositivi edge di condurre operazioni di apprendimento automatico locali e condividere tali lezioni per essere distribuite a livello più ampio. Inoltre, l'accuratezza del modello di IA cresce in proporzione al tempo per il quale il modello viene addestrato sull'edge.
Il raggiungimento della maturità dell'IA sull'edge consente applicazioni più complesse in una vasta gamma di settori. La manutenzione predittiva negli ambienti di produzione è stata la prima applicazione di IoT industriale e sta diventando persino più robusta grazie alle capacità di IA e apprendimento automatico locali, perché i sensori possono rilevare i problemi persino in maniera più tempestiva e prevedere i guasti con maggiore precisione, non solo quelli legati all'usura, ma anche quelli dovuti a errori di configurazione o uso improprio.
L'accesso alle strutture e la gestione di queste possono essere controllati in maniera migliore attraverso l'IA e non solo ai fini della sicurezza. Gli edifici intelligenti possono regolare la temperatura e l'illuminazione in base al numero di persone presenti, nonché consentire una gestione più remota dei sistemi HVAC. Altre applicazioni energetiche per l'IA includono l'utilizzo di modelli edge per rendere più efficienti la generazione, la distribuzione e la gestione in base a schemi meteo, stato dell'infrastruttura e della griglia e dati cronologici.
Altri settori che traggono vantaggio dalle capacità IA edge più avanzate includono l'assistenza sanitaria, il commercio al dettaglio e l'agricoltura. Tuttavia, a prescindere dal caso d'uso o dalla posizione, caratteristiche più avanzate di IA e apprendimento automatico mettono pressione sull'hardware di elaborazione stesso, specialmente la memoria, per cui è possibile svolgere più operazioni a livello locale.
L'ubiquità dell'IA favorisce tecnologie di memoria comprovate
I dispositivi edge che eseguono operazioni di IA e apprendimento automatico prendono in considerazione e utilizzano molte memorie diverse. Questo è un riflesso della diversità delle applicazioni di IA edge.
Negli ultimi anni, si è molto discusso delle memorie emergenti come RAM resistiva (ReRAM) e RAM magneto-resistiva (MRAM) per i dispositivi edge IoT che hanno creato tutta una serie di nuovi requisiti di memoria, ma è sempre più chiaro che le memorie legacy durevoli devono svolgere un ruolo fondamentale per abilitare i dispositivi di IA sull'edge.
L'interesse della MRAM per l'IA sull'edge si basa sul consumo di corrente, perché funziona a tensioni inferiori nelle applicazioni in cui non è necessaria un'accuratezza elevata, ma la resistenza della memoria e l'efficienza energetica sono fondamentali. Non volatilità della MRAM significa anche che può archiviare i dati senza corrente, rendendola un sostituto della SRAM e della memoria flash contemporaneamente, agendo così da memoria unificata. L'attrattiva della ReRAM per l'IA sull'edge deriva dal potenziale di replicare il modo in cui il cervello umano apprende ed elabora le informazioni a livello di neuroni e di sinapsi; i dispositivi ReRAM sono notevolmente più piccoli e più efficienti dal punto di vista energetico rispetto a DRAM e HBM, che sono impiegati nei data center per le operazioni di IA e apprendimento automatico.
Ma sebbene MRAM e ReRAM abbiano caratteristiche che le rendono indicate per numerose applicazioni edge di IA, la crescente ubiquità dell'IA significa che le tecnologie di memoria vere e proprie trionferanno man mano che le operazioni di inferenza di base diventano più complesse, con le memorie DRAM a bassa potenza a svolgere il ruolo predominante. Persino le iterazioni meno recenti, come la LPDDR3 sono in grado di supportare l'elaborazione video dei sensori 4K, full HD o 3D in tempo reale per supportare applicazioni di IA quali il riconoscimento facciale nelle fotocamere di sicurezza o il controllo dei gesti nei chioschi pubblici, nonché eseguire l'elaborazione del linguaggio naturale. Allo stesso modo, la memoria flash NOR continuerà a essere scelta per alcuni casi d'uso di IA edge per la sua affidabilità e longevità quando utilizzata in ambienti difficili, sia per le attività di elaborazione che per l'archiviazione dei dati.
Altre opzioni per l'archiviazione dei dati IA includono la UFS (universal flash storage), incluse le schede rimovibili, grazie all'elevata affidabilità delle specifiche, al consumo di corrente vantaggioso e alle caratteristiche di stabilità. Una scheda UFS consente, inoltre, a un host, di inviare comandi continuamente, persino durante il trasferimento di dati per elaborare i comandi precedenti, il che significa che un'applicazione edge di IA è in grado di eseguire operazioni di I/O con altre applicazioni simultaneamente, senza compromettere le prestazioni.
In generale, esistono molte opportunità per le memorie di consumo di soddisfare le esigenze dell'IA edge. Dopo tutto, le memorie dei supercomputer di ieri, oggi si ritrovano negli smartphone, anch'essi un assaggio di dispositivi edge. I primi modelli di IA che necessitavano di hardware di fascia alta ora possono essere gestiti utilizzando più memorie mainstream in un dispositivo IoT, grazie alla miniaturizzazione e alle aziende di semiconduttori che continuano ad abbassare i prezzi dell'hardware.
Sebbene alcune operazioni di IA e apprendimento automatico dovranno continuare a essere centralizzate, il calcolo ad alte prestazioni, le attività di inferenza e di calcolo svolte sull'edge insieme al tipo di dispositivo determineranno le memorie più indicate, con una grande influenza delle caratteristiche termiche e dei vincoli di potenza. Infine, per supportare l'IA sull'edge, sarà necessario un determinato numero di memorie, emergenti oppure in uso.