Piattaforme di elaborazione per reti neurali

Dall'introduzione dei processori tensoriali alcuni anni fa, è stata sviluppata una nuova serie di architetture specifiche per il silicio, comprese le CPU ibride. ARM e Intel stanno ora introducendo nuovi prodotti progettati appositamente per l'apprendimento automatico e altre forme di intelligenza artificiale.

A metà degli anni 2000, il ricercatore britannico-canadese Geoffrey Hinton, pronipote del logico George Boole, fece una delle scoperte più importanti nel campo dell'informatica: come addestrare in modo efficiente nuovi strati di reti neurali.[1] Le teorie di Hilton aprirono la strada all'apprendimento automatico (ML, Machine Learning), la base per la maggior parte delle applicazioni di intelligenza artificiale in uso al giorno d'oggi.

Le reti neurali richiedono grandi quantità di due componenti essenziali: potenza di elaborazione e dati.

Sebbene le teorie e gli esperimenti sull'uso delle reti neurali per l'intelligenza artificiale esistessero già negli anni '50 del Novecento, le capacità di elaborazione e le enormi quantità di dati necessari per le applicazioni reali non sono stati disponibili fino a questo secolo.

Oggi, i nostri smartphone hanno una potenza di elaborazione milioni di volte superiore rispetto ai computer utilizzati dalla NASA per inviare il primo uomo sulla luna. Inoltre, Internet raccoglie miliardi di unità di dati di qualsiasi tipo ogni secondo di ogni singolo giorno, ovunque siano presenti immagini, testo, video, clic, tweet e così via.

I processori tensoriali forniscono nuove funzionalità per ML e IA

Il software tradizionale sta lasciando il passo a nuovi algoritmi di intelligenza artificiale, di conseguenza i requisiti delle tecnologie per l'elaborazione informatica stanno cambiando. L'apprendimento automatico richiede l'elaborazione al volo di modelli matematici complessi e i tradizionali core di elaborazione di aziende come Intel e ARM non sono appositamente progettati per tali operazioni.

Tuttavia, il successo dell'apprendimento automatico e la domanda di intelligenza artificiale in molti settori diversi hanno, per così dire, innescato una gara per la creazione del chip IA di prossima generazione.

Inizialmente, all'assenza di dispositivi adeguati ha risposto Nvidia, che, utilizzando la propria esperienza nell'hardware dei videogiochi, ha sfruttato gli algoritmi alla base dell'elaborazione grafica per i nuovi requisiti dell'IA. Tra il 2016 e il 2018, Nvidia è diventata l'azienda protagonista nel mercato dei chip per qualsiasi cosa dall'apprendimento automatico al mining di criptovalute e il prezzo delle sue azioni è aumentato di dieci volte.

Aziende come Microsoft, che per molti anni hanno evitato di produrre i propri chip, stanno ora investendo massicciamente in questa tecnologia. Anche Intel si è unita alla gara e sta lavorando con Facebook per testare il suo primo chip al silicio specifico per IA.[2]

Nel 2016, Google ha annunciato una nuova architettura del processore per "inferenza del deep learning" denominata Tensor Processing Unit (TPU).[3] Fin dall'inizio, le TPU di Google sono state destinate a migliorare l'accuratezza delle applicazioni di mappatura come Google Maps e Street View.

La seconda e la terza generazione di TPU sono state annunciate da Google a maggio 2017 e maggio 2018. L'architettura di seconda generazione ha aumentato l'ampiezza di banda a 600 GB/s e le prestazioni a 45 teraFLOP, mentre la terza generazione ha raddoppiato le prestazioni della generazione precedente.

Nel luglio 2018, Google ha annunciato Edge TPU, un chip ASIC appositamente progettato per eseguire modelli ML per l'edge computing.[4]

Oggi, Nvidia e altri fornitori di chip IA utilizzano le TPU in combinazione con la propria tecnologia per produrre SoC in grado di gestire diverse applicazioni, tra cui guida autonoma e riconoscimento facciale. Nvidia, inoltre, commercializza la piattaforma Jetson, un concentrato di machine learning per quei dispositivi non mobili che hanno bisogno di prestazioni solide per reti neurali profonde con un consumo di corrente prestabilito.[5]

Recentemente, Nvidia ha annunciato Grace[6] – il cui nome deriva da Grace Hopper, pioniera della programmazione informatica negli Stati Uniti – un nuovo design di chip che dovrebbe essere installato nei supercomputer "Mammoth" nel 2023. Questa nuova architettura, che utilizza principalmente la tecnologia ARM, renderà possibile l'esecuzione di complesse attività di elaborazione IA, che non sono possibili con le odierne architetture dei chip, portando i computer un passo avanti verso l'intelligenza artificiale generale.

ARM ha sviluppato nuove architetture di rete neurale

Negli ultimi anni ARM, azienda nota per la famosa architettura Cortex, ha sviluppato una nuova generazione di unità di elaborazione neurale (NPU), la serie Ethos NPU[7]. La serie Ethos è progettata per funzionare con i core Cortex. Tale combinazione si traduce in prestazioni migliori e maggiore efficienza energetica rispetto alle NPU convenzionali, consentendo lo sviluppo di prodotti ML edge economici, ma dalle prestazioni elevate.

Il vantaggio della tecnologia ARM è che offre prestazioni superiori nelle applicazioni a basso consumo, specificamente mirate al mercato dell'Internet delle cose. La sua tecnologia è appositamente progettata per essere integrata nei SoC a basso consumo utilizzati in milioni di dispositivi connessi.

I core di elaborazione Ethos possono sfruttare algoritmi di apprendimento automatico addestrati e sviluppati nel cloud ed eseguire applicazioni alla periferia della rete per ottenere risultati immediati. Sebbene tali core non siano originalmente progettati per un addestramento ML complesso, offrono prestazioni che possono eguagliare alcuni dei loro maggiori concorrenti nelle attività di edge computing a una frazione del costo e del consumo energetico dei dispositivi concorrenti.

Ad esempio, secondo ARM, l'implementazione 512-GOPS di Ethos-U65 che funziona a 1 GHz è in grado di riconoscere oggetti in meno di 3 ms quando esegue la popolare rete neurale profonda MobileNet_v2.[8]

NXP Semiconductors sta attualmente utilizzando la microNPU Ethos-U65, lavorando di concerto con il core Cortex-M e la SRAM su chip già presenti nella famiglia i.MX di NXP.[9]

Computing Platforms Image 1

Oltre alla serie Ethos U, ARM progetta anche la serie Ethos N,[10] pensata per prodotti di consumo mainstream come smartphone, infotainment dei veicoli e TV digitali. La serie Ethos N viene ora utilizzata nei veicoli connessi per fornire nuove funzionalità intelligenti come il controllo degli accessi, dei riflessi del conducente o il riconoscimento vocale, che contribuiscono a rendere la guida più sicura.

Sugli smartphone, la serie Ethos N è ideale per espandere le capacità di elaborazione delle CPU integrate, con funzionalità quali realtà aumentata, realtà virtuale e capacità di apprendimento automatico.

L'informatica quantistica sosterrà la prossima generazione di soluzioni IA

Secondo John Martinis, responsabile del pool di scienziati dell'hardware quantistico di Google, "i fisici parlano della potenza del calcolo quantistico da oltre 30 anni, ma le domande su tale argomento sono sempre state: realizzerà mai qualcosa di utile? E vale la pena investirci?"[11]

Da più di tre anni Volkswagen sta lavorando con Google all'impiego del calcolo quantistico per varie applicazioni, tra cui l'accelerazione del tempo necessario all'addestramento delle reti neurali, una delle tecnologie critiche per le auto a guida autonoma.[12]

"Prevediamo che nei prossimi anni i requisiti di elaborazione ad alte prestazioni si moltiplicheranno", ha affermato Martin Hofmann, CIO di Volkswagen. "La domanda è: ci sono modi migliori per effettuare queste elaborazioni?"

Secondo IBM, "l'accesso ai computer quantistici limitati di oggi ha già portato vantaggi ai ricercatori di tutto il mondo, offrendo uno sguardo senza precedenti sui meccanismi interni che governano il funzionamento della natura, nonché una nuova lente attraverso cui osservare problemi di chimica, simulazione, ottimizzazione, intelligenza artificiale e altri settori." [13]

Sebbene sia ancora troppo presto per concretizzare la potenza del calcolo quantistico nella maggior parte delle applicazioni, i risultati ottenuti negli esperimenti sono già notevoli. "Sycamore"[14] di Google, un nuovo processore a 54 qubit, ha impiegato 200 secondi per completare un esperimento di supremazia quantistica, mentre al supercomputer più veloce del mondo servirebbero 10.000 anni per produrre un risultato simile.

Computing Platforms Image 2-min

"Stimiamo che per eseguire la stessa attività per m=20 con una fedeltà dello 0,1% sui server Google Cloud utilizzando l'algoritmo di Schrödinger – Feynman servirebbero 50 trilioni di core-hour e si consumerebbe un petawattora di corrente."[15]

Verso l'intelligenza artificiale generale

L'implementazione di queste tecnologie ha fatto di più che rendere possibili intelligenza artificiale e apprendimento automatico. Ha anche creato la convinzione che siamo vicini al raggiungimento di quello che è considerato il Santo Graal della ricerca sull'IA, l'Intelligenza artificiale generale (AGI, Artificial General Intelligence): macchine in grado di pensare da sole ed eseguire attività intellettuali imitando gli esseri umani e molto altro ancora.

Processori potenti come Grace di Nvidia e Sycamore di Google, abbinati a nuovi algoritmi e a enormi quantità di dati, portano il mondo verso una nuova era dell'intelligenza artificiale.

newsletter 1


[1] http://www.cs.toronto.edu/~hinton/absps/cbpweb.pdf

[2] https://finance.yahoo.com/news/intel-working-facebook-ai-chip-013746099.html

[3] https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip

[4] https://coral.ai/docs/edgetpu/benchmarks/

[5] https://www.forbes.com/sites/patrickmoorhead/2017/03/15/nvidia-introduces-jetson-tx2-for-edge-machine-learning-with-high-quality-customers/

[6] https://nvidianews.nvidia.com/news/nvidia-announces-cpu-for-giant-ai-and-high-performance-computing-workloads

[7] https://www.arm.com/solutions/artificial-intelligence

[8] https://developer.arm.com/ip-products/processors/machine-learning/arm-ethos-u/ethos-u65

[9] https://www.nxp.com/company/blog/why-the-arm-ethos-u65-micronpu-is-a-big-deal-and-how-it-came-to-be-this-way:BL-ARM-ETHOS-U65-MICRONPU

[10] https://www.arm.com/products/silicon-ip-cpu/ethos/ethos-n57

[11] https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html

[12] https://blogs.wsj.com/cio/2017/11/07/vw-expands-its-quantum-computing-research-with-google/

[13] https://www.ibm.com/blogs/research/2021/04/quantum-accelerate-discoveries/

[14] "Sycamore processor - Wikipedia." https://en.wikipedia.org/wiki/Sycamore_processor. 

[15] Arute, F., Arya, K., Babbush, R. et al. Quantum supremacy using a programmable superconducting processor. Nature 574, 505–510 (2019). https://doi.org/10.1038/s41586-019-1666-5

Ultime notizie

Sorry, your filter selection returned no results.

Non perderti le ultime novità sull'elettronica

Abbiamo aggiornato la nostra politica sulla privacy. Si prega di prendere un momento per rivedere questi cambiamenti. Cliccando su Accetto, l'utente accetta la Politica sulla privacy e Condizioni di utilizzo di Arrow Electronics.

Il nostro sito web mette i cookies sul vostro dispositivo per migliorare la vostra esperienza e il nostro sito. Leggete altre informazioni sui cookies che usiamo e su come disabilitarli qui. I cookies e le tecnologie di tracking possono essere usati per scopi commerciali.

Con un click su “Accept”, voi consentite l'inserimento dei cookies sul vostro dispositivo e l'uso da parte nostra di tecnologie di tracking. Per avere altre informazioni e istruzioni su come disabilitare i cookies e le tecnologie di tracking, clickate su “Read More” qui sotto. Mentre l'accettazione dei cookies e delle tecnologie di tracking è volontaria, una loro disabilitazione potrebbe determinare un funzionamento non corretto del sito web, ed alcuni messaggi di allarme potrebbero essere per voi meno importanti.

Noi rispettiamo la vostra privacy. Leggete qui la nostra politica relativa alla privacy