Desde la introducción de los procesadores de tensores hace algunos años, se ha desarrollado una nueva ola de arquitecturas específicas de silicio, incluidas las CPU híbridas. ARM e Intel ahora lanzan productos nuevos diseñados de forma específica para el aprendizaje automático y otras formas de inteligencia artificial.
A mediados de la década del 2000, el investigador británico-canadiense Geoffrey Hinton, tataranieto del especialista en lógica George Boole, hizo uno de los descubrimientos más importantes de la informática: cómo entrenar eficazmente nuevas capas de redes neuronales.[1] Las teorías de Hinton allanaron el camino hacia el aprendizaje automático (ML), la base de la mayoría de las aplicaciones de inteligencia artificial que se utilizan hoy en día.
Las redes neuronales requieren grandes cantidades de dos componentes esenciales: potencia de cálculo y datos.
Aunque las teorías y los experimentos sobre el uso de redes neuronales para la IA existen desde los años 50, tanto la capacidad de procesamiento como las cantidades masivas de datos necesarias para las aplicaciones reales no llegaron hasta este siglo.
Hoy en día, nuestros smartphones tienen millones de veces más capacidad de procesamiento que las computadoras que la NASA utilizó para enviar al primer hombre a la Luna. Además, Internet recoge miles de millones de unidades de datos de todo tipo cada segundo del día, donde haya imágenes, texto, videos, clics, tweets, etc.
Los procesadores tensoriales proporcionan nuevas capacidades para el aprendizaje automático y la inteligencia artificial
A medida que el software tradicional deja paso a los nuevos algoritmos de IA, los requisitos de las tecnologías para el procesamiento informático están cambiando. El aprendizaje automático requiere el procesamiento sobre la marcha de complejos modelos matemáticos, y los núcleos de procesamiento habituales de empresas como Intel y ARM no están diseñados de manera explícita para ello.
El éxito del aprendizaje automático y la demanda de inteligencia artificial en muchos campos distintos han desencadenado una carrera, por así decirlo, para crear el chip de inteligencia artificial de última generación.
Al principio, este vacío lo llenó Nvidia, que utilizó su experiencia en hardware sobre videojuegos para aprovechar los algoritmos de procesamiento de gráficos para los nuevos requisitos de la IA. Entre 2016 y 2018, Nvidia se convirtió en el actor principal del mercado de chips para todo, desde el aprendizaje automático hasta la explotación de criptomonedas, y el precio de sus acciones se ha multiplicado por diez.
Empresas como Microsoft, que durante mucho tiempo evitó fabricar sus propios chips, ahora están invirtiendo mucho en ello. Intel también se sumó a la carrera, y está trabajando con Facebook para probar su primer silicio específico para IA.[2]
En 2016, Google anunció una nueva arquitectura de procesadores para la “inferencia de aprendizaje profundo” llamada Unidad de procesamiento tensorial (TPU).[3] Desde el principio, las TPU de Google se encargaron de mejorar la precisión de las aplicaciones de mapas como Google Maps y Street View.
La segunda y tercera generación de TPU las anunció Google en mayo de 2017 y mayo de 2018. El diseño de la segunda generación aumentó el ancho de banda a 600 GB/s y el rendimiento a 45 teraflops, y la tercera generación duplicó el rendimiento de la anterior.
En julio de 2018, Google anunció la Edge TPU, un chip de ASIC diseñado con el propósito de ejecutar modelos de ML para la informática periférica.[4]
En la actualidad, Nvidia y otros proveedores de chips de IA utilizan las TPU en combinación con su propia tecnología para producir SoC capaces de manejar diferentes aplicaciones, entre las que se encuentran la conducción autónoma y el reconocimiento facial. Nvidia también vende el Jetson, una central de ML para aquellos dispositivos no móviles que necesitan un fuerte rendimiento de redes neuronales profundas con un consumo de potencia determinado.[5]
Recientemente, Nvidia anunció Grace[6], llamada así en honor a Grace Hopper, la pionera estadounidense en programación informática, un nuevo diseño de chip que está previsto que llegue a las supercomputadoras más grandes en 2023. Esta nueva arquitectura, que utiliza principalmente la tecnología ARM, permitirá ejecutar complejas tareas informáticas de IA que no son posibles con los diseños de chip actuales, lo que llevará a los ordenadores un paso hacia la inteligencia artificial general.
ARM ha desarrollado nuevas arquitecturas de redes neuronales
En los últimos años, ARM, conocida por su popular arquitectura Cortex, ha desarrollado una nueva generación de unidades de procesamiento neural (NPU), la serie Ethos NPU[7]. La serie Ethos está diseñada para trabajar en conjunto con los núcleos Cortex. Esta combinación da lugar a una mejora en el rendimiento y la eficiencia energética en comparación con las NPU convencionales, lo que permite el desarrollo de productos periféricos de ML de rentables, pero de alto rendimiento.
La ventaja de la tecnología ARM es que se comporta mejor en aplicaciones de bajo consumo, dirigidas en específico al mercado del internet de las cosas. Su tecnología está especialmente diseñada para integrarse en los SoC de bajo consumo utilizados en millones de dispositivos conectados.
Los núcleos de procesamiento de Ethos pueden aprovechar los algoritmos de aprendizaje automático capacitados que se desarrollaron en la nube y ejecutar aplicaciones en el borde para obtener resultados inmediatos. Si bien los núcleos no están diseñados en principio para la formación compleja del ML, su rendimiento puede igualar al de algunos de sus competidores más grandes en tareas de informática periférica a una fracción del costo y el uso de energía.
Por ejemplo, según ARM, la implementación de 512-GOPS de Ethos-U65 funcionando a 1 GHz es capaz de reconocer objetos en menos de 3 ms cuando ejecuta la famosa red neuronal profunda MobileNet_v2.[8]
NXP Semiconductors actualmente utiliza la microNPU Ethos-U65, que trabaja en combinación con el núcleo Cortex-M y la SRAM en el chip ya presentes en la familia i.MX de NXP.[9]
Además de la serie U de Ethos, ARM también diseña la serie N de Ethos,[10] destinada a productos de consumo general como teléfonos inteligentes, sistemas de información y entretenimiento para vehículos y televisores digitales. La serie N de Ethos se utiliza ahora en vehículos conectados para ofrecer nuevas funciones inteligentes como el control de acceso, la alerta al conductor o el reconocimiento de voz, que contribuyen a hacer más segura la conducción.
En los teléfonos inteligentes, la serie N de Ethos es perfecta para ampliar las capacidades de procesamiento de las CPU integradas, con funciones como la realidad aumentada, la realidad virtual y las capacidades del ML.
La computación cuántica impulsará la próxima generación de soluciones de IA
“Los físicos llevan más de 30 años hablando del poder de la computación cuántica, pero las preguntas siempre han sido: ¿Llegará a hacer algo útil y merece la pena invertir en ella?”, afirma John Martinis, científico jefe de hardware cuántico de Google.[11]
Hace más de tres años que Volkswagen colabora con Google en el uso de la computación cuántica para diversas aplicaciones, como acelerar el tiempo de entrenamiento de las redes neuronales, una de las tecnologías fundamentales para los automóviles autónomos.[12]
“Hay muchos requisitos de computación de alto rendimiento en nuestro camino”, señaló Martin Hofmann, director de Informática (CIO) de Volkswagen. “La pregunta es: ¿Hay mejores formas de hacerlo?”
Según IBM, “el acceso a las limitadas computadoras cuánticas actuales ya ha proporcionado beneficios a los investigadores de todo el mundo, al ofrecer una visión sin precedentes del funcionamiento interno de las leyes que rigen el funcionamiento de la naturaleza, así como una nueva lente a través de la que se abordan los problemas de la química, la simulación, la optimización, la inteligencia artificial y otros campos”. [13]
Aunque todavía es demasiado pronto para hacer realidad el poder de la informática cuántica en la mayoría de las aplicaciones, los resultados obtenidos en los experimentos son al menos impresionantes. El “Sycamore” de Google,[14] un nuevo procesador de 54 qubits, tardó 200 segundos en completar un experimento de supremacía cuántica que a la supercomputadora más rápido del mundo le llevaría 10 000 años producir un resultado similar.
“En los servidores de Google Cloud, estimamos que realizar la misma tarea para m=20 con una fidelidad del 0,1 % mediante el algoritmo de Schrödinger-Feynman costaría 50 billones de horas fijas y consumiría un petavatio hora de energía”.[15]
Hacia la inteligencia artificial fuerte
La implementación de estas tecnologías ha hecho algo más que hacer posible la IA y el ML. También ha creado la creencia de que estamos cerca de conseguir lo que se considera el Santo Grial de la investigación en IA, la inteligencia artificial fuerte (IAG): máquinas que pueden pensar por sí mismas y realizar tareas intelectuales que imitan a los humanos, y mucho más.
Procesadores potentes como el Grace de Nvidia y el Sycamore de Google, combinados con nuevos algoritmos y cantidades masivas de datos, hacen avanzar al mundo hacia una nueva era de la IA.
[1] http://www.cs.toronto.edu/~hinton/absps/cbpweb.pdf
[2] https://finance.yahoo.com/news/intel-working-facebook-ai-chip-013746099.html
[3] https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip
[4] https://coral.ai/docs/edgetpu/benchmarks/
[5] https://www.forbes.com/sites/patrickmoorhead/2017/03/15/nvidia-introduces-jetson-tx2-for-edge-machine-learning-with-high-quality-customers/
[6] https://nvidianews.nvidia.com/news/nvidia-announces-cpu-for-giant-ai-and-high-performance-computing-workloads
[7] https://www.arm.com/solutions/artificial-intelligence
[8] https://developer.arm.com/ip-products/processors/machine-learning/arm-ethos-u/ethos-u65
[9] https://www.nxp.com/company/blog/why-the-arm-ethos-u65-micronpu-is-a-big-deal-and-how-it-came-to-be-this-way:BL-ARM-ETHOS-U65-MICRONPU
[10] https://www.arm.com/products/silicon-ip-cpu/ethos/ethos-n57
[11] https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html
[12] https://blogs.wsj.com/cio/2017/11/07/vw-expands-its-quantum-computing-research-with-google/
[13] https://www.ibm.com/blogs/research/2021/04/quantum-accelerate-discoveries/
[14] “Procesador Sycamore: Wikipedia” https://en.wikipedia.org/wiki/Sycamore_processor.
[15] Arute, F., Arya, K., Babbush, R. y otros. Supremacía cuántica mediante un procesador superconductor programable. Nature 574, 505–510 (2019). https://doi.org/10.1038/s41586-019-1666-5