L'IA en périphérie présente des exigences quant au contenu des mémoires

Une plus grande partie des traitements informatiques s'effectue désormais en périphérie, ce qui intensifie la demande en capacités de mémoire, de stockage et de traitement pour accompagner des fonctions plus évoluées d'intelligence artificielle et d'apprentissage machine exécutées en local au niveau des appareils eux-mêmes.

Une plus grande partie des traitements informatiques s'effectue désormais en périphérie, ce qui intensifie la demande en capacités de mémoire, de stockage et de traitement pour accompagner des fonctions plus évoluées d'intelligence artificielle et d'apprentissage machine exécutées en local au niveau des appareils eux-mêmes.

Bien que les premiers cas d'utilisation de l'intelligence artificielle en périphérie se soient limités à de simples tâches, par exemple la détection à des fins de sécurité et de maîtrise des accès, les appareils de l'Internet des objets sont aujourd'hui chargés de davantage de tâches d'inférence en local. Ils ne se contentent plus de recueillir des données pour les transmettre à un cloud central qui se charge des tâches intensives d'IA et d'apprentissage machine. Ce sont au contraire eux qui exécutent l'apprentissage machine en local pour le partager et le diffuser à d'autres appareils.

Une IA et un apprentissage machine plus complexes nécessitent davantage de puissance de calcul, ce qui, en retour, exige des mémoires et des capacités de stockage des données plus performantes.

Les appareils en périphérie prennent des décisions plus complexes

Jusqu'à récemment, une grande partie de l'IA en périphérie se résumait à la détection d'une anomalie par des capteurs. Ce pouvait être, par exemple, la présence dans le bâtiment de quelqu'un qui n'aurait pas dû y être ou une machine de la chaîne de production qui surchauffait et se trouvait sur le point de tomber en panne. Ces systèmes étaient suffisamment intelligents pour comprendre que quelque chose était anormal et pour signaler à quelqu'un qu'il fallait faire quelque chose.

Aujourd'hui, l'intelligence artificielle en périphérie devient beaucoup plus intelligente à mesure que le matériel permet aux appareils IoT d'en faire plus. Par ricochet, on s'attend à pouvoir en faire davantage en périphérie, ce qui fait peser de nouvelles demandes sur le matériel. Grâce aux progrès réalisés dans le domaine des processeurs, de la mémoire et des supports de stockage, l'IA en périphérie peut se charger de tâches plus complexes d'inférence ou d'apprentissage machine sans avoir autant besoin de transmettre des données à un cloud central et d'en attendre des réponses.

Au-delà de l'évolution des mémoires émergentes et actuelles, notamment avec les technologies de stockage flash, plusieurs avancées technologiques permettent d'effectuer des tâches d'IA et d'apprentissage machine en périphérie. Les GPU hautement parallèles ont été adaptés pour pouvoir exécuter des réseaux neuronaux, ce qui permet de généraliser des opérations d'apprentissage machine et de les déployer en périphérie. Dans le même temps, la prolifération des appareils IoT, dont des capteurs, des caméras et même des robots pour recueillir des données, ouvre constamment de nouvelles voies pour que des capacités d'IA et d'apprentissage machine viennent soutenir une large gamme d'objectifs métiers. Dans l'ensemble, les réseaux neuronaux et l'infrastructure d'intelligence artificielle qui les sous-tend ont évolué, notamment avec la connectivité 5G, qui élimine la latence et améliore la communication locale aller-retour entre les appareils et le cloud.

La haute disponibilité des appareils informatiques en périphérie d'aujourd'hui, à laquelle s'ajoutent des capacités hors ligne et des possibilités de décentralisation, signifie qu'il n'est plus nécessaire de disposer d'un accès constant à Internet pour traiter des données et exécuter des opérations d'IA et d'apprentissage machine. Les applications d'IA en périphérie sont désormais plus puissantes et peuvent fournir des informations en temps réel puisque les données peuvent être analysées en local. Elles peuvent aussi traiter des signaux d'entrée tels que du texte, de la voix et de la vidéo pour opérer des inférences par elles-mêmes. Non seulement elles sont entraînées pour répondre à des questions spécifiques, mais elles peuvent également répondre à de nouvelles questions pour peu que celles-ci soient d'un certain type. Cela réduit le besoin de communiquer avec un cloud central, mais permet également à un groupe d'appareils en périphérie d'exécuter des opérations d'apprentissage machine en local et de rediffuser ce qu'elles ont appris pour une distribution plus large. En outre, plus elles entraînent un modèle en périphérie, plus ce modèle d'IA devient précis.

Les progrès de l'IA en périphérie permettent de créer des applications plus complexes dans une large gamme de secteurs industriels. La maintenance prédictive dans les environnements de fabrication a été l'une des premières applications de l'IoT industriel et gagne encore en performances grâce aux capacités locales d'intelligence artificielle et d'apprentissage machine. En effet, les capteurs peuvent détecter les problèmes encore plus tôt et prédire les pannes avec plus de précision, non seulement celles dues à l'usure, mais aussi à de mauvaises configurations ou un mauvais usage.

L'intelligence artificielle permet de mieux contrôler l'accès aux installations et de mieux gérer les sites, cela à des fins qui vont même au-delà de la sécurité. Les bâtiments intelligents peuvent régler la température et l'éclairage en fonction du nombre d'occupants et peuvent aussi autoriser une gestion à distance plus complète des systèmes de chauffage, ventilation et climatisation. L'intelligence artificielle trouve également d'autres applications énergétiques, dont l'utilisation de modèles en périphérie pour rendre la production, la distribution et la gestion de l'énergie plus efficace en fonction de modèles météorologiques, de l'infrastructure du réseau, de son intégrité et de données historiques.

Les secteurs de la santé, de la vente au détail et de l'agriculture bénéficient également des progrès réalisés par l'IA en périphérie. En tout cas, quel que soit le cas d'utilisation ou l'emplacement, les avancées en intelligence artificielle et en apprentissage machine font peser de nouvelles exigences sur le matériel informatique lui-même, en particulier la mémoire, pour qu'il devienne possible d'en faire plus localement.

L'omniprésence de l'IA favorise des technologies mémoire éprouvées

De nombreuses mémoires différentes sont évaluées et utilisées dans les appareils en périphérie chargés d'exécuter des opérations d'intelligence artificielle et d'apprentissage machine. Cela tient à la diversité des applications d'IA en périphérie.

Ces dernières années, il a beaucoup été question de mémoires émergentes, telles que la ReRAM (ou RAM résistive) ou la MRAM (RAM magnéto-résistive) pour les appareils IoT, qui ont entraîné une foule de nouvelles exigences dans ce domaine. Il est toutefois de plus en plus clair que les mémoires persistantes existantes ont un rôle tout aussi important à jouer pour que des appareils d'IA puissent être utilisés en périphérie.

L'attrait de la MRAM pour l'IA en périphérie réside dans sa consommation électrique. En effet, elle fonctionne à des tensions inférieures dans les applications qui n'exigent pas une grande précision, mais dans lesquelles l'endurance de la mémoire et le rendement énergétique sont cruciaux. La non-volatilité de la MRAM lui permet également d'emmagasiner les données sans aucune énergie, ce qui en fait une bonne candidate pour remplacer à la fois la SRAM et la mémoire flash intégrée et servir donc de mémoire unifiée. L'attrait présenté par la ReRAM pour l'IA en périphérie tient à sa capacité à simuler la façon dont le cerveau humain apprend et traite l'information au niveau des neurones et des synapses. Les modules ReRAM sont nettement plus compacts et économes en énergie que la DRAM et la HBM utilisées dans les centres de données pour les opérations d'IA et d'apprentissage machine.

Mais même si la MRAM et la ReRAM possèdent des caractéristiques qui permettent de les utiliser dans un grand nombre d'applications d'IA en périphérie, l'omniprésence croissante de l'intelligence artificielle signifie peut-être que des technologies mémoire dûment éprouvées finiront par s'imposer à mesure que les opérations d'inférence les plus élémentaires deviendront plus complexes. Les mémoires DRAM (LPDDR) basse consommation seront alors le choix le plus logique. Même des modèles plus anciens comme les modules LPDDR3 peuvent accepter le traitement d'images vidéo des capteurs 4K, Full-HD ou 3D en temps réel dans des applications telles que la reconnaissance de visages pour les caméras de sécurité, le contrôle par gestes sur les bornes publiques ou encore le traitement en langage naturel. De même, les mémoires flash NOR continueront d'être choisies pour certains cas d'utilisation de l'IA en périphérie en raison de leur fiabilité et de leur longévité dans les environnements exigeants, à la fois pour des tâches de traitement et pour le stockage des données.

Le stockage de données d'IA en périphérie peut également tirer parti du stockage flash universel (UFS), notamment des cartes amovibles, grâce à l'extrême fiabilité de sa spécification, à sa consommation énergétique satisfaisante et à sa stabilité. Une carte UFS permet également à l'hôte d'envoyer des commandes en continu, même quand celui-ci transfère des données pour le traitement de commandes précédentes. Une application d'IA en périphérie peut ainsi effectuer simultanément des opérations d'E/S avec d'autres applications sans baisse de performances.

Dans l'ensemble, les mémoires bon marché peuvent répondre aux besoins de l'IA en périphérie dans de nombreuses situations. Après tout, les mémoires des superordinateurs d'hier se retrouvent aujourd'hui dans les smartphones, qui sont eux-mêmes une espèce d'appareil en périphérie. Les anciens modèles d'IA qui nécessitaient du matériel haut de gamme peuvent désormais être gérés avec des mémoires plus ordinaires dans des appareils IoT grâce à la miniaturisation, tandis que les fabricants de semi-conducteurs continuent de faire baisser les coûts du matériel.

Même si certaines opérations d'intelligence artificielle et d'apprentissage machine auront toujours besoin d'une informatique centralisée hautes performances, les tâches d'inférence et de calcul effectuées en périphérie, de même que le type d'appareil, détermineront les mémoires les mieux adaptées, sachant que les caractéristiques thermiques et les contraintes énergétiques seront des critères importants. En définitive, un nombre limité de mémoires suffira à prendre en charge l'intelligence artificielle en périphérie, qu'il s'agisse de modèles émergents ou de technologies classiques.



ArrowPerks-Loyalty-Program-Signup-banner-FR


Actualité

Sorry, your filter selection returned no results.

Nous avons mis à jour notre politique de confidentialité. Prenez un moment pour lire les changements. En cliquant sur "J'accepte", vous acceptez la clause de confidentialité d'Arrow Electronics ainsi que les conditions d'utilisation.

Notre site Internet place des cookies sur votre appareil pour améliorer votre expérience et pour améliorer notre site. Pour en savoir plus sur les cookies que nous utilisons et la façon de les désactiver, cliquez ici. Des cookies et des technologies de suivi peuvent être utilisés à des fins de marketing. En cliquant sur « Accepter », vous consentez au placement de cookies sur votre appareil et à notre utilisation de technologies de suivi. Cliquez sur « En savoir plus » pour de plus amples informations et instructions sur la façon de désactiver les cookies et les technologies de suivi. Même si l'acceptation des cookies et technologies de suivi est volontaire, leur désactivation peut entraîner un mauvais fonctionnement du site Internet et certaines publicités peuvent être moins pertinentes pour vous. Nous respectons votre confidentialité. Lisez notre politique de confidentialité ici.