Futur des ordinateurs monocarte et de l'intelligence artificielle

Les ordinateurs monocarte ont considérablement évolué au cours des deux dernières décennies. Ce qui était auparavant de simples processeurs 8 bits dotés d'une RAM limitée a été transformé en machines de traitement de données quadricœurs pouvant être aussi petites qu'un paquet de chewing gum. Maintenant que l'informatique en périphérie devient de plus en plus répandue, comment les ordinateurs monocarte peuvent-ils en bénéficier ? Dans cet article, nous verrons pourquoi l'IA est chassée des centres de données et comment les ordinateurs monocarte deviennent compatibles avec l'intelligence artificielle.

Avantages et inconvénients de l'intelligence artificielle

L'utilisation de l'intelligence artificielle dans les produits est en augmentation constante en raison des nombreux avantages qu'elle apporte. Cette solution moderne permet de créer des produits personnalisables pour les clients et d'améliorer ces produits.

Par exemple, la plate-forme largement utilisée Google Assistant peut apprendre et personnaliser ses réponses, qui peuvent ensuite être développées pour les personnaliser à destination d'un groupe particuliers d'individus. Cela contribue à améliorer l'expérience de tous les clients.

Intégrer l'intelligence artificielle dans un produit peut être assez difficile. La méthode la plus courante de mise en œuvre de l'intelligence artificielle est basée sur le cloud. Cette approche est difficile car le principal algorithme des systèmes d'intelligence artificielle basés sur le cloud s'exécute dans un centre de données. Les périphériques des clients peuvent envoyer des informations à un centre de données et en recevoir de celui-ci, mais cet échange de données pose de nombreux problèmes compliquant l'intégration du système.

Les problèmes de confidentialité constituent dorénavant une préoccupation sensible et primordiale pour l'intelligence artificielle. Des informations sensibles envoyées vers un lieu inconnu peuvent éventuellement être accessibles à des personnes non autorisées. Prenons par exemple les produits grand public Alexa d'Amazon. Alexa dispose de fonctionnalités d'intelligence artificielle permettant aux utilisateurs de poser des questions et d'obtenir des réponses. Si on y réfléchit bien, Alexa est comparable à un téléphone, en ce sens que les questions de l'utilisateur sont envoyées à un centre de données pour traitement par intelligence artificielle au lieu d'effectuer ce traitement localement sur le périphérique. Le problème de confidentialité provient de la crainte qu'Alexa puisse enregistrer des conversations et les stocker à l'insu du client ou sans son consentement, les rendant ainsi accessibles à un large groupe d'employés Amazon ayant accès aux données ou aux systèmes d'intelligence artificielle.

La latence est l'autre préoccupation. Les produits qui utilisent un centre de données distant doivent envoyer les données, attendre leur traitement, puis obtenir le résultat. Comme aucune connexion Internet n'est instantanée, il y aura un petit délai, et cette latence peut varier en fonction du trafic. En outre, la latence du système augmente avec le nombre d'utilisateurs d'Internet. Cela peut potentiellement compromettre la réactivité de certains produits.

Un autre problème associé à la latence est l'accès Internet lui-même. Un périphérique fonctionnant en permanence qui s'appuie sur un centre de données distant a besoin d'une connexion Internet continue. Il n'est pas rare que les fournisseurs de sites Web et les serveurs DNS aient des problèmes qui peuvent rendre les sites Web inaccessibles. Dans ce cas, tout produit dépendant d'un centre de données ne sera pas totalement fiable. Les lieux disposant de connexions de données peu fiables ou limitées ne conviendront pas aux appareils dépendant d'Internet.

Passage à l'informatique en périphérie

L'informatique en périphérie est un concept qui prend le meilleur des deux mondes. Cette solution peut atténuer les problèmes de confidentialité, réduire la dépendance à l’accès à Internet et fournir des algorithmes d’intelligence artificielle intégrés qui ne reposent pas sur un centre de données. En termes simples, l'informatique en périphérie traite les données localement en périphérie du réseau, la périphérie étant ici considérée comme le périphérique final sans aucun périphérique Internet en dessous. Cette approche résout de nombreux problèmes et préoccupations que rencontrent généralement les systèmes d'intelligence artificielle basés sur le cloud.

L'informatique en périphérie déplace l'exécution de l'intelligence artificielle d'un centre de données vers un périphérique. Bien que l’apprentissage automatique ne soit pas souvent exécuté localement (tâche complexe et coûteuse), les réseaux neuronaux générés par le processus d’apprentissage automatique peuvent être exécutés localement. Les tâches nécessitant uniquement l'utilisation de réseaux neuronaux incluent l'écriture manuscrite, la reconnaissance des gestes et la reconnaissance des objets.

L’informatique en périphérie doit également résoudre le problème de la latence. Les réseaux neuronaux de l'intelligence artificielle sont traités dès que les données deviennent disponibles, et cela peut considérablement réduire le temps d'exécution. Au lieu d'attendre que le périphérique établisse une connexion Internet, envoie les données, attende que le centre de données les traite, puis renvoie le résultat au périphérique, l'informatique en périphérie exécute l'intégralité de ce processus localement, réduisant ainsi le besoin de connexion Internet et, par conséquent, la latence. L'utilisation de l'informatique en périphérie permet également de conserver des informations potentiellement privées au niveau local sur le périphérique, puisqu'un centre de données n'est pas utilisé pour traiter les informations, stockant souvent des données pour apprentissage ultérieur.

Cependant, bien que l’informatique en périphérie semble idéale, elle présente toutefois un inconvénient majeur : les réseaux neuronaux d’intelligence artificielle peuvent s'avérer incroyablement complexes et difficiles à exploiter ! Bien que des microcontrôleurs comme Arduino peuvent exécuter des réseaux neuronaux, leur vitesse d'exécution de réseaux pratiques peut être incroyablement lente — à tel point que l'utilisation d'un système d'intelligence artificielle basé sur le cloud peut sembler presque instantané en comparaison.

Heureusement pour les concepteurs, plusieurs fabricant de matériel électronique de pointe ont commencé à produire des co-processeurs d'intelligence artificielle conçus pour exécuter efficacement les algorithmes de réseaux neuronaux et d'intelligence artificielle. Comme ce sont des coprocesseurs, le processeur principal est ainsi libéré pour exécuter d'autres tâches.

Ainsi, en ce qui concerne les ordinateurs monocarte, quelles sont les options disponibles pour l'informatique en périphérie ?

Solution 1: gamme Google Coral

La gamme de produits Google Coral est idéale pour l'informatique en périphérie grâce à l'inclusion du coprocesseur TensorFlow. Ce coprocesseur est spécialement conçu pour les applications mobiles et embarquées. Il permet l'exécution d'algorithmes d'intelligence artificielle TensorFlow Lite. TensorFlow Lite est une version réduite de TensorFlow qui fournit un compromis plus qu'acceptable pour l'exécution d'intelligence artificielle sur de petits appareils.

Dev Board est un ordinateur monocarte Arm A-53 quatre cœurs qui inclut le coprocesseur TensorFlow, ainsi qu'un processeur graphique GC7000 Lite intégré, 1 GO de RAM LPDDR4, 8 Go de mémoire Flash eMMC, et une SoC Wi-Fi pour la connectivité Internet. Avec des sorties HDMI, des entrées USB et GPIO, la carte constitue une excellente solution d'informatique en périphérie dans des environnements d'intelligence artificielle, notamment pour la reconnaissance d'objets et la reconnaissance de la parole, surtout dans les lieux où l'accès Internet est limité.

Dans certaines situations, le changement du matériel fondamental est impossible. Dans ces situations, il est plus simple d'ajouter un coprocesseur en tant que module complémentaire ; c'est là que l'accélérateur USB intervient. L'accélérateur USB Coral est un appareil USB asservi qui fournit à n'importe quel ordinateur connecté un coprocesseur TensorFlowsans devoir avoir recours à une nouvelle conception de carte de circuit imprimé. Ces deux produits Coral favorisent l'évolutivité, car le processeur Dev Board peut être retiré de la carte mère et inséré dans un produit finalisé, tandis que l'accélérateur USB comporte des trous de montage et présente un encombrement incroyablement réduit (65 × 30 mm).

Solution 2 : Nvidia Jetson Nano

Les scénarios d'intelligence artificielle qui nécessitent l'exécution en parallèle de plusieurs réseaux neuronaux tout en maintenant une faible consommation d'énergie utiliseront avantageusement le composant Nvidia Jetson Nano. Cet ordinateur monocarte peut exécuter simultanément plusieurs réseaux neuronaux pour des applications telles que la détection d'objets et le traitement vocal tout en ne consommant que 5 W.

Cet ordinateur monocarte basé sur Arm A57 inclut 4 Go de RAM LPDDR4, un stockage sur carte microSD, un codage vidéo 4K, un décodage vidéo 4K à 60 ips, plusieurs ports USB 3.0, GPIO, et d'autres ports périphériques. Le cœur IA de Nvidia Jetson Nano peut exécuter 472 GFLOPS, alors que les produits Jetson sont proposés en tant que kit et module de développeur (les kits de développeur sont utilisés pour les étapes de développement, tandis que les modules sont destinés à des applications d'utilisation finale dans les produits).

La dimension réduite du kit de développement (100 × 80 × 29 mm) le rend idéal pour les emplacements à faible profil, alors que la faible consommation d'énergie de Nvidia Jetson Nano en fait la solution idéale pour les emplacements distants nécessitant des capacités IA mais n'ayant pas accès à Internet et à une source d'alimentation.

Solution 3 : Intel Compute Stick

Intel Compute Stick est sans doute l'un des ordinateurs monocarte les plus petits disponibles aujourd'hui. Son principal avantage ? Il peut transformer n'importe quel écran HDMI en un ordinateur.

Physiquement, Intel Compute Stick ne dépasse pas la taille d'un paquet de chewing-gums (longueur inférieure à 4,5 pouces), mais cela ne l'empêche pas d'inclure un processeur Intel Atom ou Intel Core M, jusqu'à 4 Go de RAM et 64 Go de stockage.

Malgré sa taille, Intel Compute Stick intègre également plusieurs formes de connectivité, notamment Wi-Fi, Bluetooth et trois ports USB. Bien que Intel Compute Stick n'inclut pas de coprocesseur IA, son cœur puissant en fait un candidat de choix pour l'informatique en périphérie, ce qui peut potentiellement permettre l'exécution de tâches IA sur n'importe quel écran HDMI. Intel Compute Stick est donc idéal pour les terminaux interactifs et les dispositifs domotiques devant être montés dans des emplacements réduits.

Solution 4 : Raspberry Pi 4

Le dernier ordinateur Raspberry Pi, Raspberry Pi 4, est un candidat potentiel pour les applications d'informatique en périphérie pour plusieurs raisons. D'abord, le cœur du Raspberry Pi 4 est basé sur un processeur A72 ARMv8-A à quatre cœurs, cadencé à 1,5 GHzce qui est beaucoup plus rapide que ses prédécesseurs. Deuxièmement, le Raspberry Pi 4 inclut 4 Go de RAM, et sa grande connectivité incluant Wi-Fi, Bluetooth et GPIO lui permet d'interagir avec une large variété de matériel. Broadcom Video Core VI permet à Pi de contrôler plusieurs écrans en 4K, et sa taille relativement petite (88 × 58 mm) permet son montage dans des emplacements confinés.

Si toutes ces caractéristiques font du Raspberry Pi 4 un candidat potentiel pour l’informatique en périphérie, il n’inclut pas de co-processeur IA, de sorte que tous les algorithmes AI doivent s’exécuter sur le CPU. Raspberry Pi 4 peut être associé à l'accélérateur USB Coral pour fournir au Raspberry Pi 4 un coprocesseur TensorFlow. Le résultat de cette combinaison peut produire une plate-forme très puissante pour la création d'applications IA avec double écran, port de caméra pour la reconnaissance d'objets et GPIO pour l'interface matérielle.

Voir les produits connexes

RASPBERRYPI4 4GB | 4 Model B

Raspberry Pi Foundation Cartes et kits de développement de systèmes intégrés Afficher

Perspectives

Bien que certains ordinateurs monocarte n'incluent pas de coprocesseur IA, l'intégration d'un coprocesseur de ce type (spécialement dans les systèmes embarqués) dans votre conception peut offrir d'importants avantages. Même ceux qui n'incluent pas de coprocesseur IA peuvent toujours s'appuyer sur un processeur externe tel que l'accélérateur USB Coral. Dans les deux cas, l'intelligence artificielle dans les dispositifs embarqués deviendra courante au cours de la prochaine décennie et c'est pourquoi même les plus simples dispositifs intégreront un niveau minimal d'intelligence.


ArrowPerks-Loyalty-Program-Signup-banner-FR


Actualité

Sorry, your filter selection returned no results.

Nous avons mis à jour notre politique de confidentialité. Prenez un moment pour lire les changements. En cliquant sur "J'accepte", vous acceptez la clause de confidentialité d'Arrow Electronics ainsi que les conditions d'utilisation.

Notre site Internet place des cookies sur votre appareil pour améliorer votre expérience et pour améliorer notre site. Pour en savoir plus sur les cookies que nous utilisons et la façon de les désactiver, cliquez ici. Des cookies et des technologies de suivi peuvent être utilisés à des fins de marketing. En cliquant sur « Accepter », vous consentez au placement de cookies sur votre appareil et à notre utilisation de technologies de suivi. Cliquez sur « En savoir plus » pour de plus amples informations et instructions sur la façon de désactiver les cookies et les technologies de suivi. Même si l'acceptation des cookies et technologies de suivi est volontaire, leur désactivation peut entraîner un mauvais fonctionnement du site Internet et certaines publicités peuvent être moins pertinentes pour vous. Nous respectons votre confidentialité. Lisez notre politique de confidentialité ici.