シングルボードコンピュータ(SBC) は、過去20年間で大きく変化しました。かつてはRAMが限られた単純な8ビットCPUだったものが、今ではガム1箱ほどの大きさのクアッドコア データ処理マシンに変わりました。エッジ コンピューティングが普及しつつある現在、SBCにはどのようなメリットがあるのでしょうか?この記事では、AIがデータ センターから排除されている理由と、SBCが人工知能 (AI) 対応になる方法について説明します。
AIの長所と短所
AIがもたらす多くの利点により、製品におけるAIの使用は増加し続けています。この最新のソリューションは、顧客向けにカスタマイズ可能な製品を作成するのに役立ち、同時にすべての顧客向けの製品を改善することができます。
たとえば、人気のプラットフォームであるGoogleアシスタントは、個々のユーザーに対する応答を 学習してカスタマイズ することができ、その後、複数のユーザーグループ全体に対する応答をカスタマイズするように開発することができます。これにより、すべての顧客のエクスペリエンスが向上します。
AIを製品に組み込むのは非常に難しい場合があります。AIの実装方法として最も一般的なのは クラウドベースのAIです。クラウドベースのAIシステムでは主要なAIアルゴリズムがデータセンターで実行されるため、このアプローチは困難です。顧客のデバイスがデータセンターから情報を送受信する必要があることは理解できますが、堅牢なAIシステム統合には本質的にいくつかの問題があります。
プライバシーに関する懸念は、AIにおけるデリケートかつ主要な問題となっています。機密情報は、権限のない個人がアクセスできる可能性のある未知の場所に送信されています。消費者に人気のあるAmazonのAlexaベースの製品について考えてみましょう。AmazonのAlexaには、ユーザーが質問して応答を得ることができるAI機能があります。よく考えてみると、Alexaは、ユーザーの質問がデバイス上でローカルに処理されるのではなく、データ センターに送信されてAI処理されるという意味で電話に似ています。プライバシーに関する懸念は、Alexaが顧客の知らないうちに、または顧客の同意なしに会話を録音して保存し、AIデータやシステムにアクセスできるAmazonの幅広い従業員がそれらにアクセスできるようになる可能性があるという懸念から生じています。
次の問題はレイテンシーです。リモート データ センターを使用する製品では、データを送信し、処理されるのを待ってから結果を取得する必要があります。インターネット接続は瞬時に行われるわけではないため、多少の遅延が生じます。この遅延はトラフィックに応じて変化する可能性があります。さらに、インターネットユーザーの数が増えると、システムの遅延も増加します。これにより、製品が応答しなくなる可能性があります。
遅延に関連するもう1つの問題は、インターネット アクセス自体です。リモート データ センターに依存する常時稼働デバイスには、継続的なインターネット接続が必要です。ウェブサイトプロバイダーやDNSサーバーに障害が発生し、ウェブサイトにアクセスできなくなることは珍しくありません。実際にこのような事態が発生すると、データセンターに依存する製品は完全に信頼できるものではなくなります。データ接続が不安定または制限されている場所は、インターネットに依存するデバイスには適していません。
エッジコンピューティングデバイスを使用したソリューション
エッジ コンピューティングは、両方の長所を取り入れたコンセプトです。これは、プライバシーの懸念を軽減し、インターネット アクセスへの依存を減らし、データ センターに依存しないデバイス上のAIアルゴリズムを提供できるソリューションです。簡単に言えば、エッジ コンピューティングは、ネットワークのエッジでローカルにデータを処理することによって機能します。エッジとは、その下にインターネット デバイスがないエンド デバイスと見なされます。このアプローチは、クラウドベースのAIシステムに通常存在する多くの問題と懸念を解決します。
エッジコンピューティングソリューション AIの実行をデータセンターからデバイスに移行します。機械学習は複雑でコストのかかるタスクであるため、ローカルで実行されることはあまりありませんが、機械学習プロセスの結果として生成される ニューラル ネットワーク はローカルで実行できます。ニューラル ネットのみを使用するタスクには、手書き、ジェスチャ認識、オブジェクト認識などがあります。
エッジ コンピューティングが解決するもう1つの問題は、レイテンシです。AIニューラル ネットワークはデータが利用可能になるとすぐに処理されるため、実行時間を大幅に短縮できます。エッジ コンピューティングでは、デバイスがインターネット接続を確立し、データを送信し、データ センターがデータを処理するのを待ってから、結果をデバイスに送り返して出力するまで待つ必要がなく、このプロセス全体をローカルで実行することで、インターネット接続の必要性が減り、結果として待ち時間も短縮されます。エッジ コンピューティングを使用すると、データ センターは情報の処理に使用されず、後の学習用にデータが保存されることが多いため、潜在的なプライベート情報はデバイス内にローカルに保持されます。
しかし、エッジ コンピューティングは素晴らしいように聞こえますが、大きな欠点が1つあります。AIニューラル ネットは、非常に複雑で実行が難しい場合があるのです。 マイクロ コントローラー 、たとえば Arduino を使用してニューラル ネットを実行することはできますが、実際のネットを実行する速度は非常に遅くなります。実際、クラウド ベースのAIシステムを使用すると、ほぼ瞬時に実行できるように思えます。
設計者にとって幸運なことに、いくつかのシリコンベースの企業が、ニューラル ネットとAIアルゴリズムを効率的に実行するように設計されたAIコプロセッサの製造を開始しています。これらはコプロセッサであるため、メインプロセッサは他のタスクを実行するために解放されます。
では、シングルボードコンピュータの場合、エッジコンピューティングにはどのような選択肢があるのでしょうか?
解決策1: Google Coralシリーズ
Google Coral製品シリーズ は、TensorFlowコプロセッサを搭載しているため、エッジ コンピューティングに最適です。このコプロセッサは、モバイルおよび組み込みアプリケーション向けに特別に設計されています。TensorFlow Lite AIアルゴリズムの実行が可能になります。TensorFlow LiteはTensorFlowの「縮小版」であり、小型デバイスでのAI実行に十分な妥協点を提供します。
開発ボードは、TensorFlowコプロセッサ、統合型GC7000 LiteグラフィックスGPU、1 GBのLPDDR4 RAM、8 GBのeMMCフラッシュ メモリ、インターネット接続用のWi-Fi SoCを搭載したArm A-53クアッドコアSBCです。このボードは、HDMI出力、USB入力、GPIOを備えており、特にインターネット アクセスが制限されている場所でのオブジェクト認識や音声認識などのAI環境でのエッジ コンピューティングに最適なソリューションです。
状況によっては、基本的なハードウェアを変更することができない場合があります。このような状況では、コプロセッサをアドオンとして追加する方が簡単です。ここでUSBアクセラレータが役立ちます。Coral USBアクセラレータは、PCBの再設計を必要とせずに、接続されたコンピューターにTensorFlowコプロセッサを提供するUSBスレーブ デバイスです。これら2つのCoral製品の利点は、Dev Boardプロセッサ ユニットをマザーボードから取り外して完成品に挿入できるためスケーリングが容易なこと、USBアクセラレータには取り付け穴がありフットプリントが非常に小さい (65 × 30 mm) ことです。
解決策2: Nvidia Jetson Nano
エネルギー消費を抑えながら複数のニューラル ネットワークを並行して実行する必要があるAIシナリオでは、 Nvidia Jetson Nano が大きなメリットをもたらします。このシングルボード コンピューターは、わずか5 Wの消費電力で、物体検出や音声処理などのアプリケーション用のニューラル ネットワークを同時に実行できます。
このArm A57ベースのSBCには、4 GBのLPDDR4 RAM、microSDカード ストレージ、4Kビデオ エンコード、60 fpsでの4Kビデオ デコード、複数のUSB 3.0ポート、GPIO、およびその他の周辺ポートが含まれています。Nvidia Jetson NanoのAIコアは472 GFLOPSを実行できますが、Jetson製品は開発キットとモジュールの両方で利用できます (開発キットは開発段階で使用され、モジュールは製品の最終用途アプリケーションに使用されます)。
開発キットの寸法が小さい (100 × 80 × 29 mm) ため、目立たない場所に最適です。また、Nvidia Jetson Nanoの低消費電力は、AI機能が必要でありながらインターネットや電源がない遠隔地にも最適です。
関連商品を見る
ソリューション3: Intel Compute Stick
Intel Compute Stick は、おそらく現在入手可能な最も小型のSBCの1つです。その主な利点は何ですか?あらゆるHDMIディスプレイをコンピューターに変えることができます。
物理的に言えば、Intel Compute Stickは通常のガムのパックほどの大きさ (長さ4.5インチ以下) ですが、内部にはIntel AtomまたはIntel Core Mプロセッサ、最大4 GBのRAM、および64 GBのストレージが搭載されています。
Intel Compute Stickは、そのサイズにもかかわらず、Wi-Fi、Bluetooth、3つのUSBポートなど、複数の接続形式も統合しています。Intel Compute StickにはAIコプロセッサは搭載されていませんが、その強力なコアによりエッジ コンピューティングの候補となり、AIタスクをあらゆるHDMIディスプレイに導入できる可能性があります。このため、Intel Compute Stickは、狭い場所に設置する必要があるインタラクティブ端末や家庭用デバイスに最適です。
ソリューション4: Raspberry Pi 4
最新の ラズベリーパイ Raspberry Pi 4というコンピューターは、いくつかの理由からエッジ コンピューティング アプリケーションの候補として考えられます。まず、Raspberry Pi 4のコアはクアッドコアA72 ARMv8-Aをベースにしており、クロック速度は1.5 GHzで、これまでのどのモデルよりも大幅に高速です。次に、Raspberry Pi 4には4 GBのRAMが搭載されており、Wi-Fi、Bluetooth、GPIOなどの幅広い接続性により、さまざまなハードウェアと対話できます。Broadcom Video Core VIにより、Piは最大4Kの複数の画面を制御でき、比較的小型(88) × 58mmの薄型設計により、狭い場所にも設置可能です。
これらすべての機能により、Raspberry Pi 4はエッジ コンピューティングの候補となる可能性がありますが、AIコプロセッサが搭載されていないため、すべてのAIアルゴリズムはCPU上で実行する必要があります。Raspberry Pi 4をCoral USB Acceleratorと組み合わせると、Raspberry Pi 4にTensorFlowコプロセッサが提供されます。この組み合わせの結果、デュアルスクリーン機能、オブジェクト認識用のカメラポート、ハードウェアインターフェイス用のGPIOを備えたAIアプリケーションを作成するための非常に強力なプラットフォームが実現します。
関連商品を見る
見通し
すべてのSBCにAIコプロセッサが搭載されているわけではないが、AIコプロセッサを組み込むことで(特に 組み込みシステム) をデザインに取り入れることは、非常に有益です。AIコプロセッサが搭載されていないデバイスでも、Coral USB Acceleratorなどの外部プロセッサを利用できます。いずれにせよ、組み込みデバイスにおけるAIは今後10年間で一般的なものとなり、その時点では最も単純なデバイスでも最低限のインテリジェンスが備わっていることになります。