エッジでのコンピューティングがますます増加しており、デバイス レベルでローカルに実行されるより高度な人工知能と機械学習をサポートするためのオンボード メモリ、ストレージ、および処理機能に対する需要が高まっています。
エッジでのコンピューティングがますます増加しており、デバイス レベルでローカルに実行されるより高度な人工知能と機械学習をサポートするためのオンボード メモリ、ストレージ、および処理機能に対する需要が高まっています。
初期のエッジAIの使用例には、セキュリティやアクセスを目的とした感知や検出などの単純なタスクが含まれていましたが、モノのインターネット デバイスはより多くの推論をローカルで実行しており、AI/MLの重い処理を実行する中央クラウドに送り返すためのデータを収集するだけではありません。代わりに、これらのデバイスは、他のデバイスと共有および再配布できるローカルMLを実行します。
より複雑な AI とMLには、より多くのコンピューティング能力が必要であり、これにはメモリ パフォーマンスとデータ ストレージ機能の向上が含まれます。
エッジデバイスはより複雑な決定を下す
最近まで、エッジAIの多くは、建物内に不法侵入者がいる、生産ラインの機械が過熱して故障しそうなど、何かがおかしいことをセンサーが検知するというものでした。これらのシステムは、何かが間違っていることを理解し、誰かに何かをするように警告できるほど賢かった。
今日のエッジAIは、ハードウェアによってIoTデバイスがより多くのことができるようになるにつれて、はるかにインテリジェントになっています。 これにより、エッジで何ができるかという期待が高まり、ハードウェアに対する需要が高まります。プロセッサ、メモリ、ストレージ メディアの進歩により、エッジAIは、中央のクラウドにデータを送受信する必要がなくなり、より複雑な推論/MLタスクを実行できるようになりました。
ストレージ用のフラッシュ テクノロジーを含む、新興および既存のメモリの進化以外にも、エッジでのAI/MLタスクを可能にするテクノロジーの進歩がいくつかあります。高度に並列化されたGPUは、エッジに展開できる汎用的な機械学習を可能にするニューラル ネットワークの実行に適応しており、センサー、カメラ、さらにはデータ収集用のロボットを含むIoTデバイスの急増により、幅広いビジネス目標をサポートするAI/ML機能の新たな機会が絶えず生まれています。全体的に、ニューラル ネットワークとそれをサポートするAIインフラストラクチャは成熟しており、デバイス間のローカル通信とクラウドへの通信をサポートする遅延を排除する 5G接続 もその1つです。
今日のエッジ コンピューティング デバイスの高可用性とオフライン機能および分散化により、データの処理やAI/ML操作の実行に常時インターネット アクセスする必要がなくなりました。エッジAIアプリケーションは、データをローカルで分析し、テキスト、音声、ビデオなどのさまざまな入力を処理して独立して推論できるため、より強力になり、リアルタイムの洞察を提供できるようになりました。彼らは特定の質問に答える訓練を受けているだけでなく、特定の種類の質問であれば新しい質問にも答えることができます。これにより、中央クラウドとの通信の必要性が軽減されるだけでなく、エッジ デバイスのグループがローカルML操作を実行し、その教訓を共有してより広範囲に配布することも可能になります。さらに、エッジでモデルをトレーニングすればするほど、AIモデルの精度が高まります。
エッジでのAIの成熟により、幅広い業界でより複雑なアプリケーションが可能になります。製造環境における予知保全は産業用IoTの初期の応用であり、ローカルAI/ML機能のおかげでさらに堅牢になっています。これは、センサーが問題をさらに早期に検出し、摩耗だけでなく構成ミスや誤用による障害もより正確に予測できるためです。
施設へのアクセスと管理は、セキュリティ目的だけでなく、AIを通じてより適切に制御できます。スマート ビルディングでは、建物内の人数に応じて温度や照明を調整できるほか、HVACシステムのリモート管理も可能になります。AIのその他のエネルギー用途には、気象パターン、インフラストラクチャとグリッドの健全性、履歴データに基づいて、エッジ モデルを使用して発電、配電、管理をより効率的にすることが含まれます。
より高度なエッジAI機能の恩恵を受ける他の分野としては、医療、小売、農業などがあります。しかし、ユースケースや場所に関係なく、より高度なAI/MLはコンピューティング ハードウェア自体、特にメモリに負荷をかけているため、より多くの処理をローカルで実行できるようになります。
AIの普及は実績のあるメモリ技術を有利にする
AI/ML操作を実行するエッジ デバイスでは、さまざまなメモリが検討され、使用されています。これは、エッジAIアプリケーションの多様性を反映しています。
近年、IoTエッジ デバイス向けの抵抗性RAM (ReRAM) や磁気抵抗RAM (MRAM) などの新しいメモリについて多くの議論が行われており、メモリに対するさまざまな新しい要件が生じていますが、エッジでのAIデバイスを実現するには、永続的なレガシー メモリも同様に重要な役割を果たすことがますます明らかになっています。
エッジAI向けMRAMの魅力は、その消費電力にあります。高精度は必要ないが、メモリの耐久性とエネルギー効率が重要なアプリケーションでは、より低い電圧で動作するからです。MRAMの不揮発性は、電力なしでデータを保存できることも意味し、SRAMと組み込みフラッシュの同時代替として適しており、統合メモリとして機能します。エッジAIにおけるReRAMの魅力は、人間の脳がニューロンとシナプスのレベルで情報を学習し処理する方法を模倣する可能性にあります。ReRAMデバイスは、データ センターでAI/ML操作に使用されているDRAMやHBMよりも大幅に小型で、エネルギー効率に優れています。
しかし、MRAMとReRAMは多くのAIエッジ アプリケーションに適した特性を備えているものの、AIの普及が進むにつれて、基本的な推論操作でさえ複雑になり、低電力DRAM (LPDDR) メモリが最も理にかなっているため、実績のあるメモリ テクノロジが勝利する可能性があります。LPDDR3などの古いバージョンでも、4K、フルHD、または3Dセンサー ビデオ画像処理をリアルタイムでサポートし、セキュリティ カメラの顔認識や公共キオスクのジェスチャー制御などのAIアプリケーションをサポートし、自然言語処理も実行できます。同様に、NORフラッシュは、処理タスクとデータ ストレージの両方において、過酷な環境で動作しながら信頼性と長寿命を実現できるため、一部のエッジAIユース ケースでは引き続き選択されるでしょう。
エッジAIデータ ストレージのその他のオプションには、仕様の高い信頼性と好ましい電力消費および安定性の特性により、リムーバブル カードを含むユニバーサル フラッシュ ストレージ (UFS) があります。UFSカードを使用すると、ホストは以前のコマンドを処理するためにデータを転送している間でもコマンドを継続的に送信できるため、AIエッジ アプリケーションはパフォーマンスに影響を与えることなく、他のアプリケーションと同時にI/O操作を実行できます。
全体として、コモディティメモリがエッジAIのニーズを満たす機会は数多くあります。結局のところ、昨日のスーパーコンピュータの記憶は現在、エッジデバイスの一種であるスマートフォンの中にあります。以前は高性能のハードウェアを必要としていたAIモデルも、小型化と半導体企業によるハードウェアのコスト削減の継続により、IoTデバイスではより一般的なメモリを使用して処理できるようになりました。
一部のAI/ML操作では常に集中型の高性能コンピューティングが必要になりますが、エッジで実行される推論および計算タスクとデバイスの種類によって、どのメモリが最も適しているかが決まり、熱特性と電力制約が大きな影響を与えます。結局のところ、新興のAIであれ、既存のAIであれ、エッジでAIをサポートするために必要なメモリの数は限られています。