数年前にテンソル プロセッサが導入されて以来、ハイブリッドCPUを含むシリコン固有のアーキテクチャの新しい波が開発されてきました。ARM と Intel は現在、機械学習やその他の人工知能向けに特別に設計された新製品を導入しています。
2000年代半ば、論理学者ジョージ・ブールの玄孫にあたるイギリス系カナダ人の研究者ジェフリー・ヒントンが、コンピュータサイエンスにおける最も重要な発見の1つである、ニューラルネットワークの新しい層を効率的にトレーニングする方法を編み出しました。[1] ヒントンの理論は、現在使用されているほとんどの人工知能アプリケーションの基盤となっている機械学習(ML)への道を開きました。
ニューラル ネットワークには、計算能力とデータという2つの重要なコンポーネントが大量に必要です。
AIにおけるニューラル ネットワークの使用に関する理論と実験は1950年代から存在していましたが、実際のアプリケーションに必要な処理能力と膨大な量のデータは、今世紀まで実現しませんでした。
今日、私たちのスマートフォンは、NASAが人類を初めて月に送ったときに使用したコンピューターよりも何百万倍もの処理能力を持っています。さらに、インターネットは、画像、テキスト、ビデオ、クリック、ツイートなど、あらゆる場所から、1日中毎秒、あらゆる種類の何十億ものデータ ユニットを収集しています。
TensorプロセッサはMLとAIに新たな機能を提供する
従来のソフトウェアが新しいAIアルゴリズムに取って代わられるにつれて、コンピューター処理のテクノロジーに対する要件は変化しています。機械学習では、複雑な数学モデルをオンザフライで処理する必要がありますが、IntelやARMなどの企業の通常の処理コアは、そのために明示的に設計されていません。
MLの成功とさまざまな分野でのAIの需要により、次世代AIチップの構築に向けた競争が始まりました。
当初、この空白を埋めたのは NVIDIAでした。同社はビデオゲーム向けハードウェアの専門知識を活用し、AIの新しい要件に合わせてグラフィック処理の背後にあるアルゴリズムを活用しました。2016年から2018年にかけて、NVIDIAは機械学習から暗号通貨マイニングまであらゆる分野のチップ市場で頼りになる存在となり、株価は10倍に上昇した。
長い間独自のチップの製造を避けてきた マイクロソフトなどの企業も、現在ではこれに多額の投資を行っている。インテルもこの競争に加わり、フェイスブックと協力して初のAI専用シリコンの試験運用を行っている。[2]
2016年、Googleは「ディープラーニング推論」用の新しいプロセッサアーキテクチャであるTensor Processing Unit(TPU)を発表しました。[3] 当初から、GoogleのTPUは、Googleマップやストリートビューなどのマッピングアプリケーションの精度を向上させることを任務としていました。
第2世代および第3世代のTPUは、Googleによって2017年5月と2018年5月に発表されました。第2世代の設計では、帯域幅が600 GB/秒、パフォーマンスが45テラフロップスに向上し、第3世代では前世代のパフォーマンスの2倍になりました。
2018年7月、Googleはエッジコンピューティング用のMLモデルを実行するために設計された専用ASICチップであるEdge TPUを発表しました。[4]
現在、NVIDIAや他のAIチップ ベンダーは、TPUを自社のテクノロジーと組み合わせて使用し、自動運転や顔認識などのさまざまなアプリケーションを処理できるSoCを製造しています。NVIDIAはまた、一定の消費電力で強力なディープニューラルネットワーク性能を必要とする非モバイルデバイス向けのMLパワーハウスである Jetsonも販売しています。[5]
最近、NVIDIAは、米国のコンピュータプログラミングの先駆者であるグレース・ホッパーにちなんで名付けられた、2023年に巨大なスーパーコンピュータに導入される予定の新しいチップ設計、Grace[6] を発表しました。主にARMテクノロジーを使用するこの新しいアーキテクチャは、今日のチップ設計では不可能な複雑なAIコンピューティングタスクの実行を可能にし、コンピュータを汎用人工知能に向けて一歩前進させます。
ARMは新しいニューラルネットワークアーキテクチャを開発した
ここ数年、人気のCortexアーキテクチャで知られるARMは、新世代のニューラルプロセッシングユニット(NPU)であるEthos NPU[7] シリーズを開発しました。Ethosシリーズは、Cortexコアと連携して動作するように設計されています。この組み合わせにより、従来のNPUと比較してパフォーマンスと電力効率が向上し、コスト効率が高く高性能なエッジML製品の開発が可能になります。
ARMテクノロジーの利点は、特に モノのインターネット 市場をターゲットとした低電力アプリケーションで優れたパフォーマンスを発揮することです。このテクノロジーは、何百万もの接続デバイスで使用される低電力SoCに統合されるように特別に設計されています。
Ethosプロセッシング コアは、クラウドで開発されたトレーニング済みの機械学習アルゴリズムを活用し、エッジでアプリケーションを実行して即座に結果を得ることができます。これらのコアはもともと複雑なMLトレーニング用に設計されたものではありませんが、そのパフォーマンスは、わずかなコストと電力使用量で、エッジ コンピューティング タスクにおける一部の大手競合製品に匹敵します。
たとえば、ARMによれば、1GHzで動作するEthos-U65の512 GOPS実装は、人気のMobileNet_v2ディープ ニューラル ネットワークを実行する場合、3ミリ秒未満でオブジェクト認識が可能です。 [8]
NXPセミコンダクターズ 現在、Ethos-U65 microNPUを使用しており、NXPのi.MXファミリにすでに存在するCortex-MコアおよびオンチップSRAMと連携して動作しています。 [9]
ARMはEthos Uシリーズに加えて、Ethos Nシリーズも設計しています。 [10] スマートフォン、車載インフォテインメント、デジタルテレビなどの主流の消費者向け製品をターゲットにしています。Ethos Nシリーズは現在、コネクテッド ビークルで使用されており、アクセス制御、ドライバーの注意力、音声認識などの新しいスマート機能を提供しており、これらはすべて運転の安全性向上に役立ちます。
スマートフォンでは、Ethos Nシリーズは、拡張現実、仮想現実、ML機能などの機能により、オンボードCPUの処理能力を拡張するのに適しています。
量子コンピューティングは次世代のAIソリューションの原動力となる
「物理学者たちは30年以上も量子コンピューティングの威力について語ってきたが、常に疑問だったのは、量子コンピューティングは何か役に立つことをするのか、投資する価値があるのかということだ」とグーグルの量子ハードウェア主任科学者、ジョン・マルティニス氏は語った。 [11]
フォルクスワーゲンは3年以上にわたり、グーグルと協力し、自動運転車の重要な技術の一つであるニューラルネットワークのトレーニングにかかる時間を短縮するなど、さまざまな用途に量子コンピューティングを活用してきた。 [12]
「今後は高性能コンピューティングに対する要求が数多く出てくるでしょう」とフォルクスワーゲンのCIOであるマーティン・ホフマン氏は語る。「問題は、それを実行するより良い方法はあるかどうかだ。」
によると IBM「今日の限られた量子コンピュータへのアクセスはすでに世界中の研究者に恩恵をもたらしており、自然の仕組みを支配する法則の内部の仕組みをこれまでにない視点で観察できるだけでなく、化学、シミュレーション、最適化、人工知能などの分野の問題に取り組むための新しいレンズも提供している。」 [13]
ほとんどのアプリケーションで量子コンピューティングの威力を実現するにはまだ時期尚早ですが、実験で得られた結果は少なくとも印象的です。Googleの「シカモア」 [14] 新しい54量子ビットプロセッサは、世界最速のスーパーコンピュータでも同様の成果を出すのに1万年かかる量子超越性実験を、わずか200秒で完了した。
「Google Cloudサーバーでは、シュレーディンガー - ファインマン アルゴリズムを使用して、m = 20で同じタスクを0.1% の忠実度で実行すると、50兆コア時間のコストがかかり、1ペタワット時間のエネルギーが消費されると推定されます。」 [15]
汎用人工知能に向けて
これらのテクノロジーの実装により、AIとMLが可能になっただけではありません。また、AI研究の聖杯である汎用人工知能(AGI)の実現に近づいているという信念も生まれました。AGIとは、自ら考え、人間を模倣して知的タスクなどを実行できる機械のことです。
NVIDIAのGraceやGoogleのSycamoreなどの強力なプロセッサと、新しいアルゴリズムおよび大量の新しいデータを組み合わせることで、世界はAIの新しい時代へと前進します。
[1] http://www.cs.toronto.edu/~hinton/absps/cbpweb.pdf
[2] https://finance.yahoo.com/news/intel-working-facebook-ai-chip-013746099.html
[3] https://cloud.google.com/blog/products/gcp/google-supercharges-machine-learning-tasks-with-custom-chip
[4] https://coral.ai/docs/edgetpu/benchmarks/
[5] https://www.forbes.com/sites/patrickmoorhead/2017/03/15/nvidia-introduces-jetson-tx2-for-edge-machine-learning-with-high-quality-customers/
[6] https://nvidianews.nvidia.com/news/nvidia-announces-cpu-for-giant-ai-and-high-performance-computing-workloads
[7] https://www.arm.com/solutions/artificial-intelligence
[8] https://developer.arm.com/ip-products/processors/machine-learning/arm-ethos-u/ethos-u65
[9] https://www.nxp.com/company/blog/why-the-arm-ethos-u65-micronpu-is-a-big-deal-and-how-it-came-to-be-this-way:BL-ARM-ETHOS-U65-MICRONPU
[10] https://www.arm.com/products/silicon-ip-cpu/ethos/ethos-n57
[11] https://ai.googleblog.com/2019/10/quantum-supremacy-using-programmable.html
[12] https://blogs.wsj.com/cio/2017/11/07/vw-expands-its-quantum-computing-research-with-google/
[13] https://www.ibm.com/blogs/research/2021/04/quantum-accelerate-discoveries/
[14] 「シカモア プロセッサ - Wikipedia」https://en.wikipedia.org/wiki/Sycamore_processor。
[15] Arute, F., Arya, K., Babbush, R. et al. プログラム可能な超伝導プロセッサを用いた量子優位性。ネイチャー574、505–510 (2019)。