コンピューター ビジョンは、タイプされたページからテキストを読み取ったり、組み立てラインでショートやオープンを識別したりしていた時代から長い道のりを歩んできました。コンピューティング能力の進歩、過去20年間にデータ センターに保存された膨大な量のデータ、そして新しく優れたアルゴリズムによって、ついに人工知能 (AI) は単なる流行語以上のものになりました。
コンピューターはすでに、画像技術と機械学習 (ML) ソフトウェアを利用して画像を診断し、分類してインデックス付けし、Facebookなどのソーシャル ネットワーキング アプリケーションでの顔認識、セキュリティとアクセス制御、さらには悪性黒色腫の診断などに利用しています。
しかし、より広範なAIを導入して、データの分析、洞察の提供、学習による精度の向上だけでなく、意思決定も行う場合、これは潜在的なアプリケーションの氷山の一角にすぎません。私たちの周囲の環境に関する理解の約80パーセントは視覚によるものであることを考慮すると、単純な機械学習を超えたAI実装はコンピューター ビジョンに大きく依存する必要があります。
ただし、コンピューター ビジョン データの分析は、帯域幅を大量に消費する作業です。Qualcomm などのプロセッサ企業は、現在では集中的な計算負荷を処理できるチップを開発していますが、画像とビデオのデータを分析のために遠く離れたクラウドに移動し、アプリケーションの要求に応じて戻すことは、必ずしも実現可能とは限りません。
極端な例として、まだ開発中の自動運転車を取り上げてみましょう。将来的に5Gの速度が実現しても、トラフィック状況を分析するためにデータ センターに転送する必要があるデータの量は、リアルタイムの応答を要求するため、そのアプリケーションを単純に破壊してしまいます。別の例として、多要素認証 (MFA) の一部として顔認識を使用するホーム セキュリティ システムを考えてみましょう。夕方になると、映画のストリーミング視聴が増えるため、自宅のインターネット接続速度が遅くなり、消費者は遅いシステムを待つ羽目になるかもしれない。また、頻繁に停止する混雑したエレベーターに乗ったことがある人は、同じように頻繁に「ドアを閉める」ボタンを押す人を見て、消費者のイライラを経験したことがあるでしょう。
自動運転車などのアプリケーションを実現し、スマートホーム市場で成功するためのソリューションは同じです。つまり、AIをネットワークまたはモノのインターネット (IoT) エッジに移行することです。
ResearchAndMarkets.comのレポートによると、これによりコンピューター ビジョン市場にAIが参入し、2018年には36億2,000万ドルに達し、2023年までに47.54パーセントのCAGRで253億2,000万ドルに成長する見込みです。今こそその市場に参加する時です。
Microsoft Vision AIで準備を整える
自宅監視カメラ、企業セキュリティカメラ、AIを内蔵したスマートホームデバイスなどのIoTソリューションを導入する準備が整ったら、ハードウェア、ソフトウェア、クラウドのコンポーネントを1つのキットで入手して、すぐに始めることができます。
クアルコムテクノロジーズ、マイクロソフト、eInfochipsによって開発された ビジョンAI開発キット エンジニアには次のようなメリットがあります。
- 低遅延
- 堅牢性
- プライバシー
- ネットワーク帯域幅の効率的な利用
- クラウドリソースの効率的な活用
- クラウドストレージ
- クラウド処理
- セキュリティ強化
- デバイスのプロビジョニングと管理の強化
- エッジデバイス上でAIモデルを構築、トレーニング、検証、展開するための統合環境
- デバイスのテレメトリと分析
このキットは、MicrosoftのIoT、エッジ、AIと、Qualcomm Vision Intelligence 300プラットフォームおよびQualcomm Neural Processing SDK for AIを組み合わせた、デバイス上のエッジ コンピューティングを実現するカメラ ベースのデバイスです。
部分の合計
このキットには、AIオンエッジ製品の開発を容易にする強力なツールが含まれています。これらを詳しく見て、アプリケーションでどのような機能を提供できるかを理解しましょう。
Qualcomm QCS603システムオンチップ (SoC): SoCのAIエンジンは、Qualcomm Hexagon 685ベクトル プロセッサ、2つのQualcomm Hexagonベクトル拡張 (HVX)、OpenGL ES 3.2、Vulkan、OpenCLをサポートするQualcomm Adreno 615 GPU、Tensorflow、Caffe/Caffe2、ONNE、Android NNをサポートし、1 Wで2.1 TOPSを実現するプログラミング インターフェイスを備えたQualcomm Snapdragon Neural Processing Engineを使用して、エッジでの画像処理にデジタル信号プロセッサ (DSP) を活用します。
Azure IoTエッジ: これは、MicrosoftのAzureサービス機能、ストリーム分析、機械学習、SQLサーバー データベースをクラウドから展開できるようにするキット内のソフトウェア ツール セットです。モジュール、エッジデバイス、クラウド間のメッセージのルーティングを処理し、クラウド分析とカスタムビジネスロジックをデバイスに移動します。
Azure IoT Edge自体は、Azureサービス、サードパーティのサービス、またはカスタム コードをローカルで実行するためにデバイスにデプロイされるIoT Edgeモジュール、各IoT Edgeデバイスで実行されモジュールを管理するIoT Edgeランタイム、およびデバイスをリモートで監視および管理するためのクラウドベースのインターフェイスという3つのコンポーネントで構成されています。
Azure IoT Edgeは、C#、C、Node.js、Python、Javaでコーディングできるカスタム モジュールをサポートしています。ストア アンド フォワード機能を備えているため、不安定なネットワーク環境でも動作可能です。
Azure Machine Learningサービス: AMLは、機械学習モデルのトレーニング、展開、自動化、管理を可能にするクラウド サービスです。このサービスはモデルを自動トレーニングし、自動調整することができます。Python用のサービスSDKとオープンソースのPythonパッケージを使用すると、高精度の機械学習モデルとディープラーニング モデルを自分で構築してトレーニングできます。
開発を始める
キットを使った作業は非常に簡単です。まず、製造シナリオで欠陥をフラグ付けしたり、家庭内での動きを調べて環境や照明を制御するなど、あらゆるアプリケーションでオブジェクトの検出と分類を行うために、Microsoft Azureでモデルをトレーニングします。
次に、モデルを新しいキットに展開します。QualcommのハードウェアとAzure IoT Edgeを使用すると、クラウドに接続せずにモデルを実行することを選択できます。
クラウドに接続すると、Qualcomm Neural Processing SDK for AIとAMLの統合のメリットが得られます。これにより、これらのAIモデルを事前トレーニング用のTensorFlow、Caffe/Caffe2、ONNX標準に変換できるようになります。
AMLサービスは、モデルをハードウェア アクセラレーション対応のコンテナーまたはモジュールにパッケージ化し、Azure IoT EdgeによってQualcomm Vision Intelligence Platformを搭載したデバイスにデプロイできるようにします。専用ハードウェア (CPU、GPU、DSP) がQualcomm Neural Processing SDKを高速化し、エッジでのAI推論を実現します。
今必要なのは Microsoft Vision AI開発キット から アロードットコム プロジェクトを開始します。