ヒューマンマシンインターフェース(HMI)は、音声認識やジェスチャー認識に重点が置かれた非接触技術の方向に発展しています。ジェスチャー認識は、デバイスに触れる必要がなく、周囲の環境に干渉する音も出ないため、ユーザーに好まれる選択肢となっています。この記事では、ジェスチャー認識技術に関する開発の概要と現在の問題に対する解決策を紹介します。
ジェスチャー R認識 T技術 ポーズ I代替可能 A利点
ヒューマンマシンインターフェースは、初期のパンチテープ、キーボード、マウス、タッチコントロールから非接触技術へと進化してきました。 これらの主流のテクノロジーの中には、タッチレス ユーザー インターフェイス (TUI) に分類される音声認識とジェスチャ認識があります。音声認識は最も自然で直感的であり、Google HomeやAmazon Alexaなどの音声制御インテリジェント スピーカーが典型的な例です。コマンドを音声で伝えることで、タッチに頼らずにこれらのデバイスを制御できます。しかし、音声認識は騒がしい環境では誤った判断をしたり、静かな公共の場では他人の迷惑になったりすることが起こりやすいです。さらに、セキュリティ漏洩のリスクがあるため、プライベートな環境で使用するのが最適です。
一方、ジェスチャー認識技術が徐々に進化するにつれ、ジェスチャー認識機能を備えた電子機器の数も増加しています。名前が示すように、ジェスチャー認識は人間の動き、つまり「ジェスチャー」を認識することを目的としています。たとえば、デバイスの前で特定の方法で手を振ると、特定のアプリケーションを起動するように要求できます。このジェスチャー認識は、スマートフォンやタブレットPCによく見られます。
ジェスチャー認識技術にはさまざまな種類がありますが、いずれも人間の動きの認識を入力方法として扱うという基本原理に基づいています。これらのデバイスには、ユーザーの動きを監視するための1つまたは複数のセンサー (またはカメラ) が搭載されています。デバイスがコマンドに対応する動きを検出すると、デバイスのロック解除、アプリケーションの起動、音量の調整など、適切な出力で応答します。
タッチ式のヒューマンマシンインターフェースと比較して、ジェスチャー認識の利点は何ですか? まず、ジェスチャー認識はデバイスやコンポーネントに負担をかけません。従来のQWERTYキーボードやタッチ スクリーン インターフェイスでは、必然的にデバイスの摩耗が発生します。さらに、タッチ スクリーン インターフェイスは、湿度の高い環境や、ユーザーが手袋を着用している場合、またはユーザーがコントロール パネルに触れるのが難しい場合には使用できません。ただし、ジェスチャー認識を使用する場合、デバイスに直接触れる必要がないため、デバイスの摩耗を回避できます。相対的な反応を生み出すには、センサーの前で手や指を動かすだけです。
ジェスチャー認識は、入力方法のまったく新しい世界への扉も開きます。ユーザーは従来の入力方法を採用できるだけでなく、ジェスチャーに基づいた他の入力方法を試すこともできます。一部のデバイスでは、ユーザーが独自のジェスチャーを設定することもできます。ジェスチャー認識は、スマートフォンやタブレットPC以外にも、建築・産業用コントロール パネル、自動車情報エンターテイメント システム、ビデオ ゲーム コンソールなど、他のヒューマン マシン インターフェイスにも適用できます。
ジェスチャー R認識 S解決策 Acc向上 P生産 D開発 S速度
タッチレスジェスチャ認識は安全性と快適性を向上させるため、自動車のユーザーインターフェースにおいてますます重要になっています。こうした種類のインターフェースにより、運転者は運転中に他のコントロール(オーディオやエアコンなど)と対話できるようになり、運転者の安全性と快適性が向上します。
過去10年間で、多くの視覚ベースの動的ジェスチャ認識アルゴリズムが 導入 され、さまざまなテクノロジがジェスチャの認識に使用されてきました。さまざまなコンピューター ビジョン アルゴリズムにより、ジェスチャ認識にカラー カメラと深度カメラを適用できるようになりましたが、大きく変化する光条件下でさまざまな被写体のジェスチャを信頼性高く分類することは依然として困難です。
分類精度を向上させるためには、マルチモードセンサーによるジェスチャ認識方式を採用する必要がある。NVIDIAは、3D Convolutional Neural Nnetworks (CNN) を使用して、手の領域のRGBDデータと上半身の骨格の動きのデータを組み合わせます。最適なパフォーマンスを提供するためのヒストグラム勾配 (HOG) とサポートベクターマシン (SVM) 分類器の機能により、深度、色、レーダーセンサーからのジェスチャ情報が統合され、畳み込みニューラルネットワークを共同でトレーニングし、大きく変化する光条件下でジェスチャ認識を実行します。
ADIは、ジェスチャ認識に使用される光学センサーも発表しました。このセンサーは、単一のセンサーで物体の位置、距離、ジェスチャを測定でき、現在のソリューションに比べて検出精度と信頼性が向上しています。 過去には、複数のセンサーを必要とする競合ソリューションは、通常、精度が低く、物体が異なる角度から「見る」ため、信号を組み合わせることが困難でした。 ADI ADUX1020光センサーで使用されるシングルポイント センシングにより、アプリケーションの信頼性が向上し、必要なコンポーネント数が少なくなり、設計の複雑さが軽減され、システム開発者のコストも削減されます。
ADI ADUX1020光センサーは、シングルポイントセンシングの他に、非常に高い周囲光除去能力も備えています。これにより、厳しい光条件でも信頼性が高く正確な操作が可能になり、エンドユーザーにとってより信頼性の高いアプリケーション エクスペリエンスが実現します。 その他の光学センサーは、太陽光、高周波LED、蛍光灯などの光源からの周囲光の影響を受け、ジェスチャーを正確に読み取るセンサーの能力を妨げる可能性があります。複雑な環境を克服する能力が向上し、ジェスチャー認識アプリケーションの分野が拡大するにつれて、市場スペースは飛躍的に拡大し、今が関連製品の開発に投資する最適な時期となります。
関連製品