車のダッシュボードは、インフォテインメント システム全体のためのボタンやディスプレイが満載のデジタル コックピットになっていますが、ジェスチャー認識技術のおかげでタッチレス化が進んでいます。
音声認識はすでに、運転中に情報を要求したり、GPSデバイスに目的地までのルートを計画するよう依頼するなど、タスクを実行したりすることを容易にするヒューマンマシン インターフェイスを提供していますが、制限もあります。音声認識とジェスチャ認識はどちらも、タッチレス ユーザー インターフェイス (TUI) のカテゴリに分類されます。ドライバーがボタンを押すことに慣れ、音声起動機能にも慣れてきたのと同様に、ジェスチャー技術には安全性の向上など多くの利点があります。
車内のジェスチャー認識技術を推進するものは何ですか?
現代の車内や道路上では、運転者の注意をそらすものが数多く存在します。そのため、 タッチレス ジェスチャ認識 は、安全性と快適性を向上させる実行可能な代替手段としてますます注目されています。
運転中のスマートフォンの使用が増えていることに加え、現代の自動車のさまざまな環境やインフォテインメント機能の調整によって、注意散漫になる機会が多く生まれます。ラジオ局を変えるだけで、ドライバーは一瞬にして道路から目を離してしまい、瞬く間に道路上でさまざまなことが起こる可能性があります。
音声認識技術は、ドライバーが道路から目を離さずに指示を出すことができるため、当然の解決策です。ただし、人工知能 (AI) を搭載しているため、制限もあります。トレーニングによっては、コマンドの数が制限される場合があります。
音声認識技術の中には、英語以外の言語を認識するのが難しいものもあれば、強いアクセントの認識が難しいものもあります。さまざまな言語に対応するためにさまざまな音声認識エンジンが登場しており、市場は多少断片化しています。母国語に関係なく、マイクの品質は、背景ノイズと同様に、車内の音声認識技術のパフォーマンスに影響を与える可能性があります。
これらの課題は技術の向上によって解決されていますが、音声認識では聴覚障害や発声障害を持つ運転手や乗客のニーズに対応していません。さらに、コマンドを何度も繰り返さなければならないと、運転中に気が散ってしまう可能性があります。TUIのもう1つの利点は、デバイスやコンポーネントの摩耗が軽減されることです。さらに、ドライバーは手袋をはめたままジェスチャーを行うことはできますが、タッチを必要とするコントロールパネルの操作には苦労します。
ジェスチャーとドライブだけ
ジェスチャー認識技術にはさまざまな形がありますが、基本的には人間の動きを入力方法として認識することによって機能します。その入力は、人の動きを監視するセンサーやカメラによって検出されます。自動車アプリケーションの場合、検出するのはドライバーである可能性が高くなります。特定の動きがコマンドに対応します。
ジェスチャー認識技術は、自動車用途以外にも、スマートフォンやタブレットPC、産業用制御パネル、ビデオゲーム機など、他のヒューマンマシンインターフェースにも使用されています。デバイスや使用例によっては、ユーザーが独自のジェスチャーを設定できる場合もあります。自動車には、暖房やエアコンなどの環境制御、音楽の選択や音量、GPSナビゲーション、音声通話の処理など、タッチや音声ではなくジェスチャー テクノロジで実行できる基本的な機能が多数あります。車両のコックピットの高度さに応じて、ドライバーはジェスチャーを使用して、アプリケーションをメインディスプレイから計器クラスターに転送したり、その逆に転送したりできるようになります。
音楽やオーディオ、着信を制御する手のジェスチャーは、自動車におけるジェスチャー認識の初期の例の1つですが、より高度な機能としては、テレマティクス システムでジェスチャーを使用する機能があり、これにより、運転手や乗客が指し示す近くのランドマークに関する情報を車両が提供できるようになります。ジェスチャー認識技術は、運転手が居眠りをしたり、突然の健康問題で苦しんでいる場合も認識できるため、半自動運転車が安全に路肩に停車して助けを求めることができる。
単純な動きの検出には複雑なシステムが必要
デバイスや環境に関係なく、ジェスチャー認識テクノロジー はセンサー とカメラ、アルゴリズム、AIを利用して特定のジェスチャーを検出し、システム トレーニングに基づいてそれに応じて動作します。ジェスチャー認識システムの基礎となるのは、車両のコックピット内の3D領域の遮るもののないビューを備えたカメラです (おそらくルーフ上)。このエリアは赤外線LEDまたはレーザーで照らされるため、自然光の有無に関係なく鮮明な画像が得られます。
手の領域のRGBDデータと上半身の骨格の動きデータを組み合わせたマルチモーダル センサーにより、分類の精度が向上します。物体の位置、距離、ジェスチャを測定する単一の光学センサーを使用することで、より信頼性が高く正確な検出を実現することもできます。単一センサー ソリューションでは必要なコンポーネントが少なくなり、システム設計者の複雑さとコストが軽減されます。
アルゴリズムとAIを搭載したコンピューター ビジョンと機械学習のテクノロジーが、ジェスチャーをリアルタイムで分析し、すでにファイルに保存されている手の動きのライブラリに基づいて、ジェスチャーをリアルタイムでコマンドに変換します。システム設計者と車両に要求されるバリエーションはありますが、一般的なジェスチャとしては、指差しジェスチャで通話に応答し、スワイプ動作で通話を拒否したり、指を回転させると方向に応じてラジオの音量を上げたり下げたりすることができます。
過去10年間でセンサーとアルゴリズムが改良され、ジェスチャー認識にカラー カメラと深度カメラを適用できるようになりました。しかし、ジェスチャー認識技術が現代の自動車に広く普及するには、やるべきことがまだたくさんある。ドライバーがそれに慣れる必要があるため、車両や地域に関係なく一貫性を保つためにジェスチャー言語を標準化する必要があります。
手の動きは単純なものですが、ジェスチャー認識システムを実装するには、センサーやサポートハードウェアによってキャプチャされた手の動きを処理および認識するために、高度な機械学習アルゴリズムと集中的なコンピューティングが必要です。精度は非常に重要です。つまり、各ドメインのシステムでは、機械学習モデルをトレーニングし、光不足などの不正確な認識につながる可能性のある環境要因を補正するために、大量のデータが必要になります。
ジェスチャー認識技術には、技術の枠を超えて、社会的受容性の要素があります。つまり、ドライバーは手振りや手話を実行する意思がなければなりません。音声認識技術と同様に、ジェスチャー認識技術にも独自の採用曲線があります。
短期的には、自動車のコックピットへのジェスチャー認識技術の統合は、より高級な自動車に採用されるようになると思われます。最近の調査によると、ヨーロッパの高級車ブランドの約40% が、より高速なアクセスと、より安全で向上した運転体験のためにジェスチャー認識テクノロジーを実装していると推定されています。 しかし、現在ではすべての車両に標準装備されているリアビューカメラなどの他の自動車技術と同様に、ジェスチャー認識は、技術が完成し、設計と実装のコストが下がるにつれて、長期的には標準機能になるでしょう。