ADASおよび自動運転の開発とソリューション
半導体技術および人工知能(AI)技術の急速な進歩に伴い、先進運転支援システム(ADAS)は多くの車両で標準装備となり、自動運転は将来の自動車開発の中心となるテーマとして徐々に浮上しています。これらの高度な技術は、カメラ、レーダー、センサー、ソフトウェアを使用して、危険を自動的に検知し、必要に応じて車両を制御することでドライバーを支援し、事故の発生率を減少させます。本記事では、ADASと自動運転の開発に加え、それに関連する製品やソリューションを紹介します。
ADASは人為的なミスによる事故を減少させます
ADASは、コンピュータービジョン機能を実行するデジタル技術群を意味し、駐車やナビゲーションなどの基本的なタスクにおいてドライバーを支援し、未来のスマートで安全な運転を実現します。ADASは、適応型クルーズコントロールから自動駐車システムまで、多くのサブシステムを含むことができます。これらのシステムは、人為的なミスによって引き起こされる事故を防ぐことを目的としており、今日ではその原因が衝突の90%以上を占めています。 最も高度なADAS安全技術は、多くの運転関連機能を自動化し強化することで、安全性を向上させ、適切な運転操作を確保します。これらのサブシステムは、大きく分けて2つのタイプに分類できます。ドライバーの認識を向上させるパッシブADASシステム(車線逸脱警告システムやブラインドスポット検知など)、および行動を起こすアクティブADASシステム(自動緊急ブレーキ(AEB)、適応型クルーズコントロール(ACC)、車線維持アシスト(LKA)、車線中央維持機能(LC)など)。 ADASは、交通状況を把握、分析し、運転行動を理解することをドライバーに支援します。そして、クラウドコンピューティングやエッジコンピューティング、センサーでのデータ収集と分析を組み合わせた予測技術を使用します。これらのシステムは、潜在的な車両問題を事前にドライバーに通知し、ユーザーに整備を促して安全性を確保するよう警告を発します。
ADASで使用されるセンサーとソフトウェア技術
ADAS(先進運転支援システム)は、車両の安全性を向上させ、幅広い自動運転機能を提供するために、さまざまなセンサーを利用しています。ADASにおいて一般的なセンサーには4種類あります。まず、カメラセンサーは低コストであることから広く利用されており、カメラベースのソリューションはADASにおける最も普及しているセンサー技術です。次に、ミリ波レーダーセンサーは、衝突回避システムの一部として使用されることが一般的で、物体とその間の距離を電波で計算します。さらに、Light Detection and Ranging(LiDAR)センサーはレーザーを使用して距離を検出することができ、人や地形の異常をも検出することができます。最後に、超音波センサーは主に駐車支援や自動駐車システムで利用されています。 センサーに加え、ソフトウェアも重要な役割を果たしています。例えば、Human-Machine Interface(HMI)は、ドライバーと車両の自動化システムの連携を向上させるためのものです。また、AI技術は路上のさまざまな車両や歩行者を認識し、緊急時に車両の制御介入を行うことで重要な役割を果たしています。 ADASと自動運転は異なる技術です。ADASは全体的な運転の安全性を向上させる技術の集合体である一方、自動運転は人間の介入なしで車両が自律的に運転する能力を指します。ただし、ADASがドライバーに取って代わるものではないことを強調する必要があります。ADAS技術の主な目的は道路安全性の向上であり、車両がより便利でエンターテインメント機能を備えたとしても、ドライバーは車両の運転に集中する必要があります。
主要なADASスマートセンサーとアプリケーションプロセッサ
ADASは、多種多様なシステムとコンポーネントを含みます。以下に、重要な製品をいくつかご紹介します。 まず、InfineonのXENSIV™ BGT60ATR24Cは、自動車向け60 GHzレーダーセンサーであり、広帯域周波数変調連続波(FMCW)レーダーを小型パッケージで実現できます。このセンサーは4 GHzの帯域幅と2 TX / 4 RXチャネルをサポートし、デジタルインターフェースを介して設定とデータ取得が可能で、独立した運用のための統合ステートマシンを備えています。さらに、最適化された低消費電力モードによる独立したデータ取得を実現し、AEC-Q100/101に適合しています。 この新しいスマートセンサーは、ジェスチャー認識のためにいくつかのブロックを統合しています。これには、無線周波数(RF)フロントエンド、アナログベースバンド(ABB)、アナログ-デジタルコンバータ(ADC)、フェーズロックループ(PLL)、メモリ(FIFOなど)、およびシリアル・ペリフェラル・インターフェース(SPI)が含まれます。BGT60ATR24Cは単一チップセット内で高い統合性を提供します。 BGT60ATR24Cの中核機能は、送信チャネル(TX)を介してFMCW信号を発信し、ターゲットオブジェクトからのエコー信号を4つの受信チャネル(RX)で受信することにあります。各受信パスにはベースバンドフィルタ、電圧増幅器(VGA)、およびADCが含まれます。デジタル化された出力はFIFOに保存されます。データは外部ホスト、マイクロコントローラーユニット(MCU)、またはアプリケーションプロセッサ(AP)に転送され、レーダー信号処理が実行されます。 Infineonの新型スマートセンサーは、Cadence Vision P6 DSPとMulticoreWareを使用した車室内レーダーセンシングにすでに採用されています。車室内レーダーセンシングは、乗客が座っているかどうかや健康状態を監視することができます。これにより、バイタルサインの監視、心拍数の追跡、車がロックされている際の子供の存在検出にも優れています。また、このシステムは侵入警告を提供し、車両の全体的なセキュリティを向上させます。 さらに、NXPが効率的で安全なAI処理機能を自動車に提供する新型のi.MX 95アプリケーションプロセッサを発表しました。NXPのi.MX 95は、混成クリティカル機能をインテリジェントエッジアプリケーション(自動車を含む)で処理するために設計されており、ASIL-BおよびSIL2安全基準に対応する柔軟な異種計算ドメインを備えています。このプロセッサは、電子コックピット(eCockpit)や接続ドメインに対して安全で効率的なAI処理能力を提供します。 NXP i.MX 95シリーズアプリケーションプロセッサは、マルチコアの高性能計算機能、没入型3Dグラフィックス、統合されたNXP eIQ® Neutronニューラル処理ユニット(NPU)を組み合わせ、機械学習と高度なエッジアプリケーションを実現します。その適用分野には、自動車、産業、IoTが含まれます。 衝突回避アプリケーションに対して、OEMやティア1サプライヤーは、これまでより安価で信頼性の高いイメージングレーダーセンサー技術に容易にアクセスできるようになりました。NXPは、16nm FinFETS32R41自動車向けイメージングレーダープロセッサおよびデュアルカスケード構成を使用したTEF82xx RFCMOSトランシーバーを含む専用チップセットを導入しました。 NXPのレーダーチップセットは、4Dイメージングレーダーセンサーを備え、コストパフォーマンスと性能に優れています。48チャネルを搭載し、方位解像度1度、仰角解像度2度、車両の最大検出距離370メートル、リムのないタイヤの最大検出距離130メートルをサポートします。
自動運転技術は次世代車両の重要な開発要素となる
自律走行技術は、次世代車両の開発において欠かせない重要な要素であることは間違いありません。Teslaをはじめとする企業は、すでに高度な自律走行支援システムを導入しています。その中でも、LiDARセンサーに基づくADAS(先進運転支援システム)は、自律走行車両向け技術の中でも最も革新的で効率的な技術の1つです。視覚ベースのシステムやレーダーシステムと組み合わせることで、LiDARシステムはADASにおいて高度に正確な物体検出と認識を提供します。レーダー、LiDAR、および視覚ベースのシステムの統合により、より安全な自律走行体験が効果的に実現されます。 LiDARセンサーは、目に見えないレーザービームを放射し、センサーの近くや遠くにある物体をスキャンして検出します。これにより、物体と周囲の3Dマップをディスプレイ上に作成します。自動車用途において、ほとんどのLiDARセンサーは車両の上部に取り付けられています。これらのセンサーは絶えず回転して、毎秒数千回のレーザーパルスを生成します。LiDARの高速レーザービームは、車両の360度周囲に継続的に放射され、道路上の物体に反射します。この活動から受信されるデータは、高度な機械学習アルゴリズムによってリアルタイムの3Dグラフィックに変換され、通常は周囲の物体の3D画像や地図として表示されます。 eInfochipsはArrow Electronicsの子会社であり、自動車工学サービスとソリューションを提供し、視覚、レーダー、LiDARセンサーを使用したADASシステムの設計と開発を自動車企業に支援しています。2024年のEmbedded World (#ew24) 展覧会では、eInfochipsは動的な障害物を避けながらポイント間を移動することができる自律移動ロボット(AMR)を披露しました。このロボットは、Time of Flight (ToF)センサー、画像センサー、ジャイロセンサー(IMU)を含む高度な技術を搭載し、NVIDIAのメインプロセッサによって駆動されています。モーター制御と電力管理(バッテリーを含む)はADIコンポーネントによって処理されており、高度な設計能力を示しています。 カメラモジュールも自律走行アプリケーションにおいて欠かせないコンポーネントです。D3 EngineeringのDesignCore®カメラシリーズは、最高の安全性と精密性を要求する組込みビジョンアプリケーションに非常に適しています。これらのカメラは、顧客の生産システムを迅速にプロトタイプ化し、カスタマイズ設計を可能にします。D3の高性能カメラポートフォリオには、新しいDesignCore® Discovery、Velocity、Chromaシリーズが含まれており、それぞれが画質を最大化するように設計されています。これらのカメラは、高解像度と広い開口角による光学信号を強化し、すぐに使用可能なAIアプリケーション向けに最適化されています。 onsemiのAR0234CSセンサーも自律走行アプリケーションに非常に適しています。これは、1/2.6インチ2.3Mp CMOSデジタル画像センサーで、グローバルシャッターと1920(H)x1200(V)の有効画素配列を備えています。このセンサーは革新的なグローバルシャッターピクセル設計を使用しており、動いているシーンを正確かつ迅速にキャプチャします。フル解像度で120フレーム/秒を維持しながら低ノイズの鮮明な画像を生成し、暗所でも明るい環境でも非常に明瞭な画像を提供します。AR0234CSは業界トップクラスのグローバルシャッター効率を持ち、連続的な動画撮影や単一フレームのキャプチャの両方に理想的であり、自律走行アプリケーションに最適です。 自律走行技術は、その能力を完全に証明するにはまだ時間が必要ですが、エッジコンピューティングの能力が継続的に向上していることは、自律走行技術の成熟が近いことを示しています。その間、AMRは市場でより堅実なAIアルゴリズムを準備し、それが乗用車に適用される前の段階を支援し続けます。 モバイルロボットの出荷が急増し、運用効率を求める産業の需要に応える中、NVIDIAはAMRアプリケーションの次世代を支援するための新しいプラットフォームを立ち上げています。NVIDIAのIsaac AMRはモバイルロボットに高度な自律性をもたらし、高度なマッピング、自律性、シミュレーション機能を提供します。このプラットフォームは、AMRのシュミレーション、検証、展開、最適化、管理のためのもので、エッジからクラウドまでのソフトウェアサービス、コンピューティング、そしてAMR開発と展開を加速させる一連の参考センサーとロボットハードウェアを含んでいます。これにより、コスト削減と市場投入までの時間短縮が実現します。
結論
ADAS(先進運転支援システム)と自動運転技術の継続的な進歩は、私たちを新しい輸送の時代へと導いています。これらの技術が成熟するにつれ、ADASはより安全で便利な運転体験を提供するとともに、完全な自動運転の基盤を築いています。完全な自動運転には技術的な複雑性や法律・倫理的問題を含む数多くの課題が存在しますが、この分野の革新と進歩が急速に進んでいることは否定できません。スペースの制約から、この記事で取り上げるソリューションは関連するアプリケーションのほんの一部に過ぎません。ADASシステム設計方法や構成要素に関する詳細情報については、Arrow Electronicsまで直接お問い合わせください。
記事タグ