Sensorfusion verbessert die Navigation und Sicherheit von autonomen mobilen Robotern.
Die Philosophie hinter Industrie 5.0 besteht darin, dass Menschen Hand in Hand mit künstlicher Intelligenz (KI)-gesteuerten Robotern arbeiten, mit der Vision, dass diese Roboter dazu dienen, Menschen zu unterstützen und nicht zu ersetzen. Autonome Mobile Roboter (AMRs) können die Produktivität steigern, die Sicherheit verbessern und Herstellern erhebliche Kosten einsparen. Aus diesen Gründen wird der Einsatz von AMRs in nahezu jeder Branche zunehmen. Bevor dies jedoch geschieht, müssen AMRs mehrere Herausforderungen überwinden, und einer der Schlüssel zur Bewältigung dieser Herausforderungen ist die Integration verschiedener Sensoren und das aufkommende Gebiet der Sensorfusion. In diesem Artikel werden die Entwicklung der Sensorfusionstechnologie und damit verbundene Lösungen vorgestellt, die von onsemi auf den Markt gebracht wurden.
Die Anwendungsperspektiven von AMR sind vielversprechend, stehen jedoch auch vor Herausforderungen
AMR verfügt über Anwendungsmerkmale, die Kosten senken, die Sicherheit verbessern und die Effizienz steigern können, weshalb immer mehr Branchen beginnen, es zu übernehmen. Laut Umfragen wurde der globale AMR-Markt im Jahr 2022 mit 8,65 Milliarden USD bewertet, und die durchschnittliche jährliche Wachstumsrate (CAGR) wird von 2022 bis 2028 voraussichtlich 18,3 % betragen. Obwohl die Entwicklungsperspektiven von AMR vielversprechend sind, steht die Einführung von AMR auch vor vielen Herausforderungen.
Die größte Herausforderung bei der Einführung von AMR ist die Vielfalt der Anwendungen und Umgebungen, in denen es eingesetzt wird. Zu den häufigen Einsatzbereichen von AMR gehören Lagerhäuser, Agrartechnologie, gewerbliche Landschaftsgestaltung, Gesundheitswesen, intelligenter Einzelhandel, Sicherheit und Überwachung, Lieferung, Bestandsverwaltung sowie Kommissionierung und Sortierung. In all diesen unterschiedlichen Umgebungen wird erwartet, dass AMRs sicher im Umfeld von Menschen arbeiten.
Die Komplexität dieser Anwendungsszenarien macht die Arbeit von AMRs äußerst anspruchsvoll. Als Menschen nehmen wir einige Situationen als selbstverständlich hin, aber AMRs könnten Schwierigkeiten haben, sie zu bewältigen. Stellen Sie sich zum Beispiel einen Lieferroboter vor, der ein Paket zustellt und einen Ball mitten auf dem Weg sieht. Es ist wahrscheinlich, dass der Roboter den Ball identifizieren und ihm ausweichen kann, aber ist er schlau genug, vorherzusehen, dass ein Kind möglicherweise herausläuft, um den Ball zu holen? Es gibt viele komplexe Situationen wie diese. Zum Beispiel, können AMRs einen 90-Grad-Reflexionsspiegel erkennen und nutzen, der an einem Straßenpfosten installiert ist, um die Situation um eine Ecke zu beobachten und den Verkehr im Voraus vorherzusagen? Kann ein AMR verstehen, dass es nicht auf frisch gegossenem Beton laufen sollte? Für Menschen sind diese Dinge alltäglich, aber sie stellen für AMRs Herausforderungen dar.
Vielleicht sind diese Situationen, die für Menschen leicht verständlich sind, für Roboter anspruchsvoller. Mit den richtigen Sensoren könnten AMRs jedoch Objekte im hellen Sonnenlicht leichter erkennen als Menschen. Aber das Identifizieren von frisch gegossenem Beton und verschütteten Flüssigkeiten könnte schwierig sein. Außerdem stellen Kanten, Klippen, Rampen und Treppen ebenfalls Herausforderungen für AMRs dar. Es gibt auch spezielle Situationen, wie wenn jemand absichtlich das AMR sabotiert, was die Notwendigkeit zur Entwicklung von Ausweichmanöversystemen inspirieren könnte. Die Lösung vieler der oben genannten Herausforderungen würde erfordern, dass KI moderne Large Language Models (LLMs) und verschiedene Arten von Hochleistungssensoren einsetzt.
Hochleistungssensoren für AMRs haben jeweils ihre eigenen Vor- und Nachteile
AMRs können verschiedene Sensortypen verwenden, um die Umgebung zu erkennen, und diese Sensoren müssen gleichzeitig Lokalisierung und Kartenerstellung (SLAM) durchführen, während sie Entfernungs- und Tiefenmessungen bereitstellen. Wichtige Sensormetriken umfassen Objekterkennung, Objektidentifikation, Farberkennung, Auflösung, Energieverbrauch, Größe, Kosten, Reichweite, Dynamikbereich, Geschwindigkeit und die Fähigkeit, unter verschiedenen Licht- und Wetterbedingungen zu arbeiten.
Sensorarten, die für AMRs verwendet werden können, umfassen CMOS-Bildgebung, direkte Zeitflugmessung (dToF) und indirekte Zeitflugmessung (iToF) Tiefenerkennung, Ultraschall, Radar, induktive Positionsbestimmung, Bluetooth® Low Energy (Bluetooth LE) Technologie, Inertialsensoren und andere. Jeder Sensortyp hat seine eigenen Vor- und Nachteile.
Radar bietet beispielsweise eine hervorragende Reichweite und Geschwindigkeitsleistung bei schlechten Lichtverhältnissen oder widrigen Wetterbedingungen, weist jedoch eine geringe Farberkennungsfähigkeit, höhere Anfangskosten und eine relativ große Größe auf (ein wichtiger Faktor für AMRs). LiDAR hat aufgrund seines hochvolumigen CMOS-Silizium-Fertigungsprozesses relativ niedrigere Anfangskosten und funktioniert sowohl bei Nacht als auch bei direktem Sonnenlicht gut, ist aber weniger effektiv bei der Objektklassifizierung. Im Gegensatz dazu bieten iToF-Tiefensensoren eine exzellente Auflösung und energieeffiziente Verarbeitungskapazitäten.
Offensichtlich kann die Verwendung eines einzigen Sensortyps allein nicht alle Informationen liefern, die AMRs benötigen, um alle oben genannten Herausforderungen zu bewältigen. Je nach Anwendung und Umgebung werden AMRs mehrere oder sogar verschiedene Sensortypen benötigen. Diese Sensoren arbeiten nicht isoliert, sondern gemeinsam in einem Prozess, der als Sensorfusion bekannt ist.
Wie erreichen autonome mobile Roboter Sensorfusion?
Sensorfusion ist der Prozess, bei dem zwei oder mehr Datenquellen (von Sensoren und/oder einem Algorithmus oder einem Modell) kombiniert werden, um ein besseres Verständnis des Systems und seiner Umgebung zu erlangen. Sensorfusion in AMRs ist entscheidend, da sie eine bessere Zuverlässigkeit, Redundanz und letztlich Sicherheit bietet, während gleichzeitig sichergestellt wird, dass die Bewertungsergebnisse konsistenter, genauer und zuverlässiger sind.
Sensorfusion kombiniert zwei Funktionen: Datenerfassung und Dateninterpretation. Der Schritt "Daten interpretieren" bei der Sensorfusion erfordert die Implementierung eines Algorithmus oder eines Modells. Manchmal sind die Ergebnisse der Sensorfusion für menschliche Gewohnheiten konzipiert, wie etwa zur Unterstützung in Autos, und manchmal sind sie für weitere Maschinenanwendungen ausgelegt, wie beispielsweise Gesichtserkennung in Sicherheitssystemen.
Die Sensordatenfusion bietet verschiedene Vorteile, wie beispielsweise die Reduzierung von Signalrauschen. Homogene Sensordatenfusion kann unkorreliertes Rauschen reduzieren, während heterogene Sensordatenfusion korreliertes Rauschen verringern kann. Aufgrund ihrer inhärenten Eigenschaften verbessert die Sensordatenfusion die Zuverlässigkeit durch Redundanz. Da mindestens zwei Sensoren vorhanden sind, kann die Qualität der Erkennung abnehmen, wenn die Daten eines Sensors verloren gehen. Da jedoch die Daten der anderen Sensoren weiterhin verfügbar sind, kommt es nicht zu einem vollständigen Ausfall. Die Sensordatenfusion kann auch dazu verwendet werden, nicht gemessene Zustände zu schätzen, beispielsweise wenn ein Objekt oder ein Teil eines Objekts von einer Kamera verdeckt wird oder wenn ein Objekt oder eine Oberfläche das Licht von einer Kamera zur anderen reflektiert. Die Sensordatenfusion hält in solchen Fällen ein gewisses Leistungsniveau bei der Erkennung aufrecht.
Aufgrund dieser Vorteile und der beschleunigten Markteinführung gibt es einige aufkommende Trends in der Sensorfusion, darunter der Einsatz von KI-gestützten Algorithmen, verbesserte Objektkennung und -klassifizierung, die Kombination von Sensorfusion mit mehreren Sensormodalitäten für kollaborative Wahrnehmung sowie Umgebungswahrnehmung unter widrigen Bedingungen. Sensorfusion kann eine 360-Grad-Rundumsicht erreichen und unter anderem eine Echtzeit-Sensorenanpassung ermöglichen.
Bieten Sie eine vollständige Lösung für die Sensorfusion
Die Sensorfusion in AMR (Autonomous Mobile Robots) zielt darauf ab, einen bedeutenden Einfluss auf industrielle und Transportanwendungen zu haben. Im Zuge des Fortschritts hin zu Industrie 5.0 setzt sich onsemi dafür ein, Sensoren und Subsysteme bereitzustellen, um eine effektive Implementierung sicherzustellen. Die Subsystemlösungen von onsemi sind ebenfalls recht vielseitig und reichen von robusten hochauflösenden Bildgebungssystemen über leistungsstarke Motorsteuerungen bis hin zu kompakten, effizienten Lösungen für das Batterieladen – alle basierend auf jahrzehntelanger Erfahrung in der Automobilindustrie. Die Lösungen von onsemi arbeiten zusammen, um sicherzustellen, dass die Entwicklung erleichtert wird und industrielle Roboter anpassungsfähig und zuverlässig genug sind, um in den anspruchsvollsten Umgebungen zu funktionieren.
Autonome mobile Roboter haben ähnliche Funktionen wie autonome Fahrzeuge und sind komplexe Konstruktionen, die aus mehreren Subsystemen bestehen. Sie ermöglichen es Robotern, sich zu bewegen, zu beobachten und sicher mit minimaler menschlicher Interaktion zu arbeiten. onsemi minimiert diese Komplexität durch zuverlässige intelligente Leistungs- und Sensortechnologien und stellt die erforderlichen Bausteine für Ihr Design bereit.
Das Herzstück der Sensorfusion sind die Sensoren. Wenn die Daten der Sensoren nicht qualitativ hochwertig sind, können selbst die besten Algorithmen keine erstklassigen Ergebnisse liefern. Glücklicherweise bietet onsemi erstklassige Sensoren und Toolkits, um die Sensorfusion in AMR zu unterstützen.
onsemi ist ein führender Anbieter intelligenter Sensortechnologie und bietet ein breites Portfolio an Rolling-Shutter- und Global-Shutter-Bildsensoren mit branchenführender Leistung in Funktionen wie Dynamikbereich und Bewegungserkennung. Diese erfüllen die Anforderungen verschiedener möglicher Endanwendungen, von Wearables und Unterhaltungselektronik bis hin zu anspruchsvollen Industrie- und Automobilanwendungen.
Zusätzlich zu Bildsensoren bietet onsemi auch SiPM für die Abstandserkennung (LiDAR) an. Dieses Produktportfolio umfasst Ultraschallsensoren, Induktionssensoren und Mikrocontroller mit Unterstützung der Bluetooth® LE-Technologie, inklusive Unterstützung für AoA (Angle of Arrival) und AoD (Angle of Departure) zur Positionsbestimmung.
Ein spezifisches Beispiel ist der NCV75215, ein anwendungsspezifisches Standardprodukt (ASSP) für Anwendungen zur Messung des ultrasonischen Parkabstands. Er kann mit piezoelektrischen Ultraschallsensoren betrieben werden, um die Laufzeitmessung der Hindernisdistanz beim Parken von Fahrzeugen/AMRs zu ermöglichen. Er bietet hohe Empfindlichkeit und geräuscharmen Betrieb, wodurch eine Erkennung von 0,25 m bis 4,5 m auf einem standardmäßigen 75-mm-Pfosten möglich ist. Die tatsächliche Mindestdistanz wird dabei durch die Länge der Nachhallzeit bestimmt. Unter idealen Bedingungen, mit perfekt abgestimmter und angepasster externer Schaltung, kann eine Mindestdistanz von 0,2 m erreicht werden, wobei der tatsächlich erkennbare Bereich vom piezoelektrischen Ultraschallwandler und den externen analogen Bauteilen abhängt.
Dieses Gerät treibt den Ultraschallwandler über einen Transformator mit einer programmierbaren Frequenz an. Der empfangene Echo wird verstärkt, in ein digitales Signal umgewandelt, gefiltert, detektiert und mit einem zeitabhängigen Schwellenwert verglichen, der im internen RAM gespeichert ist. Die Entfernung zum Hindernis wird durch die Zeit zwischen dem Übertragungsimpuls und der Echoerkennung bestimmt. Die integrierte bidirektionale I/O-Leitung kann für die Kommunikation mit dem Master (ECU) verwendet werden. Der Master sendet I/O-Leitungsbefehle an den NCV75215 und die Daten werden über dieselbe Leitung zurückgemeldet.
Fazit
Autonome mobile Roboter (AMRs) verfügen über zahlreiche Anwendungsfälle, und ihre Einführung beschleunigt sich, wobei eine Reihe von Best Practices entsteht, um diese schnelle Einführung zu unterstützen. Zunächst ist es entscheidend, die Umgebung zu kontrollieren, um potenzielle Kollisionen zu reduzieren, denen AMRs begegnen könnten. Ein Beispiel hierfür ist die Festlegung von Wegen für AMRs/automatisierte geführte Fahrzeuge (AGVs) in Fertigungs- oder Lageranlagen. Zweitens ist es wichtig, während des Entwicklungsprozesses digitale Zwillinge einzusetzen, um genaue Anwendungsfälle einschließlich extremer Szenarien zu simulieren. Schließlich ist die Integration von Sensorfusion mit intelligenten Sensoren, Algorithmen und Modellen entscheidend. onsemi kann eine Komplettlösung für die Sensorfusion anbieten, einschließlich hochauflösender Bildgebungssysteme kombiniert mit Bildsensoren, Hochleistungs-Motorsteuerung und effizienten, kompakten Akku-Ladelösungen, die alle verschiedenen Anforderungen von AMR-Anwendungen erfüllen. Wenn Sie diesbezüglich Bedarf haben, wenden Sie sich bitte an Arrow oder onsemi, um weitere Produkt- und Anwendungsinformationen zu erhalten.
Artikel Tags