Über den Autor Chris Jacobs kam 1995 zu ADI. Während seiner Tätigkeit bei Analog Devices hatte Herr Jacobs verschiedene Positionen in den Bereichen Design Engineering, Design Management und Business Management in den Bereichen Consumer Equipment, Communications, Industry und Automotive inne. Chris Jacobs ist derzeit Vice President des Geschäftsbereichs Autonomous Transportation and Vehicle Safety bei Analog Devices. Zuvor war Jacobs Managing Director of Automotive Safety, Director of Precision Converter Products and Technology und Product Line Director für High Speed Converters and Isolation Products.
Traditionelles Fahren kann bald als archaisch bezeichnet werden. Eine disruptive Entwicklung verlagert sich von menschlichen motorisierten Fahrzeugen hin zu autonomen Fahrzeugen, die ein globales Ökosystem erfordern, um die Entwicklung zu stimulieren und einen monumentalen Strukturwandel eines hohen Prozentsatzes der Weltwirtschaft zu bewirken. Sicherheit bleibt jedoch ein großes Hindernis bei der Überwindung dieses Ökosystems, bevor das fahrerlose Dasein Realität wird.
Jeden Tag sterben weltweit mehr als 3.000 Verkehrsunfälle. Das Entfernen von Menschen aus der Gleichung ist eine Möglichkeit, dieses Problem zu lösen. Infolgedessen setzen Technologieanbieter, führende Anbieter, Erstausrüster (OEMs) und Automobilhersteller auf neue Geschäftsmodelle und setzen große Wetten, um die Reifung unabhängiger Technologien zu beschleunigen. der Schlüssel. Antriebstechnologien. Ziel ist es, eine Vision Zero zu erreichen, die den Verlust von Menschenleben durch Fahrzeuge verhindern soll, damit autonome Einsätze ihr volles Potenzial entfalten können.
Grundlegende Sensortechnologien helfen, eine breitere Palette von Fahrzeugen zu erreichen.
Fahrzeugintelligenz wird normalerweise in Autonomiegraden ausgedrückt. Level 1 und 2 sind im Wesentlichen Warnsysteme, bei denen ab Level 3 das Fahrzeug zur Unfallvermeidung eingreifen kann. Wenn das Fahrzeug auf Stufe 5 aufsteigt, wird das Lenkrad entfernt und das Auto fährt autonom. In den ersten Systemgenerationen arbeiten die Sensorsysteme, wenn Fahrzeuge mit Level-2-Funktionalität beginnen, autonom. Um vollautonome kognitive Fahrzeuge zu realisieren, wird die Anzahl der Sensoren stark erhöht. Auch die Performance und Reaktionszeiten müssen deutlich verbessert werden.
Fahrzeuge, die mit externen Sensoren ausgestattet sind, können ihre Umgebung besser wahrnehmen und sind daher sicherer. Kritische Technologien in KI-Systemen, die ein autonomes Fahrzeug steuern können, umfassen Kameras, LiDAR, RADAR, mikroelektromechanische Systeme (MEMS-Trägheit), Ultraschall und GPS. Neben der Unterstützung der Wahrnehmungs- und Navigationssysteme eines autonomen Fahrzeugs ermöglichen diese Sensoren eine bessere Überwachung der mechanischen Bedingungen (Reifendruck, Gewichtsänderung usw.) sowie anderer Wartungsfaktoren, die Motorfunktionen wie Bremsen und Fahrverhalten beeinflussen können.
Obwohl solche Sensoren und Sensorfusionsalgorithmen zur Realisierung von Zero Vision beitragen können, müssen mehrere Faktoren berücksichtigt werden, von denen der erste die Klassifizierung von Objekten ist. Aktuelle Systeme können nicht die richtige Auflösung erreichen, die für die Objektklassifizierung erforderlich ist, aber RADAR schneidet angesichts seiner Mikro-Doppler-Fähigkeiten in diesem Bereich am besten ab. Obwohl es derzeit ein Hauptmerkmal autonomer Fahrzeuge ist, wird RADAR immer häufiger eingesetzt, wenn das AEM-Mandat (automatische Notbremsung) Anfang 2020 Realität wird.
LiDAR ist seinerseits heute keine Standardfunktion in Automobilen, da seine Kosten und sein Leistungsniveau keine breitere Anwendung rechtfertigen. LiDAR bietet jedoch eine Bildauflösung, die zehnmal höher ist als die von RADAR, die erforderlich ist, um noch nuanciertere Szenen zu erkennen. Das Erreichen einer hochwertigen, hochempfindlichen Lösung mit niedrigem Dunkelstrom und geringer Kapazität ist die Schlüsseltechnologie, um den 10-nm-LiDAR-Markt zu erschließen, was zu einer weiteren Akzeptanz führen könnte. Eine Schlüsseltechnologie in diesem Bereich ist die Halbleiterstrahlsteuerung, da eine kostenintensive, hochempfindliche Photodetektortechnologie erforderlich ist, um den Markt auf 1500 nm zu treiben.
Bildnachweis: Shutterstock
(Bild: © Shutterstock)
Kamerasysteme, die häufig in Neufahrzeugen verwendet werden, stellen den Eckpfeiler der Level-2-Reihe dar. Diese Systeme funktionieren jedoch nicht in allen Anwendungsfällen (dh bei Nacht und schlechtem Wetter) gut. Letztlich sind diese Wahrnehmungstechnologien notwendig, um Systeme zur Gewährleistung der Sicherheit der Fahrzeuginsassen mit möglichst umfassenden Datensätzen zu versorgen.
Obwohl oft vernachlässigt, sind IMUs von der Schwerkraft abhängig, die unabhängig von den Umgebungsbedingungen konstant ist. Als solche sind sie sehr nützlich für die Berechnung von Todesfällen. Wenn vorübergehend kein GPS-Signal vorhanden ist, verwendet das Tally Daten aus Quellen wie Tachometer und UMIs, um die zurückgelegte Strecke und die Richtung zu erkennen und überlagert sie. hochauflösende Karten. Dies hält das kognitive Fahrzeug auf dem richtigen Weg, bis ein GPS-Signal abgerufen werden kann.
Sensorfusion kann die Nachteile von Wahrnehmungserkennungssystemen ergänzen. Dies erfordert eine intelligente Balance zwischen zentraler Verarbeitung und fortschrittlicher Verarbeitung, um die Daten an die Merge-Engine zu übertragen. LiDAR-Kameras und -Sensoren bieten eine hervorragende seitliche Auflösung, aber selbst die besten Algorithmen für maschinelles Lernen benötigen ungefähr 300 ms, um eine seitliche Bewegungserkennung mit niedrigen Fehlalarmraten durchzuführen. In aktuellen Systemen sind ungefähr 10 aufeinanderfolgende Rahmen für eine zuverlässige Erkennung mit ausreichend niedrigen Fehlalarmraten erforderlich. Diese sollte auf 1-2 aufeinanderfolgende Frames reduziert werden, um dem Fahrzeug mehr Zeit zu geben, die notwendigen Präventivmaßnahmen zu ergreifen.
Es müssen neue Technologien entwickelt und entwickelt werden, die fortschrittliche Wahrnehmungsfähigkeiten bei hohen Geschwindigkeiten ermöglichen, um vollständig autonomes Fahren sowohl in der Stadt als auch auf Autobahnen zu ermöglichen. Je mehr wir jedoch daran arbeiten, desto mehr werden wir die komplexen Anwendungsfälle identifizieren, die abgedeckt werden sollen. Darüber hinaus wird die Trägheitsnavigation in Zukunft ein wesentlicher Aspekt autonomer Fahrzeuge sein, da diese Systeme unempfindlich gegenüber Umweltbedingungen und als Ergänzung zu den in bestimmten Situationen modifizierbaren Wahrnehmungssensoren notwendig sind.
Die Rolle von ADAS und volle Autonomie.
Ein weiterer wichtiger nichttechnischer Faktor, der bei der Erreichung des Vision Zero-Ziels berücksichtigt werden muss, besteht darin, ein Gleichgewicht zwischen dem, was die Technologie leisten kann, und dem, was die Gesetzgebung tun wird, zu finden.
Heute verfolgen Branchenführer zwei Wege: Advanced Driver Assistance Systems (ADAS) und vollautonome Fahrzeuge. Obwohl sich die Automobilindustrie sicherer fühlt als ADAS als vollautonome Fahrzeuge, ist die ADAS-Technologie noch nicht perfekt.
Tier-1-Automobilzulieferer und -Verkäufer setzen derzeit auf Tier-2- oder Tier-3-Selbstversorgung, weil sie dort gute Geschäftsmöglichkeiten sehen. Die Gesetzgebung zu hochgradig autonomen Fahrzeugen muss noch definiert werden, und andere Bereiche wie Versicherungen und Regulierung müssen weiterentwickelt werden, um einen geeigneten Rahmen zu schaffen. Robotertaxis zum Beispiel stehen kurz vor der Einführung in mehreren Städten in den Vereinigten Staaten. Diese Fahrzeuge werden wahrscheinlich zu den bereits vorhandenen größeren Tier-2- oder Tier-3-Anwendungen hinzugefügt.
Es bleibt noch viel zu tun, um die Leistung bestimmter Sensortechnologien wie Radar und LiDAR sowie verschiedener Algorithmen, die Autos und Bedingungen auslösen, zu verbessern. Wenn wir 2020 und darüber hinaus erreichen, wo AEB zu einem Standardmerkmal von Autos wird, haben wir offiziell damit begonnen, auf Autonomie der Stufe 3 umzusteigen. Es sind jedoch weitere Verbesserungen erforderlich, um vom Standort der Autohersteller dorthin zu gelangen, wo er sein sollte.
Bildnachweis: Shutterstock
(Bild: © Shutterstock)
OEMs setzen wirklich auf Zwei-Wege-Dynamik. Bei Robo-Taxis sehen sie beispielsweise die Wirtschaft dieses Unternehmens völlig anders als die des Automobilmarktes, da es sich um Carsharing-Dienste handelt. Eine der anderen Dynamiken dieses spezifischen Marktes ermöglicht es OEMs, fortschrittliche Technologien in diesen Fahrzeugen zu verwenden, um Hardware, Software und das Sensorfusions-Framework zu entwickeln. Während die Erstausrüster mehr Vertrauen in ADAS haben, gibt es mehr Fälle, in denen separate Unternehmen gegründet wurden, um der erhöhten Fahrzeugautonomie Rechnung zu tragen. Einige OEMs verfügen jedoch nicht über das Forschungs- und Entwicklungskapital, um diesen Kurs zu belegen, sondern arbeiten mit anderen Unternehmen zusammen, die sich auf autonome Fahrtechnologien spezialisiert haben.
In der Mitte dieses Zwei-Wege-Systems befindet sich die 3+-Stufe der Autonomie. Obwohl nicht vollständig eigenständig, ist Level 3+ fortschrittlicher als bestehende ADAS-Systeme und kombiniert fortschrittliche Leistungsmerkmale mit praktischen Funktionen. Es werden viel bessere Sensoren benötigt, um Anwendungen der Stufe 3+ zu unterstützen, wie beispielsweise Hochgeschwindigkeits-Autopilot und AEB+, wenn das Fahrzeug bremst, aber auch ausweicht, um Unfälle zu vermeiden. Level 3+ bietet hochgradig autonome Technologien, einschließlich eines kritischen Sensor-Frameworks, das den Grundstein für zukünftige vollautonome Fahrzeuge legt.
Obwohl wir noch keine vollständige Autonomie erreicht haben, bringt uns die Automatisierung von Level 3+ dem Ziel von Vision Zero näher, das Funktionalität und Leistung vereint und die Entwicklungen beider kombiniert. Wege zur Entwicklung eines sicheren Transportökosystems. Dies ist der Wendepunkt, an dem unabhängige Technologie viel leistungsfähiger und der Öffentlichkeit zugänglich wird.
Reise zur Vision Null
Ganz gleich, wie verschiedene Branchenführer Vision Zero angehen, eine Vielzahl leistungsstarker Navigations- und Wahrnehmungssensoren hilft uns dabei, dorthin zu gelangen. Darüber hinaus sorgen die von diesen Sensoren generierten hochwertigen Daten dafür, dass die Entscheidungssoftware jedes Mal die richtige Entscheidung trifft. Der Weg zur Vision Zero und zur vollständigen Autonomie folgt demselben Weg. Dies muss jeder Akteur im Ökosystem in den kommenden Jahren berücksichtigen, denn das Ziel der autonomen Fahrzeugentwicklung ist es, eine neue Ära der Technologie und des Geschäftsmodells einzuläuten sowie Leben zu retten.
Chris Jacobs, Vice President of Autonomous Transportation and Automotive Safety bei Analog Devices