Was es braucht, um die „Vision Null“ im Automobilbereich zu erreichen

Was es braucht, um die „Vision Null“ im Automobilbereich zu erreichen
Über den Autor Chris Jacobs kam 1995 zu ADI. Während seiner Zeit bei Analog Devices hatte Herr Jacobs verschiedene Positionen in den Bereichen Design Engineering, Design Management und Business Management in den Bereichen Consumer Equipment, Kommunikation, Industrie und Automotive inne. Chris Jacobs ist derzeit Vizepräsident der Geschäftseinheit Autonomous Transportation and Vehicle Safety bei Analog Devices. Zuvor war Jacobs General Manager für Automotive Safety, Director für Precision Converter Products and Technology und Product Line Director für Hochgeschwindigkeitswandler und Isolationsprodukte. Traditionelles Fahren könnte bald als archaisch gelten. Eine disruptive Entwicklung ist die Verlagerung von Fahrzeugen mit menschlichem Antrieb hin zu autonomen Fahrzeugen, die ein globales Ökosystem benötigen, um die Entwicklung anzukurbeln und einen monumentalen Strukturwandel für einen großen Teil der Weltwirtschaft herbeizuführen. Allerdings bleibt die Sicherheit eine große Hürde bei der Überwindung dieses Ökosystems, bevor das fahrerlose Leben Realität wird. Jeden Tag sterben auf der Welt mehr als 3.000 Verkehrsunfälle. Eine Möglichkeit, dieses Problem zu lösen, besteht darin, den Menschen aus der Gleichung herauszunehmen. Infolgedessen setzen Technologieanbieter, führende Anbieter, Originalgerätehersteller (OEMs) und Automobilhersteller auf neue Geschäftsmodelle und setzen stark darauf, die Reifung unabhängiger Technologien zu beschleunigen. der Schlüssel. Antriebstechnologien. Das Ziel besteht darin, die Vision Null zu erreichen, die darauf abzielt, den durch Fahrzeuge verursachten Verlust von Menschenleben zu verhindern, sodass autonome Einsätze hoffentlich ihr volles Potenzial entfalten können.

Grundlegende Sensortechnologien tragen dazu bei, eine größere Fahrzeugreichweite zu erreichen.

Fahrzeugintelligenz wird häufig in Reichweitenstufen ausgedrückt. Bei den Stufen 1 und 2 handelt es sich größtenteils um Warnsysteme, bei denen das Fahrzeug ab Stufe 3 unfallverhindernd agieren kann. Wenn das Fahrzeug Level 5 erreicht, wird das Lenkrad entfernt und das Auto fährt autonom. In den ersten Systemgenerationen, wenn Fahrzeuge über Level-2-Funktionalität verfügen, arbeiten die Sensorsysteme autonom. Um vollständig autonome kognitive Fahrzeuge zu erreichen, wird die Anzahl der Sensoren stark erhöht. Auch seine Leistung und Reaktionszeiten sollen deutlich verbessert werden. Fahrzeuge, die mit externen Sensoren ausgestattet sind, können ihre Umgebung besser wahrnehmen und sind daher sicherer. Zu den entscheidenden Technologien in KI-Systemen, die in der Lage sind, ein autonomes Fahrzeug zu navigieren, gehören Kameras, LiDAR, RADAR, mikroelektromechanische Systeme (MEMS-Trägheit), Ultraschall und GPS. Diese Sensoren unterstützen nicht nur die Wahrnehmungs- und Navigationssysteme eines autonomen Fahrzeugs, sondern ermöglichen auch eine bessere Überwachung mechanischer Bedingungen (Reifendruck, Gewichtsveränderung usw.) sowie anderer Wartungsfaktoren, die Motorfunktionen wie Bremsen und Fahrverhalten beeinflussen können. Obwohl solche Sensoren und Sensorfusionsalgorithmen zur Verwirklichung von Vision Zero beitragen können, müssen mehrere Faktoren berücksichtigt werden, der erste davon ist die Objektklassifizierung. Aktuelle Systeme können nicht die richtige Auflösung erreichen, die für die Objektklassifizierung erforderlich ist, aber RADAR schneidet aufgrund seiner Mikro-Doppler-Fähigkeiten in diesem Bereich besser ab. Obwohl RADAR derzeit eine Mainstream-Funktion in autonomen Fahrzeugen ist, wird es immer häufiger eingesetzt, da das AEM-Mandat (Automatic Emergency Braking) Anfang 2020 in die Realität umgesetzt wird. LiDAR wiederum ist heute aufgrund seiner Kosten und seines Umfangs keine Standardfunktion in Autos Leistung rechtfertigen keine breitere Akzeptanz. LiDAR bietet jedoch eine Bildauflösung, die zehnmal höher ist als die von RADAR, was für die Erkennung noch nuancierterer Szenen erforderlich ist. Die Erzielung einer hochwertigen, hochempfindlichen Lösung mit niedrigem Dunkelstrom und geringer Kapazität ist die Schlüsseltechnologie, um den LiDAR-Markt bei 10 nm zu ermöglichen, was zu seiner weiteren Verbreitung führen könnte. Eine Schlüsseltechnologie in diesem Bereich ist die Halbleiterstrahlüberwachung, da hochempfindliche und kostenintensive Fotodetektortechnologie erforderlich ist, um den Markt bei 1500 nm voranzutreiben.

Bildnachweis: Shutterstock Bildquelle: Shutterstock (Bild: © Shutterstock) Kamerasysteme, die üblicherweise in Neufahrzeugen verwendet werden, sind der Grundstein für die Autonomie der Stufe 2. Diese Systeme funktionieren jedoch nicht in allen Anwendungsfällen (z. B. bei Nacht und schlechtem Wetter) gut. Letztendlich werden diese Sensortechnologien benötigt, um den umfassendsten Datensatz für Systeme bereitzustellen, die die Sicherheit der Fahrzeuginsassen gewährleisten sollen. Obwohl oft vernachlässigt, basieren IMUs auf der Schwerkraft, die unabhängig von den Umgebungsbedingungen konstant ist. Daher sind sie sehr nützlich für die Berechnung von Kills. Bei vorübergehendem Fehlen eines GPS-Signals nutzt die Berechnung Daten von Quellen wie Tachometern und UMIs, um die zurückgelegte Strecke und die Richtung zu ermitteln und diese zu überlagern. hochauflösende Karten. Dadurch bleibt das kognitive Fahrzeug auf der richtigen Flugbahn, bis ein GPS-Signal wiederhergestellt werden kann. Sensorfusion kann die Nachteile von Wahrnehmungssensorsystemen kompensieren. Dies erfordert eine intelligente Balance zwischen Kernverarbeitung und erweiterter Verarbeitung, um die Daten an die Merge-Engine weiterzuleiten. LiDAR-Kameras und -Sensoren bieten eine hervorragende seitliche Auflösung, aber selbst die besten Algorithmen für maschinelles Lernen benötigen etwa 300 ms, um eine seitliche Bewegungserkennung mit geringen Fehlalarmraten durchzuführen. In aktuellen Systemen sind für eine zuverlässige Erkennung mit ausreichend geringen Fehlalarmraten etwa 10 aufeinanderfolgende Frames erforderlich. Dies sollte auf 1-2 aufeinanderfolgende Frames reduziert werden, um dem Fahrzeug mehr Zeit zu geben, die notwendigen vorbeugenden Maßnahmen zu ergreifen. Neue Technologien, die erweiterte Wahrnehmungsfähigkeiten bei hohen Geschwindigkeiten ermöglichen, müssen entwickelt und weiterentwickelt werden, um ein vollständig autonomes Fahren sowohl in der Stadt als auch auf der Autobahn zu ermöglichen. Je mehr wir jedoch daran arbeiten, desto mehr werden wir die komplexen Anwendungsfälle identifizieren, die abgedeckt werden. Darüber hinaus wird die Trägheitsnavigation ein wesentlicher Aspekt autonomer Fahrzeuge für die Zukunft sein, da diese Systeme unempfindlich gegenüber Umweltbedingungen sind und als Ergänzung zu Wahrnehmungssensoren erforderlich sind, die in bestimmten Situationen modifiziert werden können.

Die Rolle von ADAS und voller Autonomie.

Ein weiterer wichtiger nichttechnischer Faktor, der bei der Verwirklichung des Vision-Zero-Ziels berücksichtigt werden muss, ist die Herstellung eines Gleichgewichts zwischen den Möglichkeiten der Technologie und den Möglichkeiten der Gesetzgebung. Heute verfolgen Branchenführer zwei Wege: fortschrittliche Fahrerassistenzsysteme (ADAS) und vollständig autonome Fahrzeuge. Obwohl die Automobilindustrie ADAS für sicherer hält als vollständig autonome Fahrzeuge, ist die ADAS-Technologie immer noch nicht perfekt. Tier-1-Automobilzulieferer und Zulieferer konzentrieren sich derzeit auf die Tier-2- oder Tier-3-Autarkie, weil sie dort gute Geschäftsmöglichkeiten sehen. Die Gesetzgebung für hochautonome Fahrzeuge muss noch definiert werden und andere Bereiche wie Versicherungen und Regulierung müssen weiterentwickelt werden, um einen geeigneten Rahmen zu schaffen. Beispielsweise stehen Robotertaxis kurz vor ihrem Debüt in mehreren Städten der USA. Diese Fahrzeuge werden wahrscheinlich zu den größeren bestehenden Tier-2- oder Tier-3-Anwendungen hinzugefügt. Es bleibt noch viel zu tun, um die Leistung spezifischer Erkennungstechnologien wie Radar und LiDAR sowie verschiedener Algorithmen, die Autos und Bedingungen auslösen, zu verbessern. Wenn wir das Jahr 2020 und darüber hinaus erreichen, wo AEB zur Standardausstattung in Autos wird, beginnen wir offiziell mit der Umstellung auf Autonomie der Stufe 3. Es sind jedoch weitere Verbesserungen erforderlich, um die Automobilhersteller von ihrem aktuellen Stand dorthin zu bringen, wo sie sein sollten.

Bildnachweis: Shutterstock Bildnachweis: Shutterstock (Bild: © Shutterstock) OEMs nutzen die wechselseitige Dynamik wirklich. Sie sind beispielsweise bei Robotertaxis der Ansicht, dass sich die Wirtschaft dieses Unternehmens völlig von der des Automobilmarktes unterscheidet, da es sich um Car-Sharing-Dienste handelt. Eine der anderen Dynamiken dieses spezifischen Marktes ermöglicht es OEMs, fortschrittliche Technologien in diesen Fahrzeugen zu nutzen, um Hardware, Software und das Sensorfusions-Framework zu entwickeln. Während OEMs mehr Vertrauen in ADAS haben, gibt es auch mehr Fälle, in denen separate Unternehmen gegründet wurden, um größere Fahrzeugreichweiten zu ermöglichen. Einige OEMs verfügen jedoch nicht über das Forschungs- und Entwicklungskapital, um diesen Kurs zu belegen, und arbeiten stattdessen mit anderen Unternehmen zusammen, die sich auf autonome Fahrtechnologien spezialisiert haben. In der Mitte dieses Zwei-Wege-Systems liegt die Autonomiestufe 3+. Obwohl Level 3+ nicht völlig eigenständig ist, ist es fortschrittlicher als bestehende ADAS-Systeme und kombiniert fortschrittliche Leistungsmerkmale mit praktischen Funktionen. Zur Unterstützung von Level-3+-Anwendungen wie Hochgeschwindigkeits-Autopilot und AEB+ sind weitaus bessere Sensoren erforderlich, wenn das Fahrzeug bremst, aber auch ausweicht, um Unfälle zu vermeiden. Level 3+ verfügt über hochautonome Technologien, einschließlich eines kritischen Sensor-Frameworks, das den Grundstein für zukünftige vollständig autonome Fahrzeuge legt. Obwohl wir keine völlige Autonomie erreicht haben, bringt uns die Automatisierung von Level 3+ dem Ziel der Vision Zero näher, die Funktionalität und Leistung vereint und die Entwicklungen beider vereint. Möglichkeiten zur Entwicklung eines sicheren Transportökosystems. Dies ist der Wendepunkt, an dem unabhängige Technologie wesentlich leistungsfähiger und für die Öffentlichkeit verfügbar wird.

Reise zur Vision Null

Ganz gleich, wie unterschiedliche Branchenführer Vision Zero angehen, eine Vielzahl leistungsstarker Navigations- und Wahrnehmungssensoren helfen uns dabei, dieses Ziel zu erreichen. Darüber hinaus stellen die hochwertigen Daten dieser Sensoren sicher, dass die Entscheidungssoftware jederzeit die richtige Entscheidung trifft. Der Weg zur Vision Zero und zur vollständigen Autonomie verläuft auf demselben Weg. Jeder Akteur im Ökosystem sollte dies in den kommenden Jahren im Hinterkopf behalten, denn das Ziel der Entwicklung autonomer Fahrzeuge besteht darin, eine neue Ära der Technologie und des Geschäftsmodells einzuleiten und Leben zu retten. Chris Jacobs, Vizepräsident für autonomen Transport und Fahrzeugsicherheit bei Analog Devices