Autonomes Fahren bei schlechten Sichtverhältnissen

Wenn die Sicht verschwindet, beginnt die eigentliche Herausforderung des autonomen Fahrens. Nebel, Schnee und Gischt gehören zu den letzten großen Barrieren auf dem Weg zum sicheren selbstfahrenden Fahrzeug.

Um KI-Systeme auch unter extremen Sichtbedingungen sicher zu machen, entwickelt das ILM realitätsnahe Simulationsverfahren, mit denen kritische Fahrszenen künstlich erweitert und gezielt trainiert werden können. So entsteht die Grundlage für zuverlässige autonome Fahrzeuge – auch dann, wenn die Sicht versagt.

Bedeutung des autonomen Fahrens

Autonomes Fahren bietet vielfältige ökonomische Einsatzmöglichkeiten rund um die Uhr. Dazu zählen beispielsweise der Gütertransport per Lkw, ÖPNV-Shuttlebusse, Robotaxis, Zustelldienste, landwirtschaftliche Anwendungen sowie militärische Einsätze.

Darüber hinaus kann autonomes Fahren die Lebensqualität erheblich steigern. Ältere Menschen, die nicht mehr selbst fahren können, behalten ihre Mobilität und bleiben länger aktiv in sozialen Kontakten. Auf diese Weise gewinnen sie zusätzliche Lebensjahre, in denen sie persönlich mit ihrer Umwelt verbunden bleiben.

International entwickelt sich das Feld unterschiedlich: Während China rasante Fortschritte bei der Multimedia-Vernetzung von Fahrzeugen macht und die USA bereits seit mehreren Jahren Robotaxis auf den Straßen testen, ist Deutschland führend in der Forschung zum autonomen Fahren unter Schlechtwetterbedingungen. Als traditionelles Automobilland bietet sich Deutschland die Chance, seine Rolle als Anbieter hochentwickelter Engineering-Lösungen weiter zu stärken.

Selbstfahrende Fahrzeuge: Lastwagen, Panzer und autonomer PKW

Ausgangspunkt und Aufgabenstellung: Autonomes Fahren bei Schlechtwetter

Im Jahr 2024 entspricht der Stand der Technik beim autonomen Fahren Level 3* bei Geschwindigkeiten bis 95 km/h. Möglich ist dies vor allem auf Autobahnen hinter einem vorausfahrenden Fahrzeug bei Tag und klarer Sicht – ein typischer Anwendungsfall für Lkw. Auf Anforderung muss der Fahrer jederzeit bereit sein, die Kontrolle zu übernehmen.

Eine der letzten großen Herausforderungen liegt in der sicheren Bewältigung von Schlechtwetterbedingungen wie Nebel, Schnee oder Gischt. Solche Situationen erschweren die Sicht auf Verkehrsteilnehmer und Passanten erheblich und sind in den bisherigen Fahrszenen kaum vertreten. Das Fehlen ausreichender Daten erschwert das KI-Training und kann zu Systemversagen führen, etwa durch verlangsamtes Fahren, plötzlichen Stillstand oder unvorhersehbare Fahrmanöver.

Die zentrale Aufgabe besteht daher darin, bestehende Fahrszenen künstlich mit Nebel in unterschiedlicher Qualität zu erweitern. Diese augmentierten Szenen dienen dem Training von KI-Systemen und der Prüfung der Sensorsysteme. Aufgrund der Vielzahl möglicher Szenarien sind Simulationen unverzichtbar für die Zulassung autonomer Systeme.

Aufgrund seiner fundierten Kenntnisse über die Lichtausbreitung in streuenden Medien wurde das ILM als Projektpartner gewählt. Das ILM ist in der Lage, die Lichtausbreitung in realen Medien zu erfassen, diese durch Simulation virtuell oder real zu reproduzieren sowie Rechenmodelle zu verifizieren und zeitlich zu optimieren.

---
* 2024 Zulassung des Merzedes-Benz Drive Pilot 95 in DE und USA Nevada, Level 4 Fahrt wird in Peking erprobt.

Das Cockpit eines autonomen PKWs mit einem angedeuteten Fahrer sowie dem Geschwindigkeitsbegrenzungszeichen 95 km/h

Das Projekt AI-SEE und die Rolle des ILM

Im EU-geförderten Projekt AI-SEE haben unter der Konsortialführung von Mercedes-Benz führende Automobilzulieferer, Softwarefirmen und Forschungseinrichtungen ein mehrschichtiges Wahrnehmungssystem entwickelt, das fortschrittliche tiefe neuronale Netzwerke mit innovativen Sensortechnologien kombiniert.

Die Erzeugung eines Trainingsdatensatzes mittels Monte-Carlo-Simulation (MC, Ansys) ist mit einem sehr hohen Rechenaufwand verbunden und für den hier betrachteten Anwendungsfall nicht praktikabel. Auf Basis der analytischen ILM-Lösung reduziert sich der Rechenaufwand auf wenige Minuten und ermöglicht perspektivisch sogar eine Echtzeitfähigkeit (≈ 20 fps).

Als Vorwissen durfte das ILM lediglich Daten nutzen, die das Fahrzeug erzeugt (Tiefenkarte aus LiDAR, RGB-Bild). Das synthetisch generierte Modell der Szene diente dabei der Verifizierung der analytischen Lösung.

Das Schaubild zeigt verschiedenen Rollen und Abläufe im Rahmen des AI-SEE-Projekts

Analytische Lösung der Strahlungstransportgleichung für Nebel

Der zentrale Erkenntnisgewinn des Projekts besteht in der analytischen Lösung der Strahlungstransportgleichung zur Beschreibung der Lichtausbreitung. Dabei werden sowohl Einfach- als auch Zweifachstreuung berücksichtigt – aus der Sicht eines Fahrzeugs bei Tageslicht oder durch künstliche Beleuchtungsquellen in der Szene entlang einer Beobachtungsrichtung.

In Kombination mit einer passenden Implementierung des Algorithmus ist es nun möglich, die Lichtausbreitung in Echtzeit zu berechnen. Vergleiche mit Monte-Carlo-Simulationen zeigen zudem, dass Dreifachstreuung in Kamerabildern vernachlässigt werden kann. Sie tritt nur bei extrem hoher Nebeldichte auf, die einer undurchsichtigen Wand* entsprechen würde.

* Unter dieser Bedingung könnte auch sonst niemand selbst fahren

die analytische Lösung der Strahlungstransportgleichung für die Lichtausbreitung unter Berücksichtigung der Einfach- sowie Zweifachstreuung aus der Sicht eines Beobachters (Fahrzeug) bei Tageslicht oder durch Beleuchtungsquellen in der Szene entlang einer Beobachtungsrichtung.

Physikalische Modellierung des Nebels

Wesentliche Ergebnisse aus dem AI-SEE-Projekt:

  • Datenbank optischer Eigenschaften von Nebel
    Für die natürlich vorkommenden Nebelarten wurde eine Datenbank optischer Eigenschaften aufgebaut. Die Nebelarten umfassen unter anderem Advektionsnebel (entsteht durch seitlich bewegte Luftmassen), Strahlungsnebel (entsteht nachts durch Abkühlung des Bodens) sowie maritimen Nebel (Küstennebel, der entsteht, wenn Luft vom wärmeren Wasser nachts über eine abkühlende Landmasse strömt).
     
  • Für die jeweiligen Tröpfchenverteilungen wurden die Spektren der Absorptions- und Streukoeffizienten, der Phasenfunktion* sowie der Müller-Matrizen** ermittelt. Abhängig von der Entstehungsart des Nebels und den Umgebungsbedingungen existieren mehrere Moden (siehe Abbildung zum Strahlungsnebel), die durch modifizierte Gammaverteilungen mit einer mittleren Tropfengröße charakterisiert sind. Für diese Moden wurden ebenfalls die optischen Eigenschaften bestimmt, wodurch auch die Simulation von Mischformen ermöglicht wird.

* Phasenfunktion: beschreibt die Winkelabhängigkeit der Streuung. Sie kann in Monte-Carlo-Simulationen normiert und als Wahrscheinlichkeitsdichte interpretiert werden.
** Müller-Matrizen: erweitern die Phasenfunktion auf polarisiertes Licht. Mathematisch handelt es sich um ein Produkt aus der Müller-Matrix und einer Drehmatrix, wobei die ursprüngliche Phasenfunktion einem Matrixelement entspricht.

Strahlungsnebel Partikeldichte Kurvendiagramm Abbildung 1/2Abbildung Strahlungsnebel, abhängig von der Entstehungsart des Nebels und den jeweiligen Umgebungsbedingungen exisitieren mehrere Moden

Strahlungstransportgleichung und ihre Anwendung im autonomen Fahren

  • Die Strahlungstransportgleichung (RTE) beschreibt die Lichtausbreitung in einem streuenden Medium. Eine allgemeine, geschlossene Lösung konnte aufgrund der komplexen mathematischen Struktur bislang nicht gefunden werden. Streng genommen müsste die Lösung über die Maxwell-Gleichungen erfolgen, doch in Anwendungen, in denen die Wellennatur des Lichts vernachlässigt werden kann, liefert die RTE eine gute Näherung.
     
  • Die Neumann-Serie ist eine formale Lösung der RTE in Form einer unendlichen Reihe, bei der jeder Term einem einzelnen Streuakt entspricht. Terme höherer Ordnung werden durch mehrfache Integrale über die Raumwinkel beschrieben. In der Praxis tragen Terme ab dem dritten Streuakt meist nur noch geringfügig zur Gesamtausbreitung bei und können für die Berechnung der Sensorsignale vernachlässigt werden.
     
  • Im realen Nebel ist der Abstand zwischen zwei Nebeltropfen zwar klein, die Tropfen selbst sind jedoch ebenfalls klein, sodass der erste und folgende Streuakt im Mittel erst nach 20-30 m auftreten. Dies führt zu einem günstigen Verhältnis von Absorptions- und Streukoeffizienten, sodass die analytische Lösung der ersten beiden Streuakte für die Berechnung der Sensorsignale ausreichend ist.
  • Zur Validierung der analytischen Lösung der Zweifachstreuung wurde der kritischste Fall eines monodispersen Nebels anhand von Monte-Carlo-Simulationen geprüft. Die sehr gute Übereinstimmung liegt im Bereich des numerischen Rauschens.

    Die Radiance beschreibt die optische Leistung, die innerhalb eines bestimmten Betrachtungswinkels und einer definierten Zeit durch einen Querschnitt tritt. Durch geeignete Integrationsintervalle lassen sich daraus für beliebige Sensoren (LiDAR, RGB-Kamera usw.) die endgültigen Sensorsignale und die im Nebel entstehenden „Bilddaten“ bestimmen.

    In der Grafik wird die Radiance zeitaufgelöst dargestellt. Monodisperse 5 µm-Tröpfchen erzeugen die gezeigte Oszillation des physikalisch korrekten Signals (Green’sche Funktion).

n der Graphik wird die Radiance (Ordinate) entlang des Lichtweges (Abszisse, ct im m) beschrieben.

Physikalische Modellierung eines Kamerabildes

Einfluss der Phasenfunktion auf die Kameraintensität

Die Nebelarten Strahlungsnebel und Advektionsnebel unterscheiden sich in ihrer Rückwärtsstreuung. Strahlungsnebel zeigt ein einzelnes Maximum bei 140° zur Kameraachse, während Advektionsnebel zwei Maxima aufweist, das zweite bei 125° deutlich schärfer. Dieses Verhalten spiegelt sich direkt in den simulierten Kameraintensitäten wider. In beiden Fällen erfolgt die Beleuchtung durch eine koaxial zur Kamera ausgerichtete, kollimierte Kreislichtquelle.

Die Abbildung rechts oben zum Strahlungsnebel zeigt die Phasenfunktion bei 550 nm und die simulierte normierte Kameraintensität für eine koaxiale, kollimierte Lichtquelle.
Die Abbildung darunter zum Advektionsnebel zeigt die Phasenfunktion und die simulierte normierte Kameraintensität, wobei ein zweites, deutliches Rückwärtsmaximum bei 125° erkennbar ist.

 

Einfluss der Phasenfunktion auf die Kamerainstensität

Nebelbogen aus wellenlängenaufgelösten Phasenfunktionen

Mithilfe wellenlängenaufgelöster Phasenfunktionen lassen sich komplexe atmosphärische Streuphänomene wie der Nebelbogen realistisch darstellen. Für beide betrachteten Nebelarten ist der Nebelbogen bei etwa 140° zur optischen Achse der Kamera sichtbar. Beim Strahlungsnebel weist die Phasenfunktion in diesem Winkelbereich ein breites Maximum mit geringer spektraler Abhängigkeit auf, was zu einem breiten, weitgehend farblosen Nebelbogen führt. Im Gegensatz dazu zeigt Advektionsnebel ein schmaleres, spektral strukturiertes Maximum, das sich in einem engeren Nebelbogen mit schwach ausgeprägten Farbsäumen äußert. 
Zur besseren Sichtbarkeit wurde die Helligkeit der Darstellungen manuell angepasst.

Die Abbildung rechts oben zeigt die wellenlängenabhängige Phasenfunktion und das Rendering des Nebelbogens. Die Helligkeit wurde zur besseren Sichtbarkeit angepasst. Darunter zu sehen ist die Phasenfuntion sowie das Rendering des Nebelbogens mit leicht ausgeprägten Farbsäumen.

 

Nebelbogen

AI-SEE Projekt: SWIR- vs. NIR-LiDAR

  • Hinsichtlich der Gefährdung der Netzhaut sind die zulässigen Bestrahlungsstärken bei 1550 nm mehrere Größenordnungen höher als im NIR. Trotz der kurzzeitigen Exposition durch ein fahrendes LiDAR-System, setzen potentielle Augenschäden dem LiDAR-Design Grenzen. NIR-Systeme haben durch die anwendbare CMOS-Technologie (Si) Kostenvorteile.
     
  • Maßgeblich für den Signalverlust (Extinktion µt, braune Linie) eines LiDAR-Signals ist jedoch nicht allein die Absorption, sondern auch die Streuung (µs blaues Spektrum, linke Ordinate), welche bei 1450 nm ein Minimum zeigt.
  • Durch die analytische Lösung konnte gezeigt werden, dass bei relevanten Nebeldichten selbst in großen Entfernungen (200 m) Signaleinbußen gering sind und daher hinter dem Vorteil, die Umgebung stärken beleuchten zu können, zurück treten. 
Analytische Lösung: Ballistisches Licht in großen Entfernungen

Augmentation eines synthetisch erzeugten Kamerabildes

Nebel-Augmentierung von Bilddaten:

  • Input: Bild, Tiefenkarte, Projektionsmatrix*.
    Diese sind auch in realen Datensätzen verfügbar. Topographische Informationen des synth. Modells wurden nicht genutzt.
     
  • Verwendet am ILM entwickelte analytische Lösungen für (erkannte) aktive Quellen mit Koschmieder-Formel** bzgl. Sichtweite.
     
  • Links: Ausgangssituation
    Rechts daneben: augmentiert, verschiedene Sichtweiten (400 m, 200 m, 100 m, 50 m)
    Durch die Augmentation mit unterschiedlich ausgeprägtem Nebel kann die KI gezielt auf diese neuen Bedingungen trainiert werden – und die veränderte Situation entsprechend erkennen.

* Die Projektionsmatrix enthält die Parameter der Sensorkonfiguration 
** Die Koschmieder-Formel definiert konservativ die Sichtweite als die Distanz, bei der noch 2% eines Lichtkontrasts wahrnehmbar sind.

 

Die folgenden Videos zeigen zwei Beispiele für Nebel-Augmentierung, die im Rahmen des AI-SEE-Projekts entstanden sind:

Augmentierung von LiDAR-Signalen (ToF-waveforms)

  • Abstand, Pulsform und Reflektanz werden aus Input (Ansys Avx) bestimmt.
  • Berechnung des Signals mit Zielgeometrie und Nebeltyp mittels LiDAR-Gleichung und analytischer Lösungen für Einfach- und Zweifachstreuung
  • Unten links: Beispiel aus Avx-Frame, unten rechts: Verifikation mit MC

I0 (=Signal ohne Nebel), Iaug (analytic) (= analytische Lösung in Nebel). Die Verifikation durch Monte-Carlo-Simulation (=Iaug (MC)) zeigt eine gute Übereinstimmung. Für die gewählte Konfiguration (links) wäre die Abstandmessung über das Maximum im Nebel mehrdeutig, sodass eine Auswertung des Signalverlaufs erforderlich ist.

 

links: Beispiel aus Avx-Frame, rechts: Verifikation mit MC

Die nächste Etappe: durch angewandte Photonik freie Fahrt!

Sie möchten mehr Details zum Projekt? Laden Sie hier den ausführlichen Projektbericht als PDF herunter. Das ILM-Team freut sich mit Ihnen über die physikbasierte Simulation von Schlechtwetter-Szenen zum Training neuronaler Netze für das autonome bzw. assistierte Fahren zu sprechen. Auch andere Anwendungen, zum Beispiel erschwerte Sichtbedingungen in OPs, Erkennung von Objekten unter streuenden Medien etc. wären potentiell interessant.

Ansprechpartner

Prof. Dr. Alwin Kienle am ILM

Prof. Dr. Alwin Kienle

Abteilungsleiter Quantitative Bildgebung / Sensorik

Tel: +49 (0)731 / 1429 224
Alexander Hack am ILM

Alexander Hack

Vorstandsvorsitzender

Tel: +49 (0)731 / 1429 111

Datenschutz-Einstellungen

Cookie Einstellungen
Diese Website verwendet Cookies die die Ihnen Services ermöglichen, die von externen Anbietern angeboten werden, wie z.B. YouTube oder Google Maps. Rechtsgrundlage ist hier Art. 6 DSGVO (1) a.

Sie können hier der anonymisierten Erfassung Ihres Nutzerverhaltens durch MATOMO widersprechen. Zu diesem Zweck speichern wir einen Cookie auf Ihrem Computer, um diese Entscheidung auch bei späteren Besuche zu respektieren.

Bitte beachten Sie, dass abhängig Ihrer Einstellungen einige Funktionen ggf. nicht zur Verfügung stehen.

Mehr Informationen finden Sie in unserer Datenschutzerklärung

Matomo-Einstellungen

Achtung: Beim Widerspruch des Trackings wird ein Matomo Deaktivierungs-Cookie gesetzt, der sich Ihren Widerspruch merkt.