• Sonnenlicht im Tank

    Wie agile Entwicklungsmethoden helfen, die Reichweitenangst bei Elektroautos zu besiegen

  • Bat-Bike auf zwei Rädern

    Bat-Bike

    Futuristisches Zweirad Konzept mit Potenzial für die Serie

  • EDAG SOULMATE

    WENN DAS AUTO PLÖTZLICH DAS BESSERE SMARTPHONE IST

  • Intelligentes Licht - Scheinwerfer mit hohem IQ

Tod in der Nebelwand

Wie künstliche Intelligenz uns zukünftig sicher durch den Nebel bringt

Wer kennt ihn nicht. Den Fahrschulfilm-Klassiker „Tod im Nebel“. Angsteinflößend, bewegend und nach einer wahren Begebenheit. Die Münchberger Senke gilt als Schauplatz einer der größten Massenkarambolagen in der deutschen Geschichte. Innerhalb weniger Minuten fuhren auf der A9 120 Autos ineinander. Zehn Menschen starben. Die Ursache: Starker Nebel. 

Unser Leben in künstlicher Hand

26 Jahre nach dem tragischen Unfall, reden wir von einer autonomen Mobilität, von fahrerlosem Fahren. Die Voraussetzungen dafür: Fahrerassistenzsysteme, auf die wir Menschen uns jederzeit verlassen können. Doch das ist der Knackpunkt. Jederzeit heißt auch, zu jeden Wetterbedingungen. Bislang funktionieren aktuelle Fahrerassistenzsysteme jedoch nur mittels teurer Radar- oder Lidartechnik, welche im Falle des Radars meist nur den oberen Fahrzeugsegmenten vorbehalten sind. Denn die kamerabasierten Videodaten aus Fahrzeugen können ohne Bildverarbeitung genauso wenig wie wir Menschen die Gefahren im Nebel erkennen. Damit sich dies zukünftig ändert, erarbeitet Michael Gann in seiner Masterarbeit bei der EDAG in Lindau ein neues Modell, in dem er künstlicher Intelligenz Leben einhaucht. Damit versetzt er es in die Lage, die Aufnahmen einer Kamera zu rekonstruieren bzw. zu „entnebeln“. „Viele in heutigen Fahrzeugen verbaute Kamerasysteme basieren vorzugsweise auf dem Erkennen von Verkehrszeichen, Fahrbahnmarkierungen und anderen Verkehrsteilnehmern. Durch Witterungen wie Nebel sind die Aufnahmen stark getrübt. Konventionelle Algorithmen stoßen hier an ihre Grenzen und stellen ein hohes Sicherheitsrisiko dar“, erläutert Gann. Damit zukünftig die Einschätzung der Gefahrensituation bei schwierigen Wetterbedingungen automatisch erfolgen kann, trainiert Michael Gann eine besondere Form der Neuronalen Netze, ein „Convolutional Neural Network“ zu Deutsch „Faltendes neuronales Netz“. Dieses Modell wird mit Hilfe des „überwachten Lernens“- im Fachjargon „Supervised Learning“ - und durch Beschleunigung der Berechnungen mittels eines Grafikkartenservers trainiert und ist anschließend in der Lage, Merkmale eines Bildes zu extrahieren und die Farben und Kontraste in der Aufnahme wiederherzustellen. „Ein Beispiel hierfür“, erklärt der Masterstudent, „ sind Kanten von einem Haus oder einem Schild in einem Bild. Bei Nebel sind diese schwer zu erkennen. Mithilfe der Portierung einer bereits etablierten Struktur eines Convolutional Neural Networks aus dem End-to-End-Werkzeug, genannt „DehazeNet“ in das Framework TensorFlow, sollte es möglich sein, Verkehrsschilder, Fußgänger oder weitere Gefahrensituationen im Nebel zu erkennen. Ein wichtiger Meilenstein in Richtung autonomes Fahren. Denn nur wenn die Fahrerassistenzsysteme die Lage richtig einschätzen, kann die Sicherheit aller Verkehrsteilnehmer gewährleistet und somit Leben gerettet werden!“

Auch künstliche Intelligenz braucht Übung

Doch wie trainiert man ein solches Modell? Dazu braucht es eine Vielzahl von Bilddaten. Denn auch eine künstliche Intelligenz ist nur so schlau, wie wir Menschen sie trainieren. Dafür hat Michael Gann 200.000 synthetische Momentaufnahmen mit dem Simulationswerkzeug IPG Carmaker generiert. Insgesamt 22.222 Einzelbilder aus drei unterschiedlichen Perspektiven mit jeweils neun unterschiedlichen Nebeldichten sind durch einen Simulator generiert worden. Momentaufnahmen von Auto-, Stadt- und Landfahrten mit authentischer Infrastruktur. Der Vorteil gegenüber realer Nebelfotografien liegt auf der Hand. „Nebelstärken lassen sich exakt, konsistent und erheblich schneller generieren. Zum Vernebeln realer Aufnahmen bedarf es präziser Tiefeninformationen, welche uns im Falle realer Bilder für diese Masterarbeit nicht vorliegen. Auch Momentaufnahmen einer realen Straßenfahrt bei Nebel wären hierbei nur eingeschränkt geeignet, da für das „Supervised Learning“ ein nebelfreies Referenzbild benötigt wird. Grundlegend kann man sagen, dass bei realen Aufnahmen momentan der Aufwand in keinem Verhältnis zum Nutzen steht.“

 „Nach dem ich den Datensatz generiert hatte, konnte ich mit der Portierung des DehazeNet in TensorFlow beginnen. Die Arbeiten sind fast abgeschlossen und im nächsten Schritt widme ich mich dem Training des Modells. Dafür werden über die Eingangsbilder 16 anzulernende faltende Filter gelegt, um Eigenschaften des Nebels wie zum Beispiel den Kontrast oder den Farbton zu extrahieren, da diese bei Nebel erschwert erkennbar sind und der Farbton getrübt ist. Das Modell durchläuft dafür verschiedene Trainingsphasen mit unterschiedlichen Parametern“, erläutert Michal Gann.

Autonome Systeme der Zukunft

Gestartet ist Michael Gann mit seiner Arbeit im Oktober 2017. Warum der 29-jährige sich für dieses komplexe Thema entschieden hat, erklärt er wie folgt: „Maschinelles Lernen ist ein hochaktuelles und zukunftsweisendes Thema. Tensorflow ist erst seit zwei Jahren öffentlich und führt bereits im Ranking der meist genutzen Frameworks für Deep Learning. Somit bringt meine Arbeit neue Ergebnisse in der Erkennung von Objekten innerhalb kamerabasierter Daten unter schwersten Wetterbedingungen. Das Resultat: Heutige Fahrerassistenzsysteme werden sicherer und können den Fahrer zukünftig in Gefahrensituationen besser entlasten. Aktuell versagen Fahrerassistenzsysteme bei Nebel. Die Kamera sieht aktuell das gleiche wie ein menschliches Auge. Um zukünftig auch autonom Fahren zu können, müssen die Bilder aus den Fahrzeugkameras, konsistent und in Echtzeit ausgewertet werden. Nur so können Kraftfahrzeuge dann auch bei Nebel vorbeugend reagieren. Und das funktioniert zukünftig nur mit dem Einsatz künstlicher Intelligenz.“ Weitere Anwendungsfälle, die sich Michael Gann für den Einsatz seiner Ergebnisse aus der Masterthesis vorstellen kann, sind neben den Fahrerassistenzsystemen im Auto, auch Früherkennungssysteme in der Schiff- oder Luftfahrt. „Überall dort, wo eine Objektüberwachung mit kamerabasierten Daten stattfindet und die Bilddaten durch Nebel bisher unbrauchbar gemacht werden.“

Seine studentische Laufbahn hat Michael Gann mit dem Bachelorstudiengang „Information Management Automotive“ an der Hochschule Neu-Ulm begonnen. „Ich habe sofort gemerkt, dass ich die richtige Wahl für meinen Studienschwerpunkt getroffen habe. Von Anfang an war ich begeistert von den Lehrinhalten. Anschließend habe ich mich dann an der Hochschule Kempten für den höchst interessanten Masterstudiengang „Fahrerassistenzsysteme“ eingeschrieben. Eine sehr gute Entscheidung!“ 

Zur Masterarbeit mit der EDAG ist Michael Gann durch den ersten Kontakt auf der Hochschulmesse in Kempten gekommen. „Auf der Messe hatte ich die Gelegenheit, mich mit meinem jetzigen Projektleiter, Jacek Burger, vor Ort über mögliche Masterarbeiten auszutauschen.“ Durch engen Kontakt der EDAG in Lindau zum benachbarten Unternehmen ADASENS GmbH, ein Softwareentwickler, der kamerabasierte Software-Lösungen für die Automobilindustrie anbietet, entstand die Idee einer gemeinschaftlichen Masterarbeit, betreut durch Dr. Florian Baumann (ADASENS GmbH) und B.Sc. Jacek Burger (EDAG Engineering GmbH), zwischen beiden Entwicklungspartnern.