Schlechtes Wetter bringt selbst modernste Fahrassistenten an ihre Grenzen. Forscher arbeiten daran, autonome Fahrzeuge auch bei Schnee und Regen sicher zu machen.
Autonomes Fahren gilt als Schlüsseltechnologie der Zukunft. Gerade bei schlechtem Wetter stoßen jedoch viele Systeme an ihre Grenzen. Regen, Nebel oder Schnee beeinträchtigen die „Sicht“ der Sensoren stark und stellen Entwickler vor Herausforderungen. Das Horizon-Europe-Projekt „Roadview“ soll automatisiertes Fahren auch unter extremen Bedingungen sicherer machen. Im Interview erklären zwei beteiligte Experten, warum Maschinen bei schlechter Sicht ähnliche Probleme haben wie Menschen und wie Europa versucht, diese Hürden zu überwinden.
t-online: Herr Huber, schon Menschen haben beim Autofahren unter schwierigen Sichtverhältnissen ihre Probleme. Warum bringen Regen, Nebel oder Schneefall autonome Fahrzeuge so schnell an ihre Grenzen?
Werner Huber: Das Grundproblem ist ähnlich wie beim menschlichen Auge: Die Sicht wird schlechter, je mehr Partikel sich in der Luft befinden. Das betrifft alle Verfahren, die mit optischen Sensoren arbeiten: Kamerabilder werden bei Regen oder Nebel unscharf. Auch Lidar-Systeme, die mit Lichtimpulsen arbeiten, verlieren an Qualität, weil Signale gedämpft und gestreut werden. Radar kommt mit schlechtem Wetter zwar besser zurecht, liefert aber kein klares Bild, sondern nur Reflexionen, aus denen die wichtigen Informationen herausgefiltert werden müssen.
Welche Sensorstrategie ist dann sinnvoll?
Eine Kombination der verschiedenen Sensoren ist ideal. Aber kein Sensorsystem funktioniert bislang unter allen Bedingungen perfekt. Deshalb braucht es zusätzliche, teils teure Technologien wie präzisere Karten, Kommunikation zwischen Fahrzeugen oder neue Sensorik. Am Ende gilt ein einfaches Prinzip: Ein Fahrzeug kann nur so schnell fahren, wie es „sehen“ kann. Wenn die Sicht nicht ausreicht, muss es stoppen oder gar nicht erst starten.
Sie arbeiten in Ihrem Projekt „Roadview“ daran, die Sichtprobleme zu lösen. Wie?
Maikol Funk Drechsler: Wir haben dafür Testumgebungen geschaffen, in denen sich Regen, Nebel oder Schnee kontrolliert simulieren lassen – sowohl im Labor als auch im Freien. So können wir genau analysieren, wie sich Sensoren unter schlechten Bedingungen verhalten, ohne uns nur auf virtuelle Simulationen verlassen zu müssen. Wir simulieren dabei nicht nur Wetter, sondern vor allem, was der Sensor tatsächlich „sieht“.
Wie lässt sich das testen?
Indem wir gezielt ideale Daten verschlechtern und testen, wie gut unsere Algorithmen dann damit umgehen. Diese Modelle laufen in sogenannten Hardware- oder Vehicle-in-the-Loop-Systemen – das Fahrzeug reagiert also im Labor wie im echten Unwetter. Unser Ziel ist es, die Grenzen des automatisierten Fahrzeugs herauszufinden, bevor es den Durchblick verliert und die Steuerung zwingend an den Menschen übergeben muss.









