Volltextsuche über das Angebot:

2 ° / -8 ° wolkig

Navigation:
Sehen, Hören, Fühlen - was steckt hinterm autonomen Fahren? 

Jahreswechsel Sehen, Hören, Fühlen - was steckt hinterm autonomen Fahren? 

In gut zehn Jahren sollen Autos das Steuer im Straßenverkehr komplett übernehmen, so die Erwartung in der Branche. Doch welche Technik macht autonome Fahrzeuge überhaupt möglich?

Voriger Artikel
Detroit Motor Show: Mercedes enthüllt die neue E-Klasse
Nächster Artikel
Eleganter Exot: Infiniti enthüllt neues Coupé Q60

Ganz schön viel Technik (hier von Bosch) ist in einem autonom fahrenden Auto eingebaut..

Quelle: Daniel Naupold

Frankfurt (dpa) - Gut fünf Jahre ist es her, dass Google seine Forschung an einem fahrerlosen Auto bekanntgab. Inzwischen feilen alle Autohersteller an der Technik, die Fahrzeuge künftig zu autonomen Teilnehmern im Verkehr und den Autofahrer überflüssig machen soll.

Doch wie können Autos in Zukunft unsere Sinneswahrnehmungen kopieren? 

Kameras sind eine Grundvoraussetzung für autonome Fahrzeuge.

Monokameras funktionieren, als ob sich ein Mensch ein Auge zuhält. Sie bilden die Umwelt also nur begrenzt räumlich ab und haben nur eine Reichweite von 150 Metern. Dafür bemerken sie charakteristische Bildausschnitte: "Einen Fußgänger, Straßenschilder oder Fahrzeuge kann sie gut wiedererkennen", erklärt Thomas Classen, Leiter Produktmanagement für Fahrerassistenzsysteme bei Bosch.

Für die räumliche Wahrnehmung sind

Stereokameras  zuständig, die Entfernungen abmessen können. "In gleicher Weise gelingt es Menschen mit ihren zwei Augen, Entfernungen gut abzuschätzen", erklärt Classen. Mindestens eine solche Kamera muss in ein selbstfahrendes Auto eingebaut sein.

Für die Rundumsicht werden Kameras mit

Fischaugenoptik  eingesetzt, die aber nur den Nahbereich erfassen können. "Es braucht mindestens eine Kamera nach vorne, möglichst eine Stereokamera. Zusätzlich eventuell auch ein Surround-View-System, das vier Nahbereichskameras nutzt", sagt Claassen.

Ultraschalsensoren  werden vor allem zum Parken eingesetzt. Für einen Parkassistenten braucht es allein zwölf Ultraschallsensoren. "Sie haben eine Reichweite von etwa fünf Metern", erklärt Classen. Auch deshalb sind sie auf der Autobahn nur geeignet, um Objekte direkt neben dem eigenen Fahrzeug zu erkennen, wie den Motorradfahrer im toten Winkel.

Radar funktioniert ähnlich wie Ultraschall, nur mit elektromagnetischen Wellen. Seine Reichweite liegt bei 250 Metern, deshalb lassen sich auch weiter entfernte Fahrzeuge erkennen. Ein Zusatzeffekt: Auch die Geschwindigkeit der Objekte kann gemessen werden. "Das ist gerade für Autobahnfahrten sehr wertvoll", erklärt Classen. "Entfernung und Geschwindigkeit des vorausfahrenden Fahrzeugs sind die erforderlichen Informationen, um rechtzeitig zu bremsen oder die Spur zu wechseln." In seinen Testfahrzeugen für autonomes Fahren verbaut Bosch sechs Radarsensoren.

Nach einem ähnlichen Prinzip funktionieren

Lasersensoren (Lidar) mit einer Reichweite von 150 bis 200 Metern. "Der Laser generiert keine Geschwindigkeitsinformationen, dafür genauere Konturinformationen", sagt Classen. Bis zu fünf solcher "Lidare" braucht es für ein hochautomatisierte Fahrzeuge. Die sind allerdings zumindest beim Zulieferer Bosch noch nicht seriennah.

Ebenfalls Zukunftsmusik ist die sogenannte Kommunikation von "Car-To-X" und "Car-To-Infrastruktur". Autos, aber auch Brücken oder Tunnel sollen in Zukunft den Verkehrsstand an andere Verkehrsteilnehmer weitergeben. "Dort werden wichtige, erfasste Informationen, wie zum Beispiel ein Stauende zum Backend gefunkt und dort logisch ausgewertet", sagt Alfred Eckert, Leiter der Zukunftsentwicklung in der Sparte Chassis & Sicherheit bei Continental.

Ein

Hochgenaues GPS zusammen mit hochgenauen Karten ist wiederum die Grundvoraussetzung dafür, dass das Auto exakt weiß, wo es gerade steckt und was auf es zukommt. Auch daran feilt die Industrie.

Hinzu kommen Fühler, die auf die Gesamtpositionierung des Fahrzeuges schließen lassen. Bereits in herkömmlichen Fahrzeugen verbaut sind

Lagesensoren , die das Verhalten des Fahrzeugs zur Schwerkraft anzeigen. Auch

Drehratensensoren , die anzeigen, wie schnell sich welches Rad gerade dreht, gibt es bereits. "Das wird heute zum Beispiel für Elektronische Stabilitätskontrolle (ESP) genutzt", sagt Classen.

Eine große Herausforderung wird nach Einschätzung der Experten die Vernetzung, die heute im Verkehr häufig das menschliche Gehirn übernimmt. "Was die Systeme heute noch gar nicht können, ist

Lernen ", sagt Ralph Lauxmann, Leiter Systems & Technology in der Sparte Chassis & Sicherheit bei Continental. Komplexe Situationen, die sich schnell ändern und den Verkehrsfluss in Gang halten, könnten die Systeme deshalb noch nicht erfassen.

Hinzu komme die

logische Verknüpfung des Wahrgenommenen. "Alles was der Mensch sieht, kann die Kamera theoretisch ebenfalls sehen", erklärt Classen. "Sie muss es aber auch erkennen können. Der Mensch nutzt dazu viel Hintergrundwissen, um Situationen auflösen zu können." Die Sensoren von heute müssten alle noch besser werden. Aber auch die Verarbeitungskette danach fehle noch.

Gänzlich ungeklärt sind bislang

ethische Fragen  in komplexen Situationen, wenn ein Auto etwa durch ein Ausweichmanöver einen Menschen schont, aber einen anderen verletzt. Diese Fragen werde aber auch keine Firma allein lösen, sagt Classen. Technologisch stelle sie sich derzeit nicht: "Derzeit vermeiden wir jegliche Form der Kollision."

dpa

Voriger Artikel
Nächster Artikel
Mehr aus Aktuelles