• “Autonomes Fahren ist bereits beschlossene Sache.”

  • 'Autonomes Fahren ist bereits beschlossene Sache.'

    • 12. August 2013
    • Autonomes Fahren
    • Text: Steffan Heuer

    William „Red“ Whittaker, Professor für Robotik an der Carnegie Mellon University (CMU) in Pittsburgh, über den aktuellen Entwicklungsstand autonomer Fahrzeuge.

    HERR PROFESSOR WHITTAKER, WIE IST DER STAND DER TECHNIK BEI AUTONOMEN FAHRZEUGEN?

    Das abstrakte Konzept des autonomen Fahrens ist allseits bekannt. Jetzt geht es daran, dieses Konzept umzusetzen. Die beiden DARPA Challenges [2004 und 2005 in der Wüste und 2007 in einer nachgebildeten Stadt] waren Wendepunkte. Sie haben das Feld verwandelt.

    WAS HAT SICH ZWISCHEN 2004 UND 2007 GRUNDSÄTZLICH VERÄNDERT?

    Wir hatten alle an das Potenzial autonomen Fahrens geglaubt, hielten es jedoch für unerreichbar. Das hat sich in diesen Jahren geändert. Diese beiden Wettbewerbe inspirierten die ganze Forschergemeinde und waren für uns Motivation, für diese Sache zu arbeiten. Die Folge war ein riesiger, nichtlinearer Sprung in der Technik, sowohl bei Sensoren als auch bei Anwendungen. Es ist absolut erstaunlich, wie weit wir in den letzten zehn Jahren in Bezug auf Rechenleistung, Sensorkosten und Integration all dieser Fortschritte in kommerzielle Autos gekommen sind.

    DIE BAHNBRECHENDEN DARPA-WETTBEWERBE, AN DENEN SIE TEILGENOMMEN UND DIE SIE GEWONNEN HABEN, WAREN WETTBEWERBE, AUF DIE SICH WISSENSCHAFTLER EINE RECHT LANGE ZEIT VORBEREITET HABEN. JETZT HABEN WIR NEUE MARKTTEILNEHMER WIE GOOGLE, DIE VERKÜNDEN, DASS BLINDE BALD AUTONOM FAHREN WERDEN. IST DAS WUNSCHDENKEN ODER EIN REALISTISCHES ZIEL?

    Ich halte das für praktikabel und unvermeidlich und begründe dies auch gerne. Ich leitete das erste Symposium zu blindem Fahren, das noch vor der allerersten DARPA Challenge stattfand. Es gibt mehrere Geschwindigkeitsrekorde für Blinde, die für einen Fahrer mit guter Sehkraft schwer zu schlagen sind, auch wenn wir dabei natürlich über kontrollierte Bedingungen sprechen. Und es gibt bereits fahrerlose Personenbeförderungsmittel an Flughäfen. Irgendwann werden Fahrzeuge für Behinderte solchen öffentlichen Verkehrsmitteln sehr ähnlich sein. Meiner Ansicht nach geht es bei dieser Frage auch um die Würde von Behinderten und älteren Menschen. Wir sollten uns auch vor Augen halten, dass es nicht so unglaublich wertvoll ist, Fahrzeuge zu haben, um unter allen Umständen damit fahren zu können.

    IST DAS ERREICHEN DIESES ZIELS EINE FRAGE, OB WIR KOSTEN UND BAUGRÖSSE DER SYSTEME SCHNELL GENUG REDUZIEREN KÖNNEN

    Die Grundlagen der Erfassung, Modellierung, Routenplanung und des Fahrens sind bekannt. Ich weiß auch ein, zwei Dinge über Sensoren, seit ich sie selbst baue. Sie sind nun in sehr kurzen Entwicklungszyklen und werden zunehmend billiger und leistungsfähiger. Insgesamt gibt es bestimmte Elemente, die noch nicht ausgereift sind, wie das Fahren bei schlechtem Wetter, komplexe Situationen an Kreuzungen, Gegenverkehr oder das Fahren im Grenzbereich bei hoher Geschwindigkeit, auf Eis oder mit eingeschränkter Traktion. Aber das sollte nicht von den unglaublichen Fähigkeiten ablenken, die bereits ausgereift sind.

    KÖNNEN SIE UNS EIN BEISPIEL GEBEN?

    Nehmen Sie das automatische Einparken. Als diese Funktion erstmals angeboten wurde, habe ich nicht schlecht gestaunt. Ich habe sie kürzlich in einem nicht gerade hochklassigen Mietwagen genutzt und war überrascht, wie gut das funktionierte. Drive-by-Wire-Technologie ist bei Autos ein positiver Kreislauf. Jede neue Funktion, die auf den Markt kommt, zieht neue Funktionen nach sich, sei es der Tempomat oder der Spurhalte- und Spurwechselassistent. Sie bauen aufeinander auf.

    WANN WIRD DIESE TECHNOLOGIE FÜR DAS AUTONOME FAHREN TEIL DES ALLTAGS SEIN? Ich empfehle ein Experiment, um zu sehen, wie weit wir schon gekommen sind. Nehmen Sie ein neues Fahrzeug, das Sie daran hindert, blind rückwärts aus einer Einfahrt auf die befahrene Straße zu fahren. Treten Sie einfach auf das Gaspedal, ohne zu schauen, und Sie werden verblüfft sein. Fahren Sie dann einen Pick-up aus den 1950er Jahren. Spüren Sie Bremsen und Lenkung – wie langsam und unpräzise die aus heutiger Sicht arbeiten – dann merken Sie, wie schnell Sie Probleme bekommen können, obwohl Sie einfach nur fahren. Sie werden dann wirklich dankbar sein für all die Features in modernen Autos, die wir für selbstverständlich halten. Aber im Gegensatz zu dem, was viele denken, ist die Automobilindustrie nicht der erste Anwender solcher Technologien. Fortschritt geschieht in Bereichen, die von den meisten übersehen werden: Bergbau, Bau- und Landwirtschaft – Industrien, die große und schwere Nutzfahrzeuge für Aufgaben wie Erdbewegungen, Steinzertrümmerung und Straßenbau, also für Arbeiten mit höchster Präzision einsetzen.

    Es ist erstaunlich, wie weit wir im vergangenen Jahrzehnt gekommen sind.

    DAS SIND SZENARIEN, IN DENEN FAHRZEUGE EINE SEHR BEGRENZTE REICHWEITE HABEN UND DAS TERRAIN SEHR GUT KENNEN. BENÖTIGEN WIR NICHT AUCH NEUE ARTEN SEHR DETAILLIERTER, DIGITALER FAST ECHTZEIT-KARTEN UNSERER ERDE, DAMIT SICH DIE FAHRZEUGE DER ZUKUNFT IM FREIEN VERKEHR ZURECHTFINDEN?

    Das ist ein Henne-und-Ei-Problem. Bevor Fahrzeuge autonom sind, arbeiten bereits alle anderen Fahrzeuge als Kartographen. Um solche Karten und Modelle zu erstellen, braucht man keine autonomen Fahrzeuge. Die Fähigkeiten von Fahrzeugen als kooperative Systeme zur Informationserfassung existieren bereits zur Detaillierung, Verfeinerung und Aktualisierung benötigter Informationen. Wieder ist es ein positiver Kreislauf, in dem neue Daten schnell integriert werden können, wenn zum Beispiel eine irgendwo auf einer Straße eine neue Baustelle entsteht und den lokalen Verkehr beeinflusst.

    UND WIE WIRD DAS FUNKTIONIEREN?

    Ein Beispiel aus der Praxis: Viele Lkw-Unfälle auf den Straßen der USA ereignen sich aufgrund der Tatsache, dass der Freiraum an Überführungen zum Lkw unterschiedlich ist, und sich dieser je nach Reparaturen, Oberfläche, Krümmung oder Einsinken der Fahrbahn ändert. Diese Daten müssen erfasst, geprüft und bestätigt werden. Bei mehreren Spuren sind das mehrere Maße. Das wird bislang von Kontrollgängern etwa alle zehn Jahre gemacht. Jetzt kann dies durch von Menschen gesteuerte Maschinen oder Fahrzeuge erfolgen, die unter diesen Überführungen hindurch fahren. Sie müssen nicht einmal langsamer fahren, wenn sie zum Aufbau dreidimensionaler Modelle unserer Straßen beitragen. Ähnliches geschieht bei der 3D-Modellierung für die Versorgungswirtschaft, wo detaillierte Datensätze über jeden Lichtmast, jeden Bordstein und so weiter erfasst werden. Viele dieser Datensätze haben mit Steuer- und Compliance-Themen wie Fahrbahn-Verlegungen oder Standorten von Gebäuden zu tun. Die Idee der Verwendung fahrender Maschinen als Informationsquellen ist ein fantastischer Weg, um aktuelle Informationen zu erhalten, die auch sehr exakt sind. Das geschieht jetzt und ist das Werkzeug der Wahl. Wir werden hinsichtlich der Details und der Realitätsnähe von 3D-Modellen eine ganze Innovationswelle erleben.

    KÖNNEN SIE DIESE ARBEIT AN ALTERNATIVEN REALITÄTEN FÜR FAHRZEUGE IM DETAIL BESCHREIBEN?

    Wir erreichen den Punkt, wo wir digitale Modelle unserer Umwelt erstellen können, die von höherer Qualität sind und über mehr Details verfügen als das menschliche Auge jemals erkennen könnte. Dafür ist eine Unmenge an Berechnungen erforderlich, weil es hierbei um weit mehr als die gängige Praxis des Verschmelzens von Bereichsmodellen mit darüber gelegten Digitalkamera-Bildern geht. Durch die Erhöhung der Rechenleistung und die Erfassung weiterer Daten sind dichte, hochwertige Modelle eine ausgemachte Sache und absolut realisierbar. Red Zone, eines der Unternehmen, die ich gegründet habe, befasst sich mit dem Sammeln dieser Art von Daten mit Hilfe von Robotern, um sie der Kanalisations- und Rohrleitungs-Industrie anzubieten.

    WIE MÜSSEN WIR UNS DIESE ART DER BILDERFASSUNG FÜR DETAILLIERTE 3D-MODELLE VORSTELLEN?

    Vergleichen Sie in Gedanken eine Fahrt auf einer Straße mit Sensoren, welche die frisch gehauene Felsoberfläche in einem Steinbruch erfassen. Mit bloßem Auge sehen Sie nur wenige Merkmale: Die graue Felsoberfläche mit bestimmten Texturen und Akzenten. Bildverarbeitung kann geometrische Muster in den Felsen auflösen, die über das hinausgehen, was wir jemals erkennen können. Das gleiche gilt, wenn Sie an die Fahrt auf einer Straße bei Regen denken. Scheinwerfer helfen dem menschlichen Auge, ein bisschen besser zu sehen. Aber jetzt stellen Sie sich vor, Sie könnten nacheinander die Regentropfen wegrechnen oder die Einschränkungen durch die Beleuchtung. Das Modell würde Ihnen Details des Bordsteins, der Gebäude und der Infrastruktur um Sie herum zeigen. Ich rede nicht über eine Überlagerung von Details wie bei einem Head-up-Display. Die neue 3D-Computer-Modellierung wird nicht einen Bordstein in heller Farbe in Ihrem Blickfeld malen, sondern tatsächlich das gesamte Bild darstellen, wie Sie es noch nie zuvor gesehen haben.

    UND DAS WIRD KÜNFTIG MIT BORDEIGENEN SYSTEMEN FUNKTIONIEREN? ODER BENÖTIGEN WIR RESSOURCEN IN DER CLOUD, DA ZUKÜNFTIGE AUTOS JA EINE PERMANENTE BREITBAND-INTERNETVERBINDUNG HABEN WERDEN?

    Im Moment ist es noch nicht möglich, dass solche Systeme in Echtzeit auf bordeigenen Systemen laufen. Aber wir haben Demos gesehen, die die Cloud für diese Aufgabe nutzen. Denken Sie auch daran, es ist nicht eine Frage des Entweder-Oder, sondern der Kombination von beidem. Berechnungen werden allgemein schneller, und die Technologien, die wir brauchen, werden immer besser und leistungsfähiger, daher ist es nur eine Frage der Zeit. Nehmen Sie die Feature-Erkennung. Die Algorithmen müssen Bilder skalieren, um Bilder ganz nah, in einem Abstand und um einen Winkel gedreht aufzunehmen. Das wird als Scale Invariant Feature Transform oder SIFT Technologie bezeichnet. Nehmen wir die DARPA Challenges. Hätten wir die Auflösung reduziert und einige weitere Vereinfachungen durchgeführt, wären wir in der Lage gewesen, die Feature-Erkennung 5-mal pro Sekunde auszuführen. Mit integrierten Schaltkreisen unter der Bezeichnung Field Programmable Gate Array (FPGA) können wir Feature-Erkennung nun 50-mal pro Sekunde ausführen. Statt kleiner Bilder mit geringer Auflösung können wir größere Bilder mit höherer Auflösung bei hoher Geschwindigkeit verarbeiten. Das ist nur ein Algorithmus von vielen. Super-realistische Modellierung ist erreichbar, und sie kommt.

    AUTONOME FAHRZEUGE MÜSSEN NOCH LANGE ZEIT MIT MENSCHLICHEN FAHRERN IN ANDEREN AUTOS INTERAGIEREN. WIE GUT WIRD DIESER MIX FUNKTIONIEREN?

    Das ist bereits Realität. Automobilunternehmen und andere führen diese Sicherheitsmerkmale ein, die uns Stück für Stück in bestimmten Situationen assistieren oder unser Fehlverhalten korrigieren. Diese Technologien sorgen damit im Grunde dafür, dass sich Fahrzeuge an die Verkehrsregeln halten, egal wer fährt. Denken Sie an das Fahren auf der Autobahn heutzutage. Man fährt ziemlich schnell, hat aber keinen Augenkontakt mit anderen Fahrern, gibt seine Absichten nicht bekannt und erklärt nicht, was man als nächstes tun möchte. Alles hängt von der Beobachtung und Interpretation von Verhaltensweisen ab, während wir mit hohem Tempo weiterfahren.

    DAS HEISST, WIR ERSETZEN MENSCHEN, DIE ERRATEN, WAS DIE ANDEREN MENSCHEN VIELLEICHT TUN, DURCH MASCHINEN, DIE ERRATEN, WAS ANDERE MASCHINEN AUF DER STRASSE TUN

    Beobachten und Interpretieren gehört zu allen Arten des Fahrens dazu. Es muss nicht zwischen menschlichen und maschinellen Fahrern unterschieden werden. Um ehrlich zu sein, es wird niemals einen Punkt geben, an dem die Straße den Menschen gehört und den Maschinen an einem anderen, auch keine klare Mehrheit von Mensch oder Maschine. Es wird immer ältere Fahrzeuge oder Sportwagen ohne autonome Fahrsysteme auf der Straße geben. Aber um es klarzustellen: Autonomes Fahren ist heute bereits beschlossene Sache und wird sich kontinuierlich weiter entwickeln.

    Verwandte Themen.