Back
Back

Dashboard-Voodoo.

Das Armaturenbrett der Zukunft lebt.

Ross und Reiter.

Die englische Übersetzung für Armaturenbrett lautet Dashboard. Ein Begriff, der eine Computeroberfläche beschreibt, die alle relevanten Informationen zusammenfasst und übersichtlich darstellt. Ursprünglich leitet sich das Wort aber von einem Brett an der Front einer Kutsche ab: einem Spritzschutz, der den Kutscher vor hochgewirbeltem Dreck bewahrt. Der Kutscher lenkte Pferde mit Sprachkommandos und Zügeln. Das Tier reagierte und teilte sich seinem Herrn durch seine Körpersprache mit. Als schließlich die Motoren die Pferde ersetzten, musste diese Art der Steuerung mechanisch imitiert werden. Statt mit den Zügeln in der Hand und Befehlen steuerte man nun mit dem Lenkrad, dem Gaspedal und der Bremse. Als die Pferdestärken unter einer Motorhaube verschwanden, wurde der einstige Spritzschutz in ein Armaturenbrett verwandelt, um den Zustand des Motors im Blick zu haben.
Diese analoge Bedientafel mit ihren Anzeigen, Knöpfen und Hebeln wurde zur Schnittstelle zwischen Gefährt und Fahrer. Ein Prinzip, an dem sich bis heute nichts als der Name geändert hat: Human-Machine-Interface (HMI). Mit der fortschreitenden Digitalisierung erlebt dieses Interface jedoch eine Transformation. Die Zeit, in der die Armaturenbretter lediglich leblose Anzeige-Instrumente waren, gehört der Vergangenheit an. Mit einer künstlichen Intelligenz unter der Motorhaube kehrt die Kommunikation zwischen Fahrer und Fahrzeug zurück zu ihren Ursprüngen. Das Dashboard wird zur Schnittstelle zwischen Mensch und Maschine, die sich endlich intuitiv steuern lässt: mit Sprachbefehlen, 3D-Gesten und virtuellem Feedback, das sich echt und lebendig anfühlt.

Pixel statt Tachonadel.

Screens so weit das Auge reicht. Das Armaturenbrett der Zukunft ist ein Bildschirm. Ob es in Zukunft noch echte Knöpfe und Schalter geben wird, ist fraglich. Seit die Smartphones mit ihren Multitouch-Oberflächen die Welt erobert haben, sind virtuelle Bedienelemente das Maß aller Dinge. Jegliche Anzeigen lassen sich nicht nur gestochen scharf durch Pixel darstellen, sie lassen sich auch mit der Hand steuern. Und dafür muss man noch nicht einmal das Display berühren. Es reichen einfache Gesten, um Assistenzsysteme wie Bixi, Chris oder Drivemode zu bedienen. Diese vermeintlich modernen Tamagotchis sind die intelligenten Nachfahren der Navis. Doch weil sie in die Windschutzscheibe oder auf die Mittelkonsole geklebt werden müssen und nicht integrale Bestandteile des Fahrzeugs sind, transportieren sie vor allem eine Botschaft: Dieses Auto ist von vorgestern.

Eine nächste Dimension des Fühlens.

Inzwischen besitzen 44 Prozent der Weltbevölkerung ein Smartphone. Das Swipen, Zoomen, Scrollen, Pinchen, Tappen und Klicken gehört schon längst in den Alltagswortschatz der Finger. Früher war das Smartphone ein Mini-Computer mit Multi-Touch-Display. Nun zeigen Hersteller wie Samsung, wie der Mini-Computer komplett unter einem Curved-Display verschwindet. Gebogene oder faltbare Displays, sattere Farben und schärfere Kontraste sind eine natürliche Folge der stetigen Optimierung der OLED- Display-Technologien. Selbstverständlich besitzen die Fahrzeuge der Zukunft solche Curved-Displays. Mit der Weiterentwicklung elektroaktiver Polymere (EAP) werden auch sie haptisch erlebbar: Man wird fühlen, was man sieht. Bereits 2013 stellte Disney einen Algorithmus vor, der Informationen aus virtuellen Oberflächen in dynamische taktile Erfahrungen umwandelt. Apple hält bereits diverse Patente für Screens, die haptisches Feedback geben. Das Start-up Tanvas präsentierte bereits auf der CES 2017 taktile Screens. Die Idee, dass man im Auto sitzt, ein Kleidungsstück im Online-Shop bestellt und zeitgleich auf dem Display erleben kann, wie sich der Stoff anfühlt, ist keine Illusion mehr.

Sprich mit der Hand!

2001 stellte Apple den iPod vor. Sein Click Wheel wurde zum neuen Maßstab der User-Interfaces. Es lässt sich intuitiv bedienen und ermöglicht diverse Steuerungen über eine Kontrolleinheit. Eine Abwandlung dieses Controllers findet man inzwischen in fast jeder Mittelkonsole eines Autos. Nur eine Dekade später könnte dieses Interface ausgedient haben, da unterschiedlichste Entwickler das Prinzip dieser Steuerungseinheit in eine neue Dimension der Gestensteuerung übersetzt haben – die ohne ein reales Click Wheel auskommt. In der Shape Shifting Console von Harman befindet sich unter einer scheinbar lederbezogenen Armlehne ein Controller, der Handbewegungen ausliest und so den Nutzer durch das Menü führt. Eine ähnliche Technologie entwickelt auch das Start-up Ultrahaptics.

Bei BMW sucht man ebenfalls nach neuen Wegen, um mittels sogenannter 3D-Gesten die Steuerung der Menüs zu erleichtern. 2014 stellte man die AirTouch-Technologie vor, bei der man mittels Gestensteuerung ein Menü auf dem Display steuern konnte, ohne es zu berühren. 2017 erweiterte man dieses Konzept um haptische Hologramme.

Bei der Nutzung von HoloActive Touch befindet sich die Anzeige nicht mehr auf dem Display, sondern schwebt frei im Raum. Bedient wird sie durch eine virtuelle Berührung: durch ein leichtes Antippen mit den Fingerspitzen. Zurzeit gelingt dies in einem Nahbereich von 20 bis 30 Millimetern über einer Glasscheibe. In Zukunft wird das nicht nur aus größerer Entfernung möglich sein – der Nutzer erhält dann auch einen haptischen Impuls, wenn er mit seinen Fingern virtuell durch die Menüs navigiert.

Die Technologien, die hinter solchen Interfaces stecken, kommen häufig nicht aus der Fahrzeugbranche, sondern aus der wunderbaren Welt der Computerspiele. Start-ups wie Leap Motion, Gestigon, Heptasense oder eyeSight experimentieren auf ihre ganze eigene Art und Weise mit der 3D-Gesten-Technologie.

Das 360°-Cockpit.

Früher endete das Armaturenbrett, wo die Windschutzscheibe begann. Diese Grenze wird aber immer weiter verschwinden. Schon heute lassen sich über Head-up Displays (HUD) Informationen vor die Windschutzscheibe, ins Sichtfeld des Fahrers, projizieren. Konica Minolta entwickelt seit 2016 3D-AR-HUDs, die solche Projektionen erstmals dreidimensional darstellen können. Daneben will der Autozulieferer Continental seine AR-HUDs bis 2019 zur Marktreife bringen.

Wenn man diese Technologien betrachtet, stellt sich die Frage, wann die ersten smarten Windschutzscheiben kommen. Jaguar stellte hierzu bereits 2014 ein Konzept vor und arbeitet seitdem an der Abschaffung der A-Säule. Die smarte Frontscheibe soll das Fahrzeug nicht nur sicherer machen, sie soll außerdem ein neuer Kanal für Werber werden: Der Smartglass-Hersteller Corning Inc. möchte die Windschutzscheibe in eine Werbefläche verwandeln. In der Zukunft, in der sich das selbstfahrende Auto etabliert hat, ist das Dashboard nicht nur vor dem Fahrer, sondern überall um ihn herum. Es dient nicht nur der Fahrzeugkontrolle, sondern vor allem der Arbeit, dem Entertainment und der Entspannung. In einer Studie von Panasonic wird gezeigt, wie einfach solche fahrenden Display-Kapseln funktionieren. Man swippt die Displays virtuell durch den Raum, von einer Oberfläche zur nächsten. Diese Art der Content Agility erinnert ein bisschen an Szenen aus dem Film “Minority Report”.

Alexa, fahr schon mal den Wagen vor!

2010 kaufte Apple Siri Inc. und stattete sein iPhone 4S mit einem Sprachassistenten aus. Inzwischen verarbeiteten die Server von Apple circa 2 Milliarden Siri-Anfragen pro Woche. Und spätestens seit Amazons Sprachassistent Alexa ins Auto integriert wurde, ist klar, dass die Sprachsteuerung ein zentrales Feature der Dashboards von morgen ist. Auch Google möchte solche Dienste anbieten. Zum einen soll der intelligente Google Assistent auch im Auto verfügbar sein. Zum anderen werden Audi und Volvo in Zukunft ihre Autos mit Android als Betriebssystem ausstatten. Geht es nach Ben Evans, Analyst bei Andreessen Horowitz, steigt man in Zukunft nur noch ins Auto und sagt “Ich will nach Hause!”. Den Rest übernimmt das Fahrzeug.

Die Rückkehr zum Ross-Reiter-Prinzip.

Die Armaturenbretter der Zukunft sind ganzheitliche digitale Bedienoberflächen, die sich zu 100 Prozent intuitiv steuern lassen. Das fängt damit an, dass das Fahrzeug seine Fahrer erkennt und ihnen ein individualisiertes Interface zur Verfügung stellt. Viele Hersteller wie Faraday, Panasonic und Airbus zeigten bereits, dass es ganz normal sein wird, die Identität des Fahrers als Schlüssel zum Fahrzeug zu etablieren. Es ist ein bisschen so, als würde das Pferd seinen Kutscher schon lange vor dessen Eintreffen wittern und ihn mit Freude begrüßen, wenn er eintrifft. Die mit einer künstlichen Intelligenz ausgestatteten Fahrzeuge werden nicht nur in der Lage sein, genauso wie der Mensch zu sprechen, sondern sie werden außerdem auch auf die Emotionen des Fahrers reagieren. Start-ups wie Affectiva bieten längst die Möglichkeiten, dass Maschinen menschliche Emotionen lesen, um noch menschlicher mit ihren Nutzern kommunizieren zu können.

Autoren: David Menzel und Jean-Paul Olivier