Back
Back

Einfach mal mit dem Auto reden.

Leben wie die Jetsons.

Gemessen an ihrer Genauigkeit hat Spracherkennungssoftware innerhalb von 6 Jahren einen gewaltigen Sprung gemacht: 2010 lag die Präzision der Kommunikation noch bei 70 Prozent. Ende 2016 soll sie die 95 Prozent Marke geknackt haben – das meint zumindest Mary Meeker, eine wichtige Risikokapitalgeberin aus dem Silicon Valley. Damit werden die intelligenten Sprachassistenten zu einer der tragenden Säulen der Smart Environments, in denen Autos, Häuser und mobile Endgeräte miteinander verbunden sind und untereinander kommunizieren.

Die Stimme als Fernbedienung.

Ein Ausblick auf das unbeschwerte Lebensgefühl, welches einen erfasst, wenn man die Umwelt mit der Stimme steuert, war in jedem Winkel der CES spürbar. An fast jedem Stand wurde klar, dass es in der Zukunft reichen wird, einen Service mit der Stimme zu aktivieren. Die beste Wegbeschreibung zu euch nach Hause kennt euer Auto. Das gesündeste Rezept für ein gutes Abendessen mit Freunden und der Familie kennt euer Kühlschrank. Und eure Kinder bringt ihr vielleicht am einfachsten mit ihrem Aristotle ins Bett. Dieses Gerät spielt nicht nur die Lieblingslieder, sondern lässt die gesamte Familie in sanftem Lichtambiente einschlummern.
Das alltägliche Leben der Zukunft wird wahrscheinlich ohne mechanische Knöpfe und Eingabegeräte auskommen. Allein mit Gesten und der Stimme steuert man die mit künstlicher Intelligenz ausgestattete Umwelt.

1 Gerät, 7000 Skills.

Das Rückgrat der intelligenten Sprachassistenten sind das maschinelle Lernen sowie hoch entwickelte künstliche Intelligenzen (KI). Sie bilden die Grundlage, welche die Petabytes von Daten, die fast schon im Sekundentakt entstehen, zu sinnvollen Informationen für die Nutzer und Anbieter aufbereiten. Immer schnellere Computer und immer effizientere Algorithmen erzeugen immer dichtere Datenmuster, die dafür sorgen, dass sich (fast) alles per Sprachbefehl steuern lässt.

„Maschinelles Lernen zwingt uns, Software auf eine völlig neue Art und Weise zu entwickeln. Heutzutage wird Software durch die Daten konstruiert“, sagt Rigel Smiroldo, Chefingenieur der Abteilung für maschinelles Lernen bei Mercedes-Benz in Sunnyvale.

Dass Amazons Alexa hierbei unter den Sprachassistenten eine führende Rolle einnimmt, ist der Bereitschaft geschuldet, dass das Unternehmen seine Technologien bereits in einem sehr frühen Stadium unternehmensfremden Entwicklern zugänglich macht.

In diesem Zusammenhang entwickelt Amazon Richtlinien, welche die Integration von Alexa in Geräten von Drittanbietern erleichtert. Auf der CES 2017 konnte die Mehrzahl aller vorgestellten Produkte bereits mit Alexa interagieren, und so darf es nicht verwundern, dass sich allein in den letzten sieben Monaten die Anzahl der Alexa Skills von 1.000 auf 7.000 erhöht hat – Skills sind eine Art Apps, die auf Stimmkommandos reagieren.

Amazons Alexa ist der derzeitige Vorreiter unter den Sprachassistenten. Daneben haben aber auch Microsoft, Google, Apple oder Samsung eigene Lösungen auf den Markt gebracht. Schon allein in diesem Jahr hofft man, 10 Millionen sprachaktivierte digitale Assistenten zu verkaufen. Das Forschungsinstitut Gartner schätzt, dass bis zum Jahr 2020 bis zu 30 % der digitalen Integrationen sprachaktiviert sein werden. Dann soll der Markt für digitale Assistenten die Marke von 3,6 Milliarden US-Dollar geknackt haben.

Ganz normal: mit dem Auto reden.

Ursprünglich steckte Alexa in Amazon Echo, einem zylindrischen Lautsprecher für den Heimbereich. Zu seinen Basis-Skills gehört das Erstellen von To-do-Listen, das Abspielen von Playlists auf Spotify, das Sichern des Smart Homes und die Steuerung intelligenter Haushaltsgeräte, Thermostate und Glühbirnen. Auf der CES verkündeten nun verschiedene Autohersteller, dass sie die Bordcomputer ihrer Fahrzeuge für Alexa zugänglich machen wollen – allen voran Ford und VW. Daneben präsentierten Nissan und BMW ihre Cortana-Integrationen, des Sprachassistenzsystems von Microsoft.

Als einer der ersten OEMs hatte die Daimler AG bereits vor der CES 2017 die Integration des Google-Assistenten in Mercedes-Benz-Modellen angekündigt. Damit lassen sich über den intelligenten Lautsprecher Google Home Fahrtzieldaten an das Auto übermitteln. Zudem lässt sich darüber von zu Hause aus die Klimaanlage im Fahrzeug starten oder der Tankfüllstand des Wagens prüfen.

In Zukunft soll jeder Mercedes-Benz Teil eines intelligenten Ökosystems sein, das sich auch via Sprachsteuerung kontrollieren lässt. In einzelnen Märkten können Kunden von Mercedes-Benz bereits ab diesem Jahr auf Basis von Google Home oder Amazon Alexa mit ihren Fahrzeugen kommunizieren. Dabei setzt die Daimler AG auf absolute Integrität beim Schutz der Nutzerdaten. Vertrauliche, persönliche Daten, die von der künstlichen Intelligenz im Fahrzeug erfasst werden, bleiben im Wagen. Sie werden nicht auf anderen Geräten oder in der Cloud gespeichert. Lediglich allgemeine, unpersonalisierte Daten, werden in die Cloud geladen und analysiert, um etwa die Car-to-Car-Kommunikation zu ermöglichen.

Wünsche von den Lippen lesen.

Der CEO von NVIDIA, Jen-Hsun Huang, sprach während des „Inspiration Talk: Konnektivität“ auf dem Stand von Mercedes-Benz von der immer stärkeren Verschmelzung von Realität und Virtualität, die schon jetzt den Menschen das Leben erleichtert.

Als ein Beispiel hierfür sei NVIDIAs Co-Pilot erwähnt. Dieser erfasst Daten von Sensoren, die sowohl im Inneren des Fahrzeugs als auch außen am Fahrzeug positioniert sind. Daraus wird ein Profil der Umgebung des Fahrzeugs erstellt. Auf dieser Grundlage kann dem Fahrer mitgeteilt werden, wie er sein Fahrverhalten optimieren kann. Außerdem reagiert der Co-Pilot dank künstlicher Intelligenz auf Sprachbefehle wie „Bring mich nach Hause“ und ist sogar in der Lage, Kommandos von den Lippen des Fahrers abzulesen. Könnte die Zukunft schöner sein?