Back
Back

Wortgewaltig, unsichtbar und unaufhaltsam.

„Hands off“.

Das „Hands off“-Feature hat inzwischen weitere Lebensräume außerhalb des Autos erobert. In den Achtziger-Jahren feierte man den Lichtschalter, der sich per Klatschen an- und ausschalten ließ. Inzwischen können wir mit dem Lichtschalter sprechen. Alles, was es braucht, ist ein Trigger-Wort wie „Ok Google“ oder „Hey, Alexa“, um Assistenten wie Google Home oder Amazon Echo zu aktivieren. Im gleichen Atemzug formuliert man einen Befehl wie: „Schalte das Licht im Wohnzimmer ein.“ und binnen Sekunden wird der Raum erleuchtet.

Wie dieses simple Beispiel zeigt, ist die gesprochene Botschaft genug, um die Realität zu verändern. Etabliert sich diese Technologie, dann wird das über kurz oder lang zum Verschwinden der haptischen Eingabegeräte führen. Wer bräuchte dann noch Knöpfe, um das Radio anzuschalten oder den Fahrstuhl zu bedienen, wenn man diesem einfach nur zu sagen bräuchte, in welches Stockwerk man gerne fahren will?

Klare Ansagen.

Die ersten Sprachassistenten existierten bereits vor 32.000 Jahren. Aus der Mitte der Wölfe domestizierte der Mensch den ersten Helfer, der auf Sprachbefehle reagierte: den Hund. In Sachen Kommunikation steht der Hund seinen digitalen Nachfolgern in nichts nach, denn noch immer bellen wir Siri, Cortana, Alexa, DingDong, Hound oder Google Assistant unsere Befehle entgegen. Sie gehorchen und können apportieren, indem sie Termine und Notizen festhalten, die beste Wegführung vorschlagen oder die gewünschte Musik abspielen. Allerdings ist es nur eine Frage der Zeit, bis die intelligenten Lautsprecher sich mit uns unterhalten – ganz wie der Bordcomputer des Raumschiff Enterprise. Alles, was es braucht, ist ein „klein wenig“ künstliche Intelligenz und sehr viel Input in Form von Sprache.

Harry fährt bereits den Wagen vor.

Die Nutzung des Sprachassistenten soll nicht nur reibungslos im Gespräch vollzogen werden, sondern vor allem geistig brillant, immer abrufbereit sein und stets ins Schwarze treffen. Sprachassistenten sollen mehr als reine „Bots“ sein, die lediglich programmierte Routinen ausführen. Sie sollen selbstständig und in Echtzeit mitdenken. Wenn Dr. Watson genau wie die Suchergebnisse der Google-Suchmaschine funktionieren würde, dann hätte ihn Sherlock Holmes schon längst gefeuert. Schließlich erwartet ein Detektiv von seinem Assistenten eine konkrete Antwort auf seine Fragen und nicht das Abspulen Tausender eventuell relevanter Treffer. Harry soll Derricks Wagen holen, schon während er laut darüber nachdenkt, dass er eine Tour mit dem Auto machen muss. Der Google-Assistent kann dies bereits.
Beispielsweise wird ein Chat auf Googles Pixel Phone bereits im Hintergrund vom Google-Assistenten analysiert. Die Software verwandelt beispielsweise Hinweise auf Ereignisse und kommende Reisen automatisch in Reservierungen, Kalender-Updates oder Tickets und stellt sie dem Nutzer auf Wunsch zur Verfügung. Damit die intelligenten Assistenten aber handeln können, benötigen sie neben den Informationen des Nutzers Angaben aus der Außenwelt. Der Google-Assistent greift hierbei nicht nur auf über eine Milliarde Begriffe zurück, er ist außerdem in der Lage, den Kontext zwischen all diesen Informationen zu entschlüsseln. Darüber hinaus ist die Software in der Lage, den Klang der menschlichen Stimme zu interpretieren.

Virtuelle Empathie.

Die Fähigkeit der Empathie wird bald nicht mehr nur ein menschliches Gut sein. Und wenn dies perfekt gelänge, wäre das dann gut oder schlecht? Im absurdesten Fall verliebte man sich in seinen digitalen Assistenten – ganz wie im dystopischen Filmdrama „Her“. Im besten Fall wird man jedoch von einer virtuellen Intelligenz begleitet, die feststellt, wie man sich fühlt, und daraufhin Vorschläge macht. Im Auto könnte das dann in etwa so funktionieren: „Du wirkst etwas gestresst – ich schlage vor, Du solltest etwas vorsichtiger fahren. Soll ich für Dich den Tempomat anschalten?“ oder „Hey, heute ist Dein Hochzeitstag, ich habe schon mal Euren Lieblingstisch im Restaurant gebucht – soll ich Deine Frau unter einem falschen Vorwand ins Restaurant locken?“

Identität 4.0.

Ok, dies ist schon sehr weit aus dem Fenster gelehnt. Aber es verdeutlicht, woran Apple, Facebook, Microsoft, Amazon, DingDong und Google arbeiten: Der virtuelle Assistent soll der Buddy auf Augenhöhe sein, der einen stets begleitet. Deshalb steckt er bereits in den Smartphones, in den intelligenten Lautsprechern und ist über diverse Apps ständig erreichbar. Er ist die Schnittstelle, die mit einem Lichtschalter genauso kommuniziert wie mit einem Auto oder einem Portemonnaie.

Stichwort „Conversational Commerce“: Die Sprachassistenten sind gerade dabei, die mobilen Bezahlmodelle auf den Kopf zu stellen. Denn wenn man via PayPal Transaktionen einfach per Stimmbefehl ausführen kann, braucht man demnächst keine PIN oder Kreditkarte mehr. Und wenn das geht – die eindeutige Identifikation einer Person über die Stimme – was wäre denn dann noch so alles möglich?

Werden die Autos statt mit einem Schlüssel etwa durch die Stimme des Besitzers gestartet? Wird der Stimmzettel zur nächsten Bundestagswahl über den Sprachassistenten abgegeben? Erhält jedes Kind statt einer Geburtsurkunde einen persönlichen Sprachassistenten, der nach dem Ableben im hohen Alter mit den Nachkommen kommuniziert?

Ringen der Assistenten.

Diese Fragen wird die Zukunft beantworten. Gewiss aber ist, dass die großen Konzerne an das Potenzial von Sprachassistenten glauben. Amazon hat seit der Einführung des Amazon Echo im Jahr 2013 geschätzte 3 Millionen Geräte verkauft. Mit der Einführung der Echo Dots will man ein günstigeres Angebot gegenüber der Konkurrenz à la Google Home schaffen. Mark Zuckerberg will höchstpersönlich einen Assistenten für sein Zuhause programmieren und hält dafür die exklusiven Rechte an der Stimme von Iron Man. Apple macht über die Schnittstellen der „HomeKit“-Plattform Hausgeräte über Siri per iPhone und iPad steuerbar. Und Samsung kaufte vor wenigen Monaten Viv.
In einer Zukunft, in der die Sprachassistenten dominieren, werden voraussichtlich die haptischen Eingabegeräte verschwinden: keine Tastaturen, keine Mäuse. Und sollten auch die Monitore verschwinden, dann stellt sich die Frage, ob dies nicht auch das Geschäftsmodell von Google auf den Kopf stellen wird. Denn wie wird sich ein Unternehmen finanzieren, dass aktuell noch einen großen Teil seines Gewinns über die Anzeige von Werbung neben und in den Suchergebnissen erwirtschaftet? „Wir machen uns über so etwas keine Gedanken“, versichert Google-Chef Sundar Pichai. Man wolle zunächst einmal nützlich für die Nutzer sein, und Geschäftsmöglichkeiten würden sich dann schon ergeben.

Voice Centricity.

Aber wie machen die Werbenden auf sich aufmerksam, wenn der intelligente Assistent statt vielen möglichen Antworten und etwas Werbung nur noch eine Antwort parat hat – und zwar ganz ohne zusätzliche Informationen? Auf gegenwärtige „Phone Centricity“ wird wahrscheinlich die „Voice Centricity“ folgen. Und wer diese dominiert, bestimmt das Geschäftsmodell aller anderen.