Back
Back

Erkenne die Macht.

Clever messen.

Bestes Beispiel dafür ist (natürlich) Amazon, das seit vielen Jahren Daten über das Online-Verhalten seiner 300 Millionen Kunden sammelt. Bereits 1998 führte Amazon seinen wegweisenden kollaborativen Filter ein: den item-to-item-Algorithmus. Stichwort: „Das könnte Sie auch interessieren.“


Bis dahin waren vor allem User-to-User-Filter geläufig, aber diese hatten ein paar entscheidende Nachteile: 1. Das System funktionierte schlecht, wenn zwar viele Artikel, aber nur wenige Bewertungen für Artikel vorlagen, 2. einen vergleichenden Algorithmus zwischen allen Usern zu programmieren war extrem teuer, 3. wenn die Benutzerprofile sich ändern – und das tun sie sehr häufig –, muss alles neu programmiert werden. Stattdessen greift Amazon auf die Produktbewertungen zurück und vergleicht sie dahingehend. Erfolgreiche Big-Data-Analyse beginnt eben mit dem richtigen Algorithmus.

Data-Dealer statt E-Tailer.

Aus dem Vergleich von Massendaten lassen sich Muster ableiten. Genau diese Voraussagen helfen dabei, Trends frühzeitig zu erkennen, Marketingaktivitäten zielgerichteter zu steuern, Prozesse effizient zu optimieren, die Kundenbindung zu stärken und schlussendlich Gewinne zu steigern. Natürlich nutzt Amazon seine Kompetenz in Sachen Business Intelligence, um insbesondere auch seine Logistik besser zu koordinieren. Damit so etwas wie „Same Day Delivery“ wirklich funktioniert, müssen Milliarden von Artikeln an über 340 Standorten überwacht und verfolgt werden. Die hauseigene Webservice-Schnittstelle liefert alle 30 Minuten Updates an alle Lager und an die Website. Daneben werden dem Kundenservice alle relevanten Kundeninformationen zugestellt, damit diese den Käufern, wenn nötig, unter die Arme greifen. Die meisten von uns sehen in Amazon ein Online-Kaufhaus. Tatsächlich aber wandelt sich das Unternehmen immer mehr zu einem Händler von Daten und Cloud-Anwendungen und wird damit zu einem „Big-Data-Analyse-Dienstleister“.

Beispielsweise verkauft Amazon Datencluster an Vermarkter, die diese Informationen verwenden, um Produkte zielgerichteter zu bewerben. Im Gegensatz zu Google und Facebook, die möglicherweise mehr allgemeine Daten über die Verbraucher haben, hat Amazon ein klares Verständnis von dem, was die Menschen tatsächlich kaufen und welche Ware sie suchen. Diese Informationen lassen mit hoher Wahrscheinlichkeit die Werbeeinnahmen von Amazon in kommenden Jahren deutlich steigen.

Big Data im Regal.

Neben Amazon ist die amerikanische Handelskette Walmart einer der führenden Big-Data-Analysten. Stündlich sammelt sie über 2,5 Petabyte an Daten von mehr als 1 Million Kunden. Walmart wertet die Kundenpräferenzen intensiv aus und passt die Lagerbestände der einzelnen Filialen daraufhin an. So können Out-of-Stock-Situationen reduziert und Umsätze gesteigert werden.


Das Unternehmen ist sogar in der Lage, seine Verkaufstrends mit externen Ereignissen zu verknüpfen. Beispielsweise mit Trending Topics von Twitter, massentauglichen Sportereignissen oder dem Wetter. So wurde bereits 2004 festgestellt, dass die Vorhersage eines Hurrikans den Verkauf von Erdbeereis um 700 % ansteigen lässt. Von nun an wird vor jeder Sturmsaison Erdbeereis direkt vor den Kassen platziert.
Walmart besitzt Kundendaten von rund 145 Millionen Amerikanern. Diese stammen sowohl aus den Supermärkten als auch aus dem Internet. Die Informationen aus dem Tracking von Produkten und Produktkombinationen an der Kasse, der Tagesumsätze, Warenanlieferungen, filialspezifischen Faktoren wie zum Beispiel Öffnungszeiten sowie aus Erwähnungen in den sozialen Netzwerken und dem individuellen Klick-Verhalten auf der Website verbindet das Unternehmen zu einer riesigen Datenbank verschiedener Beziehungsgeflechte. Walmart ist somit in der Lage, seinen Betrieb auf der Basis von Trends auf Mikroebene zu optimieren, den Kundenlebenszyklus zwischen In-Store und Online zu verfolgen und den Umtausch von Produkten mit personalisierten E-Mails zu verringern. Diese datengetriebene Intelligenz ist kein Versuch oder Test, sondern zentraler Bestandteil der Kundenbindung und vielleicht sogar vergleichbar mit der Zukunft von „Mercedes me“.

Schwanger.

Ein medialer Knüller gelang der amerikanischen Supermarktkette Target mit einem Algorithmus, der schwangere Frauen anhand ihres Einkaufsverhaltens identifiziert. Ein aufgebrachter Vater beschwerte sich 2012, dass seine Tochter, die noch die High School besuchte, Coupons für Babykleidung und Kinderbetten von Target zugesandt bekam. Die Kette entschuldigte sich. Wenige Tage nach der Beschwerde musste die betreffende Frau jedoch feststellen, dass sie tatsächlich schwanger war.

Die Auswertung von Daten bietet viele Chancen und Risiken. Das Optimierungspotenzial ist immer noch riesig. Als Grundlage von künstlicher Intelligenz könnte Big Data in Zukunft noch genauer auf die Wünsche der Kunden eingehen. Wer einmal Windeln in kleiner Größe kauft, sollte nach einer gewissen Zeit die nächstgrößere Windel vorgeschlagen bekommen statt monatelang immer die gleiche Windelgröße. Noch hat Amazons Vorschlagsalgorithmus nicht kapiert, dass ein Baby wächst und mit ihm auch die Windelgröße.

Für die einen mag es erschreckend sein, was sich mithilfe von Business Intelligence herausfinden lässt. Für die anderen ist es schlichtweg ein Werkzeug, um auf intelligente und agile Weise unternehmerisch zu agieren. Es gibt noch weitaus mehr Beispiele, wie große Mengen an Daten erfolgreich ausgewertet werden. Die eigentliche Frage ist aber, wie viel ungenutztes Potenzial vor der eigenen Haustür liegt und wann man beginnt, die Macht der Daten zu nutzen.