Typische Anwendungsfälle
Nachdem der erste Teil unserer Artikelreihe die Grundlagen von Artificial Intelligence (AI) und Machine Learning (ML) betrachtet hat, wollen wir nun einmal einen Blick in die Praxis werfen. Es gibt wirklich zahlreiche Anwendungsmöglichkeiten von AI im Bereich Marketing – vielfach eng vernetzt mit E-Commerce oder Customer Service. Hier nur einige Beispiele:
All diese Anwendungen haben einen gemeinsamen Nenner: Die weitgehend digitale und personalisierte Customer Journey.
Vorab: Viele der im vorherigen Abschnitt genannten Begriffe werden implizit mit Artificial Intelligence in Verbindung gebracht. Dabei ist dies keinesfalls vorausgesetzt. Und auch nicht immer ist AI hier das Mittel zum Zweck. Es hängt, wie so oft, vom konkreten Einzelfall ab, welcher Ansatz zum Ziel führt. Dabei spielen folgende Fragen unter anderem eine entscheidende Rolle:
Bestimmt kennen Sie das: Nichts ist nerviger als Chatbots, die einen nicht verstehen, oder Websites, die einen penetrant mit unpassenden Empfehlungen behelligen. Bewusst oder unbewusst vergleichen User nämlich den Automatismus mit der Qualität eines menschlichen Kontaktes. Und das setzt die Messlatte für AI in vielen Fällen sehr hoch.
Dabei geht es in den wenigsten Fällen darum, Interaktion mit AI von der Interaktion mit einem Menschen ununterscheidbar zu machen, denn im Regelfall wissen die User, dass sie mit Maschinen interagieren. Vielmehr ist es entscheidend, eine gute User Experience (UX) und letztendlich einen echten Mehrwert zu bieten. Die Frage nach dem Mehrwert ist auch ausschlaggebend, wenn es darum geht, ob sich eine technologische Idee zum Gadget oder zu einer nachhaltigen Lösung entwickelt.
Oft wirkt aber AI auch im Hintergrund, wenn es um Marketing Automation oder ähnliche Anwendungen geht. Insofern bekommt der User in vielen Fällen das Schalten und Walten der künstlichen Intelligenz allenfalls anhand der Resultate mit. Ein Beispiel: Dynamic Pricing. Aufgrund unterschiedlicher Parameter wird hierbei der Preis eines Produkts oder einer Dienstleistung individuell angepasst. Dabei kann können userunabhängige Parameter, wie Wochentag, Uhrzeit oder aktuelle Marktsituation eine Rolle spielen. In vielen Fällen spielen aber auch Verhalten/Eigenschaften der User eine Rolle, die durch Tracking oder vorhandene Datensammlungen ermittelt wurden, wie zum Beispiel vorherige Website-Besuche oder vorherige Bestellungen. Spätestens, wenn Eigenschaften wie Geschlecht oder Alter eine Rolle spielen, sollte man als E-Commerce-Treibender sicherstellen, dass Diskriminierung ausgeschlossen ist. Neben ethischen und moralischen Aspekten gibt es hier auch einen gesetzlichen Rahmen.
Falls Sie unseren Artikel AI und ML Basics: Was steckt eigentlich dahinter? noch nicht kennen, empfiehlt es sich diesen zum besseren Verständnis vorab zu lesen.
Schauen wir uns einmal ein ganz konkretes Beispiel aus dem Bereich Predictive Marketing an. Nehmen wir an, wir wären ein Online-Reisedienstleister. Wir betreiben ein Portal, in dem Reiseblogs einsehbar sind und registrierte User die im Blog beschriebenen Reisen auch buchen können. Nutzer- und Trackingdaten sowie DSGVO-konforme Zustimmung zu deren Verarbeitung für Marketingzwecke sind vorhanden.
Nun möchten wir herausfinden, ob es innerhalb einer Session sinnvoll ist, einem User einen Rabattgutschein für eine bestimmte Reise anzubieten, um die Erfolgschancen, dass dieser eine bestimmte Reise bucht, zu erhöhen. Auf jeden Fall verhindern möchten wir, dass wir einen Gutschein anbieten, der User jedoch auch ohne Rabatt die Reise gebucht hätte. Um das Beispiel einfach zu halten, wollen wir in zwei Userkategorien klassifizieren:
Vorab sei erwähnt: Wir haben bislang noch keine Gutscheinaktion durchgeführt. Zur Auswirkung von Gutscheinen auf die Conversion haben wir also keine Analysen. Für das beschriebene Szenario können wir daher User ermitteln, die in der Vergangenheit (zwangsläufig ohne Gutschein) bestellt haben. Basierend auf diesen Daten können wir durch Machine Learning User ermitteln, die aufgrund Ihres Profils sehr wahrscheinlich auch ohne Gutschein bestellen werden, um diese von der Gutscheinaktion auszuklammern.
Konkret ziehen wir also gelabelte Daten heran, beispielsweise mit folgenden Features (exemplarisch und stark vereinfacht):
X1 = Anzahl bisheriger Seitenbesuche
X2 = Durchschnittliche Dauer der Sessions
X3 = Region
Y = Bestellung ohne Gutschein (wahr/falsch)
Sie sehen bereits: Es handelt sich hierbei um eine Klassifizierungsaufgabe, da Y die Werte „wahr“ oder „falsch“ annimmt.
Davon abgesehen, dass die hier genannten Daten stark vereinfacht sind, um das Beispiel übersichtlich zu halten, fällt Ihnen etwas auf? Richtig. X1 und X2 eigenen sich gut als numerische Eingaben für Machine Learning. Aber was machen wir mit X3, der Region? Wie bringen wir diese Daten in eine Form, die für Machine Learning gut geeignet ist? Der Ortsname ist es sicherlich nicht. Vielleicht die Postleitzahl? Immerhin ist dies eine Zahl. Aber wie steht es um die Relevanz dieser Zahlen für unser ML-Problem? Ist 60024 (Frankfurt) „doppelt so viel“ wie 30012 (Hannover)? Sie sehen schon, die Zahlen helfen uns in diesem Fall auch nicht weiter.
Abhilfe kann hier „Bucketizing“ schaffen: Auf deutsch: Wir schaffen regionale Gruppen und packen diese in einzelne „Eimer“. Für Machine Learning werden diese „Eimer“ als einzelne Elemente inherhalb eines Vektors repräsentiert, beispielsweise aufgeteilt in vier Regionen:
Region A (PLZ … bis …) → Vektor = [1, 0, 0, 0]
Region B (PLZ … bis …) → Vektor = [0, 1, 0, 0]
Region C (PLZ … bis …) → Vektor = [0, 0, 1, 0]
Region D (PLZ … bis …) → Vektor = [0, 0, 0, 1]
Solche Vektoren können durch Lernalgorithmen wunderbar verarbeitet werden. Gleichzeitig werden dadurch Fehlinterpretationen durch nicht aussagekräftige numerische Werte vermieden.
Welche Gruppierung hier sinnvoll ist, hängt wiederum stark von den vorhandenen Daten und dem jeweiligen Problem ab – und beides müssen (nach wie vor) Menschen sehr genau verstehen, um hier sinnvolle Entscheidungen zu treffen. Das Sparring zwischen fachlich und technologisch orientierten Stakeholdern ist hier entscheidend. Solides „Feature Engineering“ wie sich diese Auswahl und Vorbereitung der Daten nennt, ist entscheidend für erfolgreiches Machine Learning. Im Fall großer und komplexer Datenbestände ist dies eine sehr anspruchsvolle Aufgabe, welche in vielen Fällen auch neue Organisationsstrukturen im Unternehmen erfordert, um die entsprechenden Kompetenzen ideal mit einzubeziehen. Zudem kann Feature Engineering dazu beitragen, das eigentliche ML-Modell schlank zu halten. Die richtigen, aber dafür nur wenige Features zu berücksichtigen, kann dabei ein Weg zum Erfolg sein.
Nun haben wir also unsere Daten ausgewählt und ggf. ein eine für Machine Learning geeignete Form gebracht. Wichtig ist nun, die Daten aufzuteilen, und zwar in drei Sets:
Trainingsdaten (ca. 70 % der Datensätze): Mit diesen Daten trainieren wir unser Machine Learning Model. Dies führt dazu, dass Datensätze des Trainingssets zu sehr genauen Vorhersagen führen, was jedoch noch nichts darüber aussagt, ob das Model auch allgemein für Szenarien, die nicht in unseren Testdaten enthalten sind, ebenfalls gut funktioniert.
Validierungsdaten (ca. 15 % der Datensätze): Mit diesen Daten prüfen wir zunächst, ob unser Model auch gut mit Daten jenseits des Trainingssets funktioniert. Vereinfacht ausgedrückt: Basierend auf diesen Erkenntnissen wird das Model noch feinjustiert. Die Nutzung der Validierungsdaten beeinflusst also unser Model ebenfalls.
Testdaten (ca. 15 % der Datensätze): Schließlich wird unser Model noch mit Testdaten überprüft. So kann beurteilt werden, ob das Model auch im Produktionsbetrieb mit Daten, die zuvor noch nie „gesehen“ wurden, ein verlässliches Ergebnis liefert.
Wichtig ist eine gute Durchmischung der Datensätze – also systematische Unterschiede zwischen den einzelnen Sets zu vermeiden. Zudem ist die prozentuale Mengenverteilung zwischen den Datensätzen auch immer etwas von der jeweiligen Problemstellung und der verfügbaren Datenmenge abhängig.
So, nun haben wir also unsere Features bestimmt und die Daten in drei Sets unterteilt. Es kann losgehen mit dem Lernprozess. Wie dieser genau abläuft, schauen wir uns in unserem Artikel „Für Streber: Machine Learning ist einfach nur Mathe“ genauer an. Für den Moment stellen wir uns einfach vor, dass unser Lernprozess auf Basis der Trainingsdaten versucht, eine Gleichung zu ermitteln, die bei Eingabe der X-Werte dann Y-Werte ausgibt, die möglichst nah an den Labels Y der Trainingsdaten liegen. Das Ziel ist, eine in Summe möglichst geringe Abweichung zwischen den Labels Y und den errechneten Werten Y zu erzielen.
Sobald wir mit den Ergebnissen soweit zufrieden sind, füttern wir unser Modell mit Validierungsdaten. Typischerweise erzielen wir hier schlechtere Ergebnisse als mit den Trainingsdaten. Die Ergebnisse analysieren wir (Details auch in weiteren Artikeln) und optimieren unser Modell weiter.
Letztendlich nehmen wir unsere Testdaten, welche unser Modell vorher noch nie gesehen hat, und prüfen damit, wie unser feinjustiertes ML-Modell mit bislang unbekannten Daten funktioniert. Sind wir auch hier mit den Ergebnissen zufrieden, sind wir grundsätzlich fertig.
Wirklich fertig? Für den Moment vielleicht. Aber im Regelfall ist Machine Learning kein einmaliger Vorgang. Nachdem wir nun ein erstes Modell, welches wir anhand vorhandener Daten („Batch Data“) trainiert haben, kümmern wir uns auch darum, wie unser Modell laufend anhand neu generierter Daten („Stream Data“) optimiert werden kann – und somit auch aktuell bleibt. Wichtig ist dabei, dass Batch Data und Stream Data in derselben Art und Weise verarbeitet werden.
Typische Antwort: Kommt drauf an. Es gibt zahlreiche Marketing Automation Systeme, die mittlerweile AI-basierte Funktionen bieten. Oft bemerken Sie hier vom eigentlichen „AI-Maschinenraum“ nicht viel. Dennoch ist es auch hier entscheidend zu verstehen, welche Daten in welcher Form zum Einsatz kommen. Nur so können Sie sicherstellen, dass Ihre Anforderungen und Ziele durch AI erfüllt werden. Darüber hinaus gibt es zahlreiche Frameworks und Libraries, die für ML genutzt werden können. Sie müssen also das Rad nicht neu erfinden.
rb omnichannel unterstützt Sie bei Auswahl und Einführung von Marketing Automation Systemen oder geeigneten Libraries kompetent und unabhängig.
Wir haben nun eine Möglichkeit geschaffen, Prognosen zu erstellen, ob ein User unseres Portals auch ohne Gutschein eine Bestellung abschließen wird. Natürlich müssen wir nun noch entsprechende Funktionen implementieren, damit der Gutschein-Prozess für die anderen User (welche durch unser neues ML-Modell ermittelt werden) gestartet wird.
Menschliche Überprüfung ist entscheidend, wenn es um die Nutzung von AI geht. Prozessual sollte im Unternehmen sichergestellt werden, dass Artificial Intelligence regelmäßig überprüft und weiter optimiert wird.
In unserem Konkreten Beispiel gibt es eine Besonderheit: Die historischen Daten (Batch Data), welche zum initialen Training verwendet wurden, sind zu einem Zeitpunkt entstanden, als auf unserem Reiseportal noch keine Gutscheine angeboten wurden. Dies wird sich allerdings künftig ändern. Was müssen wir bei der Verarbeitung von Stream Data berücksichtigen? Welchen Einfluss hat die Tatsache, dass es nun Gutscheine gibt auf die Vergleichbarkeit von Batch Data und Stream Data? Berücksichtigt unser ML-Modell dies implizit? Und wie werden die Gutscheine das Nutzerverhalten beeinflussen? Haben Sie Ideen zu diesen Fragen? Sie sehen: Die Tücken – auch bei diesem Beispiel – liegen oft in den Daten und im jeweiligen (ggf. sich verändernden) Use Case. Insofern ist es entscheidend, diese genau zu verstehen und zielgerichtet einzusetzen. Lassen Sie uns darüber sprechen.
Nein, definitiv nicht. Dieser Artikel hat einige Aspekte eines sehr großen Gebiets herausgegriffen. Andere Aspekte und Zusammenhänge wurden bewusst an dieser Stelle noch nicht behandelt. Ziel dieses Artikels war, einen ersten Einblick in Machine Learning am Beispiel „Marketing“ zu geben.
Lesen Sie auch unsere anderen Artikel zum Thema:
Haben Sie Fragen, oder möchten Sie weitere Details zu den vorgestellten Themen mit mir besprechen? Kontaktieren Sie mich jederzeit über unser Kontaktformular oder rufen Sie mich unter 04121 6460410 an. Von der Anforderungsanalyse bis hin zum Rollout unterstützt Sie die rb omnichannel GmbH gerne.
Herzliche Grüße
Ihr Roland Bühler