Customer Experience: Kompetenz im Datenmanagement entscheidet

Customer Experience: Kompetenz im Datenmanagement entscheidet

Daten sind das neue Gold. Aber wie können Vermarkter von den gesammelten Daten profitieren, wie holen sie das Meiste für ihr Marketing heraus und welche Rolle spielen KI und Maschinelles Lernen dabei? Paige O’Neill, Chief Marketing Officer bei Sitecore, spricht im Interview über die Zukunft des Marketing und die Chancen und Herausforderungen des unaufhaltsamen technologischen Fortschritts. Dabei geht sie auch auf das ungleiche Geschlechterverhältnis in der Techbranche ein und präsentiert ihre Sicht der Dinge.
„Genauso wichtig, wie der Umgang mit ihren Daten ist es, sicherzustellen, dass ihr Unternehmen über die richtigen Grundlagen verfügt“ – Paige O’Neill
OnlineMarketing.de: Wie zentral wird es angesichts der zunehmenden Bedeutung von Maschinellem Lernen und Daten sein, den Zugang zu Daten von Erstanbietern sicherzustellen?
Paige O’Neill: Daten sind von immer zentralerer Bedeutung, um ein erstklassiges Kundenerlebnis zu schaffen. Wir halten Kompetenzen im Datenmanagement jedoch für wichtiger als die spezifische Datenquelle. Unabhängig davon, ob Sie mit Daten arbeiten, die über ihr CRM gesammelt wurden, aus vergangenen Kundeninteraktionen oder ausschließlich aus Quellen Dritter stammen; die Daten sauber und organisiert zu halten ist entscheidend.
OnlineMarketing.de: Obwohl KI und das Maschinelle Lernen in unserem Alltag angekommen sind, scheint es, als gäbe es für Vermarkter noch viel zu tun. Was ist der nächste Schritt? Wie können Vermarkter die Daten nutzen, die sie besitzen?
Paige O’Neill: Ich kann es nicht oft genug sagen: Die Stärke ihrer KI/ML-Fähigkeiten hängt vom Zustand ihrer Daten ab. Daten können unser Feind und unser Freund sein. Zu viele oder falsch markierte Daten machen es schwer, Automatisierungen sinnvoll zu implementieren. Marketingspezialisten sollten damit beginnen die Daten zu organisieren und zu bereinigen, um sicherzustellen, dass sie korrekt und keine Dopplungen vorhanden sind.
OnlineMarketing.de: Was könnte der beste oder praktikabelste Weg sein, um genau das zu erreichen?
Paige O’Neill: Genauso wichtig, wie der Umgang mit ihren Daten, ist es sicherzustellen, dass ihr Unternehmen über die richtigen Grundlagen verfügt, um sein erstes AI/ML-Projekt zu starten. Haben Sie das beste technische Team für den Job eingestellt? Sind die bestehenden Mitarbeiter geschult und darüber informiert, warum und wie die Automatisierung eingesetzt wird? Haben sie ihre Fähigkeiten erst einmal bewertet und die richtige Architektur aufgebaut, sollten sie mit einem begrenzten KI-Projekt klein beginnen. Sobald die Daten und Analysen ausgewertet und als vertrauenswürdig eingestuft wurden, können sie ihre Automatisierungsfähigkeiten skalieren und die KI in andere Bereiche ihrer Organisation integrieren.
OnlineMarketing.de: Werden mögliche weitere Regulierungsprozesse die Entwicklung von AI-basierten Mechanismen und Technologien behindern oder könnten sie künftig auch hilfreich sein?
Paige O’Neill: Die in Europa anstehende Verordnung setzt wichtige Standards für Unternehmen für die Nutzung von Verbraucherdaten und wird hoffentlich zu mehr Transparenz und letztendlich zu mehr Vertrauen, führen. Verbraucher werden sich sicherer fühlen, wenn Unternehmen gleich zu Beginn klar kommunizieren, welche Daten sie sammeln und wie sie beabsichtigen diese zu nutzen.
OnlineMarketing.de: Einer der zentralen Anwendungsfälle für die KI-Technologie ist die Sprachsuche. Wird diese Entwicklung das Sucherlebnis auf lange Sicht noch individueller und persönlicher machen?
Paige O’Neill: Während die KI-Technologie immer ausgereifter wird, ist eine wichtige Barriere, die die KI überwinden muss, der Authentizitätstest für Verbraucher, die mit ihr interagieren. So wie wir Suchanfragen per Sprachbefehl stellen oder auf Webseiten mit KI-gesteuerten Chatbots interagieren, werden diese zu bedeutenden Möglichkeiten für Dienstleistungen und Technologien, um aus früheren Dateninteraktionen zu lernen. In Zukunft eröffnen sich dadurch neue Möglichkeiten, authentischere und personalisierte Empfehlungen zu bieten, die alltägliche Aufgaben erleichtern.
OnlineMarketing.de: Können Sprachassistenten bald nicht nur bestimmte Fragen beantworten, sondern den Benutzern auch passende Empfehlungen geben?
Paige O’Neill: Absolut und das passiert bereits heute. Viele der Dienstleistungen, die wir regelmäßig nutzen, lernen ständig von Sprachinteraktionen und Suchen, die wir durchführen und tragen all unsere Daten zusammen. Da sie die Daten unserer Suchanfragen und Einkaufsmuster sammeln und von ihnen lernen, werden wir in Zukunft nicht einmal mehr die Fragen stellen müssen. KI-gestützte Technologie wird die Information, die wir benötigen dann liefern, wenn wir sie benötigen.
OnlineMarketing.de: Wo liegt die Grenze für KI in Bezug auf praktische Lösungen?
Paige O’Neill: Ich bin mir nicht sicher, ob es ein Limit geben wird. Mit fortschreitender Reife der Technologien und dem täglichen Lernen aus unserem Verhalten werden wir nicht mehr durch Fragen oder Suchen versuchen müssen, mit diesen Technologien zu interagieren. Wir werden in eine Welt eindringen, in der Einkaufen, Reiseplanung und andere zeitintensive Aufgaben automatisiert werden.
OnlineMarketing.de: Wenn wir an zukünftige Lösungen und Entwicklungen denken, können AI und Machine Learning vor dem Hintergrund, dass sie unabhängige Vorschläge machen können, ebenso Anlass zur Sorge geben? Würden die verantwortlichen Unternehmen immer in Rechenschaft gezogen werden?
Paige O’Neill: Jedes Mal, wenn ein Unternehmen oder Anbieter mit einem Kunden und seinen Daten interagiert, ist die Verantwortlichkeit entscheidend. So wie wir offen sein sollten, wie wir Daten verwenden, um bessere Kundenerlebnisse zu schaffen, sollten wir auch bereit sein, Verantwortung zu übernehmen, wenn diese Erfahrungen nicht nach Plan verlaufen sind. Das Gute daran ist, dass wir als Vermarkter unseren Teil dazu beitragen können, Komplikationen zu vermeiden: Beginnen Sie mit dem Aufbau verschiedener Teams und Content, die helfen, Verzerrungen und schlechte Empfehlungen zu vermeiden.
OnlineMarketing.de: Wenn maschinelles Lernen und KI vielversprechende Elemente eines zukunftsorientierten Marketing-Mix sind, wie können sie dann ordnungsgemäß überprüft werden? Läuft die technologische Entwicklung aus HR-Sicht nicht viel schneller als der Aufstieg gebildeter Talente?
Paige O’Neill: Da diese Technologien immer ausgereifter werden, wird es entscheidend sein, dass wir die richtigen Tests durchführen und verstehen, wie sie in unseren Alltag passen. So stellen wir sicher, dass wir die Auswirkungen verstehen, bevor wir sie in die Öffentlichkeit übertragen. Ich bin nach wie vor der Meinung, dass wir durch die KI-Anwendungen einen enormen Mehrwert haben werden.
OnlineMarketing.de: Frauen sind sowohl in der Techbranche als auch in anderen Branchen unterrepräsentiert. Wer müsste hier die Verantwortung übernehmen, um das langfristig zu ändern?
Paige O’Neill: Die Wahrheit ist, dass es an uns allen liegt, die Ungleichheit in der Technologiebranche zu bekämpfen. Es ist ein von Grund auf neuartiges Unterfangen, das beim C-Level beginnt und auch jeden einzelnen Mitarbeiter einbeziehen sollte. Sie müssen ein unterstützendes Umfeld haben, das Vielfalt und Integration fördert, messen, wo Sie als Unternehmen sind, und sich Ziele setzen, wo Sie sein wollen. Seien Sie offen und transparent über Benchmarks und Fortschritte. Glücklicherweise haben wir bereits angefangen.
OnlineMarketing.de: Wie können Unternehmen das Geschlechterverhältnis ausgleichen? Brauchen wir Quoten?
Paige O’Neill: Auch wenn man es definitiv nicht auf ein Zahlenspiel reduzieren will, ist es dennoch wertvoll, klare Ziele und Benchmarks zu setzen, die das Management zur Verantwortung ziehen. Diese Ziele sollten nun nicht einfach „X Anzahl Frauen einstellen“ im Unternehmen sein. Stattdessen bitten Sie die Personalabteilung um eine ausgewogene Vertretung von Männern und Frauen im Kandidatenpool, so dass Sie das Spielfeld nivellieren und eine vielfältige Auswahl an Talenten sicherstellen. Unser CEO hat kürzlich eine solche Richtlinie an unsere Personalvermittler herausgegeben, in der er die gleiche Anzahl von Lebensläufen von Frauen und Männern bewertet hat. Infolgedessen haben wir in weniger als einem Jahr die vierte Frau auf C-Level-Niveau in unserem Führungsteam eingestellt.
OnlineMarketing.de: Glauben Sie, dass ein Generationenwechsel auch dazu beiträgt, Vorurteile abzubauen? Im Moment scheinen sich viele Menschen immer noch an eine veraltete Lebensauffassung zu klammern.
Paige O’Neill: Ich sehe aus erster Hand, dass die junge Generation, die ins Berufsleben eintritt, sehr unterschiedliche Vorstellungen und Erwartungen an die Rolle der Frauen im technologischen Bereich hat. Sie haben nicht die vererbten Wahrnehmungen, die einige der älteren Generationen zurückhalten – sie erwarten, dass sie eine gleichberechtigte Stimme und einen gleichberechtigten Platz an diesem Tisch haben. Diese Veränderung gibt mir die große Hoffnung, dass die nächste Generation, anstatt sich mit der Unterrepräsentation von Frauen in der Techbranche abzufinden, dazu beitragen wird, uns zu einem vielfältigeren und gerechteren Arbeitsumfeld zu führen.  
Danke für das Interview!

Gefährliche Deepfakes: Unterschätzen wir das Missbrauchspotential?

Gefährliche Deepfakes: Unterschätzen wir das Missbrauchspotential?

Zurzeit arbeiten Forscher des Max Planck Instituts für Informatik an der Princeton University an einer neuen AI, welche Deepfakes auf eine ganz neue Ebene heben könnte. Die Software analysiert die Transcripts eines Videos und kann anhand dieser das von einer Person Gesagte verändern. Die künstliche Intelligenz ist fähig die Mundbewegungen einer Person zu verändern und im Satz bestehende Worte auszutauschen, zu entfernen oder ganz neue Sätze zu bilden, in derselben Stimmlage der Person im Video, wie The Verge berichtet. Die Forscher scheinen mit ihren bisherigen Fortschritten zufrieden, doch stellt sich die Frage, ob sie die davon ausgehende Gefahr nicht sehen – oder ist diese gar nicht vorhanden?
Wie funktioniert die Technologie?
Um die Verfälschung stattfinden zu lassen, bedient sich die AI diverser Techniken. Zunächst werden die im Video gesprochenen Phoneme isoliert, wobei Phoneme hierbei die jeweils kleinsten sprachlichen Einheiten sind. Diese werden dann mit dazugehörigen Visemen, also der Mimik, beziehungsweise der Bewegung des Mundes, in Verbindung gebracht. Abschließend wird ein 3D Modell der unteren Gesichtshälfte anhand dieser zwei erstellt. Das ist natürlich nur die einfache Erklärung dazu, der tatsächliche Prozess dahinter ist wesentlich komplexer. Eine exakte Erklärung samt Beispielen findet man in diesem Video:
[embedded content]
Veröffentlicht wurde diese Software bisher noch nicht, doch arbeitet Adobe bereits an einer öffentlichen Variante namens „VoCo“, mit der die Bearbeitung solcher Videos so einfach erfolgen soll, wie die von Bildern.
Wie realistisch ist die Fälschung?
Bei Tests ließen sich bisher 60 Prozent aller Befragten täuschen, 40 Prozent erkannten die Fälschung, wobei hierzu gesagt werden muss, dass auch 20 Prozent die Originale für Fälschungen hielten. Sofern solch eine Befragung erfolgt, achten die Teilnehmenden natürlich wesentlich schärfer auf mögliche Verfälschungen und sind dem Wahrheitsgehalt des Videos sehr skeptisch gegenüber, wodurch die Ergebnisse nicht vollkommen repräsentativ sind. Ebenfalls muss dazu gesagt werden, dass die AI noch nicht fehlerfrei funktioniert und somit noch nicht perfektioniert wurde. Es braucht 40 Minuten an Videomaterial um eine erfolgreiche Analyse bereitzustellen. Ebenso können Störungen der Mimik, wie das Berühren des Gesichts mit der Hand, die Analyse vollkommen entwerten und somit nutzlos machen. Des Weiteren trifft auch das Replizieren des Gesprochenen noch auf Probleme, sodass dieses teils nicht authentisch klingen mag. Die Stimmlage lässt sich ebenso nicht verändern, wodurch auch die dahinterstehende Emotion unveränderlich ist. Vor allem die Audioqualität jedoch macht bisher große Fortschritte. Es bleibt eine Frage der Zeit, bis diese Fehler korrigiert werden und somit mittels der Software ein wirklich authentischer Deepfake erstellt werden kann.
Der erste Deepfake ging schon viral
Nichtsdestotrotz wurden mittels dieser Technologie schon erste Personen hereingelegt. Auf Instagram ging ein Video viral, in welchem Mark Zuckerberg seine Macht eingesteht. Das Video ist Teil eines sozialkritischen Kunstprojekts des israelischen Startups Canny-AI, doch ist es authentisch genug, als dass eine Vielzahl von Nutzern den Deepfake für glaubwürdig erachteten und somit das Image vom Facebook-Gründer weiter ankratzen konnte.

Inhalte wie diese verbreiten sich im Internet wie ein Waldbrand und sind mal mehr, mal weniger schädlich. Schließlich gibt es auch humoristische Beispiele wie vom Neo Magazin Royale, das ein Video von Yanis Varoufakis verbreitete, wie er der deutschen Politik den Mittelfinger zeigte – wobei hierbei darüber zu debattieren gilt, wie harmlos der vom Magazin gestartete #Varoufake tatsächlich war. Was für einen Eindruck derartige Deepfakes haben können, zeigen beide Videos allemal. Allerdings gibt es natürlich auch lustige Beispiele. Kürzlich erst ging ein Video viral, in dem der von Kit Harrington gespielte Jon Snow aus Game of Thrones sich für die achte Staffel entschuldigte, welche unter Fans größtenteils schlechte Kritiken erhielt.
[embedded content]
Lässt sich die Gefahr regulieren?
Wenn bereits vergleichsweise harmlose Deepfakes wie die eben genannten für Furore sorgen, lässt sich nur ausmalen was geschieht, wenn Politiker viral gehen, denen über AI Worte in den Mund gelegt werden, die sie nicht gesagt haben. Die Forscher seien sich angeblich der Gefahr bewusst.
Although methods for image and video manipulation are as old as the media themselves, the risks of abuse are heightened when applied to a mode of communication that is sometimes considered to be authoritative evidence of thoughts and intents. We acknowledge that bad actors might use such technologies to falsify personal statements and slander prominent individuals.
Die zur Regulierung gegebenen Vorschläge sind allerdings nur wenig beruhigend. Durch Kontext und Watermarks soll angegeben werden, dass es sich beim Video um ein Deepfake handelt. Die Problematik dabei ist klar: Der Kontext wird bei Zurschaustellung im Internet oftmals ignoriert und auch Watermarks lassen sich in der Regel mühelos entfernen. Die von der AI ausgehende Gefahr lässt sich also nicht angemessen regulieren und könnte dementsprechend für großen Aufruhr sorgen, der sich nicht angemessen nachvollziehen lässt.
Die Forscher geben ebenso an, dass die sich in Entwicklung befindende Technologie auch viele Vorteile hätte. So könnte vor allem die Filmbranche an dieser Technologie profitieren, um misslungene Takes ganz einfach am Computer beheben zu können. Im Vergleich zu den dahinterstehenden Gefahren scheint dies jedoch nur ein sehr schwacher Trost zu sein.

AWS: Amazon Personalize ist nun für alle Kunden verfügbar

AWS: Amazon Personalize ist nun für alle Kunden verfügbar

Im vergangenen Jahr hatte Amazon die Option Personalize für die Amazon Web Services-Kunden angekündigt. Nun ist die Verfügbarkeit für alle bestätigt worden. Mit der API können diese Entwickler die Machine Learning-Prozesse nutzen, um ein optimiertes personalisiertes Erlebnis für potentielle Käufer zu schaffen.
Amazon Personalize eröffnet vielfältige Möglichkeiten
TechCrunch und weiteren Medien zufolge ist Personalize von Amazon nun für sämtliche Kunden verfügbar. Mit einer AWS Account ID können sich diese inzwischen bereits für die Vorabversion registrieren. Der Service im Rahmen der Amazon Web Services soll dabei helfen, Suchende zu Käufern zu machen. Hierfür lassen sich dank Personalize „personalisierte[] Produkt- und Inhaltsempfehlungen, maßgeschneiderte Suchergebnisse und zielgerichtete Marketing-Werbekampagnen“ erstellen. Um diese Möglichkeiten nutzen zu können, haben Entwickler die Chance, auf Algorithmen zurückzugreifen, die jahrelang bei Amazons Website selbst zum Einsatz gekommen sind.
Personalize generiert einen Aktivitäts-Stream, der Daten zu Seitenaufrufen, Anmeldungen, Einkäufen usw. aufgreift. Außerdem werden Produkte, die empfohlen werden sollen, miteinbezogen. Weitere Daten, wie demographische oder geographische, die die Nutzer betreffen, können ebenfalls eingespeist werden, um eine möglichst personalisierte Erfahrung für die Nutzer zu ermöglichen. Dabei betont Amazon, dass alle verarbeiteten Daten vertraulich behandelt werden. Über die in der AWS Cloud integrierte API können die Kunden schließlich auch personalisierte Prognosen erstellen.
Amazons Personalize in der Visualisierung (mit einem Klick aufs Bild gelangst du zur größeren Ansicht), © Amazon Mehr Informationen zum Feature, das beispielsweise von Domino’s für personalisierte Benachrichtigungen verwendet wird, gibt Amazon im eigenen Blog preis. So meint etwa Mallika Krishnamurthy, Global Head, Strategy & Insights bei Domino’s Pizza Enterprises:
Durch die Nutzung von Amazon Personalize erzielen wir eine skalierte Personalisierung unserer gesamten Kundenbasis. Dies war früher nicht möglich. Mit Amazon Personalize können wir Kontext zu individuellen Kunden und ihren jeweiligen Umstände anwenden und damit individuelle Benachrichtigungen zu besonderen Deals und Angeboten über unsere digitalen Kanäle erstellen.
Wer Amazon Personalize nutzt, zahlt 5 US-Cent pro GB Upload an Daten und 24 US-Cent pro Trainingsstunde. Weitere Preise und ein Beispiel für ein Unternehmen findet ihr hier.

Adobe Summit – B2E als Revolution und Customer Experience als Währung

Adobe Summit – B2E als Revolution und Customer Experience als Währung

B2E – Business to Everyone. Das ist die revolutionäre Marschrichtung, die Steve Lucas von Marketo für Adobe beim Summit in London präsentiert. Damit verweist er auf Digitalkultur, die bekannte Systeme und Muster aufbrechen möchte, um die Kundenerfahrung zu optimieren. Die Customer Experience wird als das ultimative Ziel für Marken stilisiert und in Kombination mit dem Trust der Nutzer als neue Währung ausgerufen. Daten und Technologie bleiben die Basis, auf der eine optimale Kundenreise aufgebaut werden kann. Dafür präsentiert Adobe starke Lösungen und wichtige Partnerschaften.
Die perfekte Customer Experience als heiliger Gral 
Der Adobe Summit EMEA 2019 in London stand klar im Zeichen der Kundenerfahrung. Das wurde wieder und wieder von den Verantwortlichen bestätigt. Abhay Parasnis, Executive VP und CTO bei Adobe, erklärte bei der Keynote auf der Bühne vor 6.000 Anwesenden:
Leaders and laggards are divided by the ability to focus on the customer experience.
Um zu erkennen, wie wichtig die Kunenerfahrung für jegliche Marken ist, waren auf der Bühne im eindrucksvollen ExCel in den Docklands von London neben den zentralen Marketingverantwortlichen Adobes wie etwa Paul Robson, Präsident für den EMEA-Raum, auch Vertreter weltberühmter Marken zugegen. So erklärte die CIO von Unilever, Jane Moran, dass es Zeit für eine Hyper-Personalisierung und die Kundenanpassung der Massen sei. Wie aber treibt man die Customer Experience voran, so ein vages Konstrukt, das tatsächlich auf sehr vielen Elementen fußt? Auf jeden Fall muss die Ästhetik der Marketingmittel stimmen. Das untermauert Adobe selbst mit dem Aufbau des Summit und einem beinah ansteckenden Trailer zu den eigenen Produkten. Ein sehr schönes und treffendes Zitat hierzu liefert dann aber der CEO von illycaffè‏, Massimiliano Pogliani: 
Aesthetics should always go with ethics – otherwise it’s just cosmetics.
Weise Worte, denen er folgen lässt, dass die Optionen des Digitalen erlauben, jeden Tag etwas Neues zu kreieren.

Offering the greatest coffee experience to the world, enhanced by the best available technologies, is part of our mission. #LIVEHAPPilly#[email protected]@AdobeSummitpic.twitter.com/Nt8Jn7jPP7
— illycaffè (@illycaffe) May 15, 2019

Möglichkeiten und Hürden
Möglichkeiten und Hürden also. Wie beides im Kontext der vielzitierten Customer Journey effektiv kombiniert werden kann, reißt dann die VP für Platform Engineering bei Adobe, Anjul Bhambhri, an. Vier Punkte sind für die Experience wichtig:
die Data Pipeline
Echtzeit-Profile für Kunden
AI und Machine Learning
die Application Delivery
Bhambhri meint, dass sich, da die Kundeninteraktionen sich schließlich in Echtzeit ändern können, auch die an sie gerichteten Segmente in der Customer Journey in entsprechend schnell verändern lassen müssen. Ash Roots vom Partner BT erkannte diesen stetigen Wandel auch als Konstante an nud schob dabei gleich eine Analogie zum Segeln ein, wo immer andere Prämissen das Rennen der besten Boote beeinflussten. Nur mit einer raschen Anpassung lässt sich der optimale Zyklus einer Customer Journey mit eben solchen Interaktionen erreichen: entdecken, ausprobieren, kaufen, benutzen, erneuern.
Der optimale Customer Experience-Zirkel für Marken, © Niklas Lewanczik Eine Änderung des Mindset ist nötig
Um das Marketing für Marken in jeglichen Bereichen, B2B und B2C, zu einer starken Kundenerfahrung hinzuführen, braucht es laut Steve Lucas, CEO von Marketo, das seit letztem Jahr ebenso wie Magento zu Adobe gehört, ein Umdenken. Denn die Verantwortlichen im B2B-Bereich sind in ihrer Empfänglichkeit für Kampagnen per se nicht anders als im B2C-Bereich. Daher plädiert Lucas für die Ausrichtung B2E – Business to Everyone.
Das heißt auch, dass man bestehende Systeme und Muster überdenken muss. Sie determinieren bisher den Umgang mit der Kundenerfahrung; aber warum kann nicht die gewünschte Customer Experience bestimmen, wie die Systeme überhaupt aussehen müssen? Hier spricht sich Lucas für eine Anpassung aus. B2E ist der „North Star“ für Marketo und damit Adobe. Lucas verweist auch auf die Kooperation von Microsoft, Adobe und LinkedIn bei der Account-Based Experience (ABX), um Account-basierte Profile von Nuztern in der Adobe Experience Cloud, mitsamt Marketo Engage und Microsoft Dynamics 365, zur Verfügung zu haben.

What an incredible two days at #AdobeSummit EMEA! Check out our 5 key learnings: pic.twitter.com/e9H45WzKmT
— Experience Cloud (@AdobeExpCloud) May 16, 2019

Das Mindset zu verändern bedeutet ebenso, Prozesse vereinfachen und für mehr Menschen zugänglich machen zu können. Beth Burns von BT zeigt im Praxisbeispiel, wie sicher verschlüsselte First Party-Daten, aus einer E-Mail-Liste zum Beispiel, ganz simpel über Adobes Cloud genutzt werden können, sodass sich damit Nutzer via Social Media und im In-App-Bereich ansprechen lassen.
Das Layout personalisiert und ganz schnell ändern
Konkreter werden Peter Sheldon und Mathieu Hannouz von Adobe, die Echzeit-Veränderungen in der mobilen App präsentieren, für die es keinerlei Kenntnis eines Entwicklers bedarf. So demonstriert Hannouz am Beispiel der Seite und App von Zadig & Voltaire in der Experience Cloud, wie Templates in Sekundenschnelle ausgetauscht werden, während sich Titel, Beschreibung, Bilder usw. automatisch angleichen. Dabei erstaunt, dass das Layout je nach Kunde individuell mit speziellen Segmenten versehen wird.
Die Templates lassen sich je nach Audience anpassen, © Adobe Summit Die „Magic of Technology“, die Tatiana Mejia, Head of Product Marketing & Strategy, im Press Roundtable zu AI-Themen rund um Sensei benennt, ist das wundervolle Instrument, das zum Erreichen einer einzigartigen Customer Experience genutzt wird. Es entwickelt sich jedoch immer weiter. Dass Kreativität und Daten aneinander gebunden sind, bestätigt uns Toccara Baker, Senior Product Marketing Manager, EMEA bei Adobe, im Gespräch. Der Weg zur Customer Journey ist dabei ein Zyklus: ein starkes Creative überzeugt einen Nutzer, der etwa auf Instagram damit konfrontiert wird (via Advertising Cloud), und dieser meldet sich zum Testen bei Adobe an und erstellt eine Adobe ID. In diesem Moment wechselt sein Status gewissermaßen von unbekannt zu bekannt – und die Kreativität kann auf die konkreten Nutzerdaten zurückgreifen und im nächsten Schritt individuellere Kundenerlebnisse liefern.
Adobes Lösungen für die beste Customer Journey
Beim Summit wurden vonseiten Adobes natürlich zahlreiche und teils sehr aufsehenerregende Partnerschaften und Neuerungen vorgestellt. So soll die Adobe Experience Platform als erstes Modell seiner Art und als Customer Experience Management-Plattform umfassend dabei helfen, Echtzeit-Kundenprofile zu erstellen. In Kooperation mit Marketo Engage und dem neuen Partner Software AG soll das Customer Experience Management optimiert werden. Beim Summit wurde verkündet, dass die webMethods Integrations- und API-Management-Services der Software AG in die Experience Platform Adobes integriert werden. Auf diese Weise lassen sich Datensilos entfernen und dank KI und Machine Learning die Echtzeit-Profile erstellen. Integrierte SAP-Lösungen helfen ebendalls bei der Stärkung der CX, wenn beispielsweise ein neuer Datenkonnektor zwischen Marketo Engage und SAP-Lösungen das Kundenverhalten (etwa wichtige besuchte Websites, geöffnete E-Mails, Teilnahme an einer Veranstaltung etc.) und andere Marketingdaten nahtlos mit Vertriebsaktivitäten und Pipeline-Daten synchronisiert.
Die Adobe Experience Platform ist nun verfügbar.
So soll die Adobe Experience Platform funktionieren (bei einem Klick aufs Bild gelangt ihr zur größeren Ansicht), © Adobe Experience Platform Weitere wichtige Ankündigungen betreffen Magento Commerce. Mit diesen sollen jegliche Handelsunternehmen mehr Kunden als zuvor ansprechen können. Denn Magento Commerce integriert den Amazon Sales Channel und den Google Shopping Ads Channel bei den eigenen Lösungen. Nutzer können also etwa vom Magento Admin aus Google-Werbekampagnen verwalten oder mehr potentielle Käufer erreichen, indem Produktkataloge nahtlos bei Amazon integriert und ein Datenfluss in beide Richtungen etabliert wird. Zudem ermöglicht Magento die bereits erwähnten deutlich einfacheren und schnelleren Veränderungen bei Websites und Apps, die über einen Zugriff auf die Experience Cloud möglich sind. Die Funktionen der Magento Commerce sind in die Experience Cloud Adobes integriert, sodass die Kunden darauf zugreifen können. Andersherum können Magento Commerce-Kunden aber nun auch vereinfacht auf Adobe Analytics zurückgreifen.
Große Kunden, aber die gleichen Anforderungen für alle
Ein namhafter Kunde von Adobes Customer Experience Management-Lösungen ist inzwischen auch Prada, wie auf dem Summit bekanntgegeben wurde. Die Prada Group möchte mit den Experience Cloud-Lösungen rund um Marketing- und Multi-Channel-Kommunikation die Kundenerfahrung im Einzelhandelsnetzwerk optimieren, online und offline. Paul Robson kommentiert hierzu:
Die Prada Group steht für Innovation und Kreativität und unsere Partnerschaft wird eine zentrale Rolle in der globalen digitalen Strategie der Gruppe spielen. Die Kundenbedürfnisse und -erwartungen entwickeln sich ständig weiter. Luxusmarken sind führend bei der Schaffung einer größeren kanalübergreifenden Personalisierung und der Bereitstellung ansprechender Kundenerlebnisse, die letztendlich Vertrauen und Loyalität auf globaler Ebene aufbauen.
Tatsächlich sind vor allem die ganz großen Marken Partner und Kunden von Adobe. Wie wichtig die personalisierte, KI- und datengetriebene Customer Experience aber ist, hatte schon Adobes jüngst veröffentlichter Experience Index angedeutet. Vier von zehn Kunden in Deutschland haben einen Online-Kauf wegen einer schlechten Kundenerfahrung schon abgebrochen. Fast jeder Zweite ist mit dem Kundenservice in zentralen Branchen nicht zufrieden.
Adobe macht es eigens vor
So können sich Marken allgemein vom Adobe Summit 2019 EMEA in London die Botschaft herausfiltern: stellt die Customer Experience ins Zentrum. Natürlich möchte Adobe dabei Hilfestellung leisten, und die KI Sensei liefert hierzu eindrucksvolle Optionen – die womöglich sogar manchem Fotodesigner Arbeit streitig machen könnten. Die Lösungen der Clouds sind dank starker Partner wie Magento und Marketo, nun auch Software AG, ein Anlaufpunkt, der sich für Marken rentieren kann.
Doch nicht jede Marke hat das Budget, um all diese Lösungen umfassend zu nutzen, auch dieser Realität muss man angesichts der pompösen Vorstellungen ins Auge blicken. Vielleicht reicht es mitunter, herauszufinden, welche Lösung am nützlichsten ist und daher die Investition rechtfertigt. Eine Investition in die Zukunft der Customer Experience ist schließlich für Marken so oder so unerlässlich. Es gibt neue Lösungen, neue Technologie-Ansätze und sogar ganz neue Marketing-Glaubenssätze – B2E. Aber am Ende muss doch der Kunde überzeugt sein. Adobe demonstriert: sie wissen, wie es geht. Nun ist es an der Branche, dieser Ausrichtung, mithilfe Adobes oder ohne, zu folgen.

Google: Gibt es bald eine Quantencomputer-Plattform für Unternehmen?

Google: Gibt es bald eine Quantencomputer-Plattform für Unternehmen?

Wie der Spiegel berichtete, möchte Google noch in diesem Jahr eine eigene Quantencomputer-Plattform starten. Damit tritt der Konzern in Albert Einsteins Fußstapfen und in direkte Konkurrenz zu Microsoft und IBM, die ihrerseits Forschungen zu Quantentechnologie fördern. Wie es jetzt scheint, könnte Google jedoch tatsächlich als Erstes durchs Ziel schreiten und bald das „nobelpreiswürdige Resultat“ der Bemühungen präsentieren können.
Quantentechnologie wird für KI und Machine Learning relevant
Das „Quantum Artificial Intelligence Laboratory“ im Silicon Valley wird von Hartmut Neven geleitet. Es ist eine Initiative der NASA, der Universities Space Research Association und Google. Seit 2013 beschäftigen sich die Mitarbeiter dort mit Quantentechnologie, die deutlich mehr Daten auf einmal verarbeitet als herkömmliche Computertechnologie und somit insbesondere für Machine Learning und KI relevant werden kann. „Gerade die traditionelle Industrie wird besonders von Quantenanwendungen profitieren“, sagt Neven. Ob Maschinenbauer, Autokonzern oder Chemiefabrikanten: Die Möglichkeiten, die eine kommerzielle Quantentechnologie-Plattform bieten würde, könnten die Industrie weit nach vorne bringen. Die „Google Quantum Cloud“ kann so dabei helfen, beispielsweise Batterien und Solarzellen einfacher und schneller herzustellen. Dazu Neven:
Wir sind bald acht Milliarden Menschen, aber wir haben nicht die technologischen Grundlagen, um acht Milliarden Menschen einen westlichen Lebensstil zu ermöglichen ohne enorme ökologische Schäden zu verursachen.
Google stellt sich eine Aufgabe
Da in der Quantentechnologie nicht nur abwechselnd Einsen und Nullen verarbeitet werden, sondern auch beide gleichzeitig, kann eine deutlich größere Menge an Daten in einem kürzeren Zeitraum prozessiert werden. Um das zu verdeutlichen, möchte Google im Laufe dieses Jahres ein Experiment starten. Der entwickelte Quantenprozessor soll eine Rechenaufgabe in Sekunden lösen, für die andere Supercomputer eine Woche brauchen und damit die Leistung des Prozessors verdeutlichen, die für die meisten noch nicht richtig greifbar ist. Seit einiger Zeit verlangsamt sich die Entwicklung in der Prozessorenherstellung. Das mooresche Gesetz (das besagt, dass sich die Anzahl, und damit die Leistungsfähigkeit, der Transistoren in integrierten Schaltkreisen in etwa alle zwei Jahre bei geringeren Kosten verdoppelt) wird bald nicht mehr zutreffen, weil die Grenzen des physikalisch Möglichen erreicht sein werden. Daher sind Ansätze wie die Quantentechnologie vielversprechende Wege, die die Digitalwirtschaft nachhaltig verändern können.

Der Beginn von Voice first? Googles Assistant überwindet Grenzen

Der Beginn von Voice first? Googles Assistant überwindet Grenzen

Der Google Assistant ist bereits die wohl wichtigste Referenz für Voice Search. Und auch im Kontext weiterer digitaler Alltagshandlungen hilft die Sprachassistenz vielen Menschen weiter. Dennoch herrscht noch immer Skepsis vor, die Ergebnisse der auf Sprache basierenden Interaktion mit dem Gerät sind nicht immer überzeugend. Doch jetzt setzt Google auf die nächste Generation des Assistant. Diese gibt Antworten bis zu zehn Mal schneller und ermöglicht Sprachbefehle im Akkord, die zum gewünschten Ergebnis führen. Ist das ein wichtiger Schritt in Richtung Voice first?
Wie schnell wird Voice als Instrument umfassend angenommen?
Der Assistant Googles ist seit diesem Jahr auf über einer Milliarde Geräten vorhanden. Trotzdem wird er, ob aus Gewohnheit oder womöglich wegen unbefriedigender Erfahrungen, nicht so umfassend genutzt, wie Google es sich wünschen würde. Gleiches gilt für andere Sprachassistenten. Doch im Zuge der Entwicklerkonferenz I/O präsentierte Google die neue Generation der eigenen Sprachassistenz. Der Assistant soll zur schnellsten Art werden, etwas am Smartphone, Tablet usw. zu erledigen, eine natürliche Nutzung soll etabliert werden.
Bisher ist der Google Assistant bereits in 30 Sprachen und 80 Ländern zu nutzen, 3.500 Marken steuern weltweit über 30.000 Geräte bei, die den Assistant integriert haben. Mit der neuen Version der Sprachassistenz hat Google aber gerade für die Smartphones einen Durchbruch erzielt. Es wurden neue Modelle zur Spracherkennung entwickelt, die statt 100 GB nur noch einen halben Gigabyte groß sind.
With these new models, the AI that powers the Assistant can now run locally on your phone.
Somit werden Sprachbefehle in Echtzeit verarbeitet, auch wenn kein Netz vorhanden ist. Wichtiger aber ist, dass die auf Neural Networks basierenden Fortschritte dafür sorgen, dass lokal vollzogene Aufgaben keine Datensendung an die Googleserver erfordern. Nach Googles Angaben sollen die Antworten oder Reaktionen des Assistant so bis zu zehn Mal schneller erfolgen als bisher. Zudem ist App-übergreifendes Multitasking möglich, während dank Continued Conversation nicht bei jedem Befehl ein „Hey Google“ vorgeschaltet werden muss. Das wurde auf der Bühne eindrucksvoll präsentiert.

Ok @Google that’s officially the coolest thing I’ve seen in years!!! #io19 Truly revolutionary #voicefirst approach pic.twitter.com/KyM0M9XQ1s
— 𝖠𝗇𝖽𝗋𝖾𝗒 𝖤𝗌𝖺𝗎𝗅𝗈𝗏 (@andremaha) May 7, 2019

Weitere Features für den Google Assistant
Das Interagieren via Voice wird bei Google auch für die Kommunikation im Chat einfacher.
[embedded content]
Darüber hinaus hat das Unternehmen einige weitere Features angekündigt. So wird etwa Googles Duplex-Technologie für Web-basierte Aufgaben erweitert. Damit lassen sich komplexe Aufgaben im Web lösen, zum Beispiel werden Formulare ausgefüllt, ohne dass durch zahlreiche Tabs navigiert werden muss. Google präsentiert, wie einfach Buchungen auf diesem Wege werden können.
[embedded content]
Das Feature wird jedoch vorerst nur in den USA und in Großbritannien für Autovermietungen und Kinokassen vorhanden sein.
Weiterhin soll der Assistant – gleich einem Assistenten fernab des Digitalen – mehr persönliche Züge kennenlernen. Google gibt als Beispiel an, dass die KI den Kontakt der Mutter einordnen und dann Fragen wie „Wie ist das Wetter bei Mama zuhause?“ beantworten kann. Dabei können jederzeit Details im „You Tab“ des Assistant ergänzt, bearbeitet oder entfernt werden. Diese „Personal References“ helfen ebenso dabei, bessere Vorschläge zu erhalten. „Picks for you“ soll Nutzern künftig personalisierte Rezeptvorschläge, Podcasts, Events usw. darbieten. Zudem wird die Tageszeit bei Nachfragen miteinbezogen. Fragst du morgens nach Rezepten, werden eher Frühstücksangebote angegeben.
Neuer Driving Mode für den Assistant
Da die Sprachassistenz auch in Autos Einzug hält, wird der Assistant Googles für diesen Bereich weiter optimiert. Mit dem neuen Driving Mode werden personalisierte Angaben situativ dargestellt, etwa Wegbeschreibungen zum Restaurant, in dem ein Tisch reserviert ist. Oder wenn ein Podcast auf dem Google Home-Gerät begonnen wurde, kann er im Auto nahtlos weiter angehört werden. Bei Anrufen erklärt die Stimme des Assistant, wer anruft und fragt, ob „abgenommen“ werden soll. Ab Sommer wird der Driving Mode für Android-Geräte verfügbar sein; er startet automatisch, wenn diese per Bluetooth mit der Konsole im Wagen verbunden sind oder aber mit dem Befehl „Hey Google, let’s drive“.
[embedded content]
Mit einigen Sprachbefehlen sollen Nutzer sogar vor dem Gang zum Auto die Temperatur darin regeln oder die Fülle des Tanks messen können.
Schließlich gibt Google noch an, dass sich Wecker oder Timer einfach mit dem Wort „Stopp“ ausschalten lassen. User fragten nach dem Feature – und tatsächlich zeigt diese kleine Neuerung, wie viel intuitiver sich die sprachliche Interaktion mit der KI des Google Assistant bald gestalten dürfte. Die neue Generation des Assistant soll im Laufe des Jahres bei neuen Pixel Smartphones von Google integriert werden. Startet mit diesen Geräten zumindest für deren Besitzer eine Voice first-Ära? Der Grundstein scheint gelegt.

Das wir gewinnt: Warum Mensch und Maschine mit- und nicht gegeneinander arbeiten sollten

Das wir gewinnt: Warum Mensch und Maschine mit- und nicht gegeneinander arbeiten sollten

Go ist ein altes Chinesisches Brettspiel, bekannt durch seine unglaubliche Komplexität. Künstliche Intelligenz (KI) ist in der Lage, die weltbesten Go-Spieler zu schlagen. Mehr Probleme bereitet der KI dagegen Dota 2, ein Battle Arena-Videospiel mit deutlich weniger intellektuellem Anspruch. Wie kann das sein? Die Antwort ist recht simpel: KI-Algorithmen sind unglaublich leistungsstark, aber sie sind dennoch (noch) nicht für das Lösen jedes Problems geeignet. In Fällen wo das „Wissen“ nicht vollständig ist, sind es eben doch die Menschen, die die besseren Entscheidungen treffen. Das trifft in wissenschaftlichen Umfeldern ebenso zu, wie wenn wir uns die Rolle der KI im digitalen Advertising genauer anschauen.
Die Maschine gewinnt
Im besten Fall haben wir – damit die KI wie gewünscht abliefern kann – eine klare Definition vorliegen, wie Erfolg für die Aufgabe der KI auszusehen hat. Das Spielfeld samt aller Parameter ist bekannt. Und die KI hat schier unerschöpfliche Datenpunkte, von denen sie lernen kann. Nehmen wir Übersetzungssoftware als Beispiel: Auch wenn das Ziel einer „akzeptablen Übersetzung“ nicht wirklich gut geeignet ist für KI, haben KI-basierte Übersetzungstools in den letzten Jahren den Markt erobert. Ursprünglich haben Experten versucht, den Übersetzungssystemen die Syntax, die unterschiedlichen Wortbedeutungen und ihren Kontext beizubringen. Jede noch so kleine Grammatik- und Sprachregel sollte Berücksichtigung finden. Der Erfolg war überschaubar. Zu viele Variablen, Dialekte, semantische Feinheiten und Definitionen machten das Abarbeiten nach Regeln zu einem Ding der Unmöglichkeit. Dann betraten Lösungen wie Google Translate die Bühne. Der Schlüssel zum Erfolg lag in der Menge an Daten, anhand derer das System lernen konnte. Die neueste Generation von Google Translate & Co. bedient sich des Deep Learnings – einem Teilbereich der KI – und erreicht so das hohe Qualitätslevel, wie wir es heute kennen. Ohne gewaltige Trainingsdatenmengen und vollautonomes Lernen wäre das nie möglich gewesen.
Ein ähnliches Prinzip findet sich im digitalen Advertising wieder, wo die KI zum Beispiel den besten CPA (Cost per Acquisition) auf Basis der Wahrscheinlichkeit einer Konversion festsetzt. Tausende Touchpoints und Millionen weitere Parameter beeinflussen die Customer Journey. Diese können in unzähligen Abfolgen kombiniert werden. Die KI kann aber aus Milliarden von Signalen lernen, die Wahrscheinlichkeit vorherzusagen und so das richtige Gebot in Echtzeit abgeben. Kein Mensch könnte Geschäftsregeln aufstellen, die zum selben Ergebnis führen, geschweige denn diese laufend aktualisieren und an die sich stetig wandelnden Gegebenheiten des digitalen Ökosystems anpassen.
Diese Fähigkeit der KI, in einer strukturierten Umgebung zu lernen, verdeutlicht, warum KI besser Go spielen kann als ein Mensch es je konnte. In den gesetzten Regeln des Spiels kann die Maschine zum einen Milliarden von möglichen Zügen des Menschen durch Simulationen vorhersagen und zum anderen auf unterschiedlichste Arten und auf unfassbar vielen Daten sowie durch direktes Feedback lernen. So macht die Maschine vielleicht sogar einen Zug, den ein Mensch zu einem bestimmten Zeitpunkt nie gemacht hätte. Die zahllosen Stunden, in denen die Maschine in einem Keller gegen sich selber gespielt hat, sorgen jedoch dafür, dass die Maschine dem Menschen bereits einen Schritt voraus ist. Sie „ahnt“ schon, was kommen könnte und kann „weiter“ vorrausschauen, als ein Mensch es je könnte. Und genau solche Züge sind es, die für uns auch im Online Marketing essenziell sind, wenn wir der Konkurrenz einen Schritt voraus sein wollen. Denn in Szenarios mit klaren, gut definierten Marketingzielen, weiß die Maschine eben besser, was das Richtige ist, um zum Erfolg zu führen.
Der Mensch gewinnt
Warum verlieren so leistungsstarke Maschinen dann aber in Dota 2? Es ist zwar ein Multiplayer-Spiel, aber ansonsten deutlich weniger anspruchsvoll als etwa Go. Für den Computer spielt es sich aber schwieriger. Die Spieler starten mit relativ wenig Wissen. Sie müssen die Karte erkunden und ihre unbekannten Gegner finden. Sie brauchen dabei nicht selten menschliche Werte, wie Bauchgefühl und Instinkt, um das Verhalten des Gegners zu analysieren und im unbekannten Terrain zu bestehen. Sie müssen einen Bluff erkennen können, ebenso dürfen sie sich durch unlogisches oder irreführendes Verhalten des Gegners nicht verunsichern lassen. Eine Maschine kann das (noch) nicht (sonderlich gut).
Maschinen werden zwar besser im Dota 2 spielen, aber noch triumphiert der Mensch und seine Intelligenz. Wo Wissen fehlt, es an Daten mangelt, wo Grenzen zwischen richtig und falsch verschwimmen, wo echte Kreativität und Einfallsreichtum gefragt sind oder wo Parameter zu weit gefasst sind, da braucht die KI länger, um zu lernen. Hier setzt sich der menschliche Entscheidungsprozess durch. Hier zeigt sich, wie weit die künstliche von der menschlichen Intelligenz noch entfernt ist.
Beide gewinnen
Mensch und Maschine haben unterschiedliche Stärken und Fähigkeiten und dies sollten wir alle nutzen. Am erfolgversprechendsten ist ein kollaborativer Ansatz, in dem beide Seiten ihre Stärken ausspielen können. Menschen müssen besser darin werden, mit Maschinen zu kommunizieren und Maschinen müssen ihnen bessere Informationen zur Verfügung stellen. Menschen müssen verstehen, was die KI macht und dort wo es wichtig ist auch, warum sie es macht. Nur so entsteht Verständnis und Vertrauen in die Empfehlungen der Automatismen. Nur dann können Maschinen das tun, was sie am besten können, nämlich in gesetzten Strukturen viele Daten verarbeiten und daraus die richtigen Rückschlüsse ziehen. Nur dann hat der Mensch die Freiheit, seine Erfahrung und Innovationsfreude zu nutzen. Die Zusammenarbeit aus künstlicher und menschlicher Intelligenz – einem hybriden Team – ist die Grundlage für Fortschritt und Entwicklung. Sie löst Kundenprobleme und bringt Wettbewerbsvorteile.
Der grundlegende Prozess – Marktchancen identifizieren, Datenströme bewerten und auf Basis dessen Entscheidungen treffen – hat sich nicht geändert. Die Herausforderung, dies in Echtzeit tun zu können und stetig wachsende Inputmengen zu verarbeiten, wird jedoch wachsen. Hier ist der Input von KI nicht nur notwendig, sondern unerlässlich. Während wir uns auf unser Können konzentrieren, geht es gleichermaßen darum, unsere Schwächen auszugleichen. Nur so werden wir in Zukunft erfolgreich sein. Genau hier hat die Zusammenarbeit mit Maschinen bereits heute die Art und Weise, wie digitales Advertising umgesetzt wird, verändert.

Reviewer im Alexa-Team können Nutzeradressen ermitteln

Reviewer im Alexa-Team können Nutzeradressen ermitteln

Wer sich Alexa ins Haus holt, lädt gewissermaßen auch andere Personen mit ein. Vor wenigen Wochen wurde bekannt, dass Amazon-Mitarbeiter private Mitschnitte von Gesprächen über Alexa mitanhören, um diese zu analysieren und die KI zu optimieren. Während der Grad der Anonymität dabei noch eher gewährleistet war, zeigt sich nun, dass Reviewer der Sprachassistenz sogar die Privatadressen der User herausfinden können. Trotz Regulierung durch Amazon ist dieser Gedanke besorgniserregend.
Hat Alexa orwellsche Züge?
Die Popularität von Amazons Sprachassistenz Alexa, die über Smart Speaker wie den Echo Dot und Co. läuft, steigt immerzu. Über 100 Millionen Geräte wurden längst schon verkauft. Sprachassistenten werden von Usern immer mehr in den Alltag integriert und helfen ihnen bei verschiedensten Aspekten ihres Lebens. Dabei bekommen jedoch nicht nur die Nutzer Informationen ausgespielt. Auch die Betreiber der Sprachassistenz, im Falle Alexas Amazon, greifen auf die Nutzerdaten zurück, um ihre Produkte und ihre Dienstleistung zu verbessern. Doch diese Einsicht in die Nutzerdaten entpuppt sich bei Alexa zusehends als datenschutzrechtliche Gratwanderung, ja fast als dystopische Realität.
Zwar kann man bei den Echo-Geräten von Amazon nicht davon ausgehen, dass sie eine Überwachung à la 1984 bedingen. Trotzdem zeigt sich, dass die Nutzung von Alexa die Privatsphäre gewissermaßen beeinträchtigt. Nun darf man darüber hinaus nicht vergessen, dass das bei anderen Diensten ebenso der Fall ist. Und die Nutzung jeder App kann letztlich zur – wenn auch unfreiwilligen – Weitergabe sensibler Informationen führen. Doch allein aufgrund der sprachbasierten Interaktion stimmt einen die Überwachung von Alexa skeptisch. Beunruhigend ist der Faktor, dass einige Alexa-Teams auch sehr private Gespräche mitanhören. Amazon erklärt zwar, dass nur kleine Stichproben von Tonaufnahmen überprüft werden und dass die Mitarbeiter Nutzer nicht identifizieren können; Mitarbeiter in Außenstellen bearbeiten pro Schicht jedoch 1.000 Sound Clips und hören mitunter auch Hilfeschreie, sexuelle Handlungen, die Nennung von Bankdaten usw. Und Geheimdienste wollen laut Informationen der FAZ den Dienst ebenfalls zur Informationsbeschaffung nutzen.
Im Dezember letzten Jahres hatte ein Fehler außerdem dafür gesorgt, dass 1.700 Sprachdateien eines Nutzers bei einem völlig Fremden gelandet waren, was die Datenschutzproblematik ebenfalls vor Augen führte. Die FAZ hatte seinerzeit berichtet und erwähnt, dass Datenschutzfachleute vor Sprachassistenten warnen. Offenbar zurecht, denn Reviewer können neuen Informationen zufolge sogar die Privatadressen von Usern ermitteln.
Was die Dateneinsicht bedeuten kann
In den Nutzungsbedingungen für Alexa steht Folgendes:
Wenn Sie einen Dienst Dritter verwenden, tauschen wir unter Umständen entsprechende Informationen mit diesem Dienst aus, z. B. Ihre Postleitzahl, wenn Sie nach dem Wetter fragen, Ihre üblichen Musiksender oder den Inhalt Ihrer Anfragen.
Amazon gibt an, dass die Mitarbeiter der Alexa-Teams Nutzer nicht identifizieren können. Doch Ad Age berichtet nun mit Bezug auf Quellen aus Mitarbeiterkreisen, dass die Reviewer von Gesprächen Zugang zu Locationdaten haben und in einigen Fällen damit auch Nutzeradressen ausfindig machen können. Demnach lassen sich geographische Koordinaten der Endnutzer einsehen, die einfach als Ort identifiziert werden können. Bloomberg hatte die Erkenntnis publik gemacht.

With a few keystrokes, Amazon employees listening to Alexa commands can figure out where you live https://t.co/BRWnMqEhbMpic.twitter.com/skFF3wLZQL
— Bloomberg (@business) April 24, 2019

Damit wissen einige Mitarbeiter in Alexa-Teams zum Teil, was die User erzählen, aber auch wo sie sich dabei aufhalten. Zunächst scheint es nicht allzu schlimm zu sein, dass ein Unternehmen die Adresse kennt. Allerdings könnte es zu heiklen Vorfällen kommen, da die Nutzer ihren Aufenthaltsort und über Alexa besprochene Dinge lieber nicht preisgeben würden. Weiterhin ist auch der Gedanke, dass irgendwelche Reviewer Privatadressen mit Gesprächsinhalten in Verbindung bringen können, alarmierend. Denn ein solches Wissen kann durchaus missbraucht oder verkauft werden. Amazon gibt weiter an:
[A] ccess to internal tools is highly controlled, and is only granted to a limited number of employees who require these tools to train and improve the service by processing an extremely small sample of interactions. Our policies strictly prohibit employee access to or use of customer data for any other reason, and we have a zero tolerance policy for abuse of our systems. We regularly audit employee access to internal tools and limit access whenever and wherever possible.
Einige Mitarbeiter – die Verschwiegenheitsklauseln unterschrieben haben – gehen dennoch davon aus, dass sehr viele in den Alexa-Teams auf eine Software zur Datenauswertung zugreifen können. Darin sind Privatadressen und Telefonnummern der Nutzer einzusehen. Nach den jüngsten Berichten hat Amazon diesen Zugriff laut Ad Age jedoch deutlich reduziert.
Für Amazon wie auch andere Anbieter von Sprachassistenten ist die Balance zwischen einem hochpersonalisierten sprachbasierten Service und der Wahrung der Privatsphäre ein Drahtseilakt. Wer Alexa nutzt, dürfte also wissen, dass seine Daten und Gespräche wohl niemals so ganz privat bleiben. Die Verknüpfung von digitalem Datenmanagement und privaten, stark personenbezogenen Informationen sollte jedoch Skepsis hervorrufen. Wie viel wissen die Alexa-Mitarbeiter wirklich? Denn die Beschränkung des Zugriffs auf die persönlichen Daten erfolgte erst nach einigen kritischen Publikationen. Die Gefahr all dieser Datenweitergabe mag nicht immer schwerwiegend und oft nur latent sein; doch sie ist da.

Alexa, Siri & Co. – Wie unsere digitalen Mitbewohner das Marketing auf den Kopf stellen

Alexa, Siri & Co. – Wie unsere digitalen Mitbewohner das Marketing auf den Kopf stellen

Termine koordinieren, Musik anschalten und Bestellungen erledigen: Bereits jeder vierte Haushalt in Amerika organisiert den Alltag mit Alexa, dem Sprachassistenten von Amazon. Auch hierzulande soll bis zum Jahr 2020 die Hälfte aller Suchanfragen ohne Bildschirm erfolgen. Überhaupt hält Künstliche Intelligenz (KI) immer selbstverständlicher Einzug in unser Leben. Statt Antworten zu googeln und Smartphone-Apps zu nutzen, lassen wir uns von unseren digitalen Mitbewohnern erzählen, wie das Wetter wird, was gerade in der Welt passiert oder dass wir demnächst neue Glühbirnen besorgen sollten. Alexa übernimmt auch gleich die Bestellung und wird so zum digitalen Rundum-Service, der uns mit jeder neuen Anfrage näher kennenlernt und dadurch immer besser hilft. Für Werbetreibende ist das natürlich hochinteressant. Denn was heißt es eigentlich für Marken, wenn KIs zukünftig wie Marktschreier fungieren und gleichzeitig bestimmen, welche Glühbirne im digitalen Warenkorb landet?
Nicht Alexa, sondern den Kunden überzeugen
Online-Recherche zu Produkten kann richtig lästig sein. Besonders bei ‚Low Involvement Products’ wie Deorollern oder Batterien haben Menschen die Qual der Wahl. Während sich User aktuell noch durch unzählige Suchtreffer scrollen, unterbreitet Alexa exakt einen Vorschlag. Weitere Produktempfehlungen trifft die KI nur auf Anfrage, wenn etwa die erste Offerte nicht auf Gegenliebe trifft. Die Menschen müssen und können so nicht einfach aus unzähligen Angeboten wählen.
Viele Unternehmen stehen damit aber vor echten Herausforderungen. Denn berücksichtigt die KI die Marke im Auswahlprozess nicht, landet sie seltener im Warenkorb. Fragt der Nutzer Alexa beispielsweise nach einem beliebigen Duschgel, ist die Wahrscheinlichkeit von Alexa vorgeschlagen zu werden, eher gering. Und hierauf haben Marken wenig Einfluss, denn die Mechanismen, die hinter Alexas Produktauswahl stehen, sind bisher nicht vollständig bekannt. Daher gilt es, die eigene Marke im Relevant Set der Kunden zu verankern, sodass nur noch die bereits getroffene, konkrete Produktentscheidung an den digitalen Mitbewohner weitergeben wird. Wenn also der Konsument an diesem Punkt der Customer Journey bereits weiß, dass die morgendliche Routine mit dem Duft des neuen AXE Duschgels starten soll, wird er die Anfrage im Dialog mit dem Sprachassistenten klar formulieren. Klassische Marken, über die schon jetzt als Gattungen gesprochen wird, sind hier natürlich klar im Vorteil. Versteht Amazons Assistentin den Befehl „Alexa, bestell mir ein paar Tempos!” also als Aufforderung, Papiertaschentücher zu kaufen oder schon als konkrete Markenentscheidung?
Doch auch jüngere Marken haben den Shift, als Gattung wahrgenommen zu werden, durch gelungenes Brand Building erreicht: GoPro wird oft synonym für „Action Cam“ verwendet und „Bionade“ ersetzt nicht selten umgangssprachlich die „Bio Brause“. Beide Marken verdanken ihren Status sicherlich auch dem Umstand, jeweils als erste die Produktgattung ins Mindset der Masse gebracht zu haben – Pionierarbeit zahlt sich immer aus. Auch Marktführerschaft hilft, im Relevant Set zu erscheinen: Wem fällt auf Anhieb ein Konkurrent von O.B. in der Tampon-Sparte ein? Gewonnen haben Marken, wenn den Konsumenten der eigentliche Gattungsbegriff gar nicht mehr geläufig ist. Besonders im englischsprachigen Raum liegt hier die „Coke“ klar vorne – selbst wenn man eine Pepsi will. Oder im pharmazeutischen Bereich die Marke Valium – wie hieß der Wirkstoff noch gleich? Es gilt also, den Konsumenten zu überzeugen, nicht den Sprachassistenten. Der Weg dahin führt in den meisten Fällen über gelungenes Brand Building.
Die Rückkehr der natürlichen Sprache
Experten sind sich einig, dass Tastaturen in den nächsten 15 Jahren weitestgehend verschwinden werden und Sprache die Kommunikation mit digitalen Medien dominieren wird. Das bringt altbewährte SEO-Taktiken durcheinander. Denn während eingetippte Suchbegriffe für gewöhnlich unspezifische Keywords sind, funktioniert Sprache intuitiv. Das wirkt sich auch auf die Interaktion mit Sprachassistenten aus: Laut Amazon sind die Hälfte aller an Alexa gestellten Fragen keine praktischen – wie Anfragen nach dem Wetter, Produkten oder weiteren Informationen. Menschen teilen mit der KI Erlebnisse, Wünsche und Gefühle, wie „Okay Google, ich bin Onkel geworden“. Und nach einer Untersuchung von Google fühlt sich der Dialog mit Sprachassistenten für 41 Prozent der Nutzer so an, als rede man mit einem Freund. Siri, Alexa, Cortana & Co. sollen unsere Kumpel werden, die in unser Zuhause vordringen und bei jeglichen Lebensentscheidungen unterstützen. Im Gegensatz zur Google-Recherche stellen User den Sprachassistenten daher oft W-Fragen und schlagen einen viel umgangssprachlicheren Ton an. Anstelle „Sonnenuntergang heute“ in ein Suchfeld zu tippen, kommt die Frage „Alexa, wann geht heute die Sonne unter?“. Eben wie im Gespräch mit einem Freund fragt der Nutzer mit ausformulierten Sätzen um Rat.
Welche Fragen ihre Kunden umtreiben, ist daher für Marken super relevant. Die dazu passenden Antworten können beispielsweise in Form von FAQs, How-Tos oder inhaltstarken Artikeln über Siri und Alexa ins Ohr der Kunden gelangen und so das eigene Unternehmen ins Bewusstsein der User rücken. Hersteller von Spirituosen können zum Beispiel darauf spekulieren, dass Konsumenten den digitalen Assi nach Cocktailrezepten fragen. Das auf der Markenwebseite erhältliche Rezept sollte so aufbereitet sein, dass der Titel eines Rezepts nicht einfach „Moscow Mule“ lautet, sondern bereits die potenzielle Frage des Konsumenten wiedergibt: „Wie mache ich einen Moscow Mule?“. Ferner bietet es sich an, den Inhalt so zu gestalten, dass er vorgelesen funktioniert. Statt also Zutatenliste und Anleitung zu trennen, wie man es aus Kochbüchern kennt, empfiehlt es sich, im voice-optimierten Rezept so konkret wie möglich zu sein: Man vermischt nicht „Wodka mit Limettensaft“, sondern „6cl Wodka Gorbatschow mit 1cl frisch gepresstem Limettensaft und 9cl Ginger Beer“. Schließlich soll Alexa nicht ständig zwischen Zutaten und Zubereitung springen müssen.
Für viele Unternehmen bedeuten entsprechende Optimierungen aber erst einmal viel Arbeit. Denn: Bisher sind optimierte Keywords das Zentrum jeder guten SEO-Strategie. Dialogtauglichen Content müssen viele Marken hingegen erst noch produzieren.
Fürs Brandbuilding schon heute wichtig
Im Voice Marketing sind noch viele Fragen offen. Wird sich Alexa beispielsweise auch für Marken öffnen, die nicht bei Amazon erhältlich sind? Welche Rolle werden Verpackungen und der stationäre Point of Sale noch spielen? Und was passiert mit DM, Aldi und Co, wenn der Sprachassistent sich um die Einkäufe kümmert?
Große Teile unseres digitalen Alltags werden weiterhin mit Bildschirmen funktionieren. Sicher ist aber auch, dass Sprachassistenten heute schon als Gatekeeper für Informationen und Werbung fungieren – diese Rolle wird in Zukunft noch weiter zunehmen. Die notwendigen Maßnahmen, um als Marke auf den digitalen Türsteher zum Kunden zu reagieren, spielen dem Brandbuilding heute schon in die Karten. Deshalb müssen sich Unternehmen jetzt mit dem Thema auseinandersetzen. Immerhin spricht gerade die junge Generation schon selbstverständlich mit Siri & Co. Nicht mehr lange und diese Zielgruppe erledigt ihren Wocheneinkauf selbst. Mit Sprachassistent versteht sich.

Amazons Mitarbeiter hören sich deine Gespräche mit Alexa an

Amazons Mitarbeiter hören sich deine Gespräche mit Alexa an

Wer gemutmaßt hat, dass Gespräche mit Amazons Sprachassistenz Alexa nicht immer privat bleiben, liegt richtig. Wie nun bekannt geworden ist, hören Mitarbeiter bei Amazon auch private Mitschnitte aus Gesprächen. Bei zu privaten Themen soll die Transkription und Analyse aufhören; doch wie können Nutzer darauf vertrauen, wenn sie bereits vom Mithören nichts wissen?
Alexa: Jemand hört mit
Der Mensch ist den Maschinen insbesondere in Sachen Sprache noch um Einiges voraus. Deshalb setzt Amazon auf eine menschliche Analyse von Anfragen an oder Gesprächen mit Alexa. Davon wissen die betroffenen Nutzer allerdings nichts, wie etwa Bloomberg berichtet. In Außenstellen wie Costa Rica, Indien, Boston oder Rumänien werden pro Schicht eines Mitarbeiters bis zu 1.000 Audio Clips analysiert. Obwohl diese Mitarbeiter Versicherungen zum Stillschweigen unterschrieben haben, ist diese Praktik Amazons nun an die Öffentlichkeit gelangt.
Beim Anhören der Interaktionen werden häufig bloß simple Assoziationen gesetzt. Mitunter werden jedoch äußerst private Dinge aufgezeichnet und abgehört. Nach Bloombergs Informationen sollen die Mitarbeiter auch Hilfeschreie oder vermeintliche sexuelle Übergriffe mitangehört haben. Werden Klarnamen oder Bankdaten mitgehört, sollen diese als „kritische Daten“ angemerkt werden. In einem Statement gegenüber dem Publisher erklärte Amazon:
We only annotate an extremely small sample of Alexa voice recordings in order [to] improve the customer experience. For example, this information helps us train our speech recognition and natural language understanding systems, so Alexa can better understand your requests, and ensure the service works well for everyone. We have strict technical and operational safeguards, and have a zero tolerance policy for the abuse of our system. Employees do not have direct access to information that can identify the person or account as part of this workflow. All information is treated with high confidentiality and we use multi-factor authentication to restrict access, service encryption and audits of our control environment to protect it.
Wissen die Mitarbeiter über die Nutzer Bescheid?
Nach Amazons Aussage können die Analysten die Audio Clips keinen Nutzern zuordnen. Allerdings hat Bloomberg einen Screenshot der übermittelten Aufzeichnungen analysiert, der zeigt, dass zumindest der Vorname des Users, eine Account-Nummer und die Seriennummer seines genutzten Geräts übermittelt werden. Das dürfte letztlich ermöglichen, eine Person zu identifizieren.
Zwar können Nutzer in den Einstellungen unter „Alexa Konto“ und „Alexa Datenschutz“ der Verwendung ihrer Daten für die Verbesserung des Dienstes widersprechen – doch den Informationen Bloombergs zufolge werden auch Aufnahmen dieser User zum Teil abgehört. Außerdem sollen gut 100 der etwa 1.000 pro Schicht überprüften Audio-Schnipsel Aufzeichnungen sein, die ohne ein Aktivierungswort wie „Alexa“ oder „Echo“ aufgenommen wurden.
Alexa hat sich als Sprachassistenz bereits ein sehr gutes Verständnis angeeignet, kann jedoch Akzente oder anderssprachige Wörter auch fehlinterpretieren. Oft werden Wörter oder Passagen auch nicht verstanden. Um diese Lücken, die der Algorithmus noch offenbart, zu schließen, wurden die Teams der Mitarbeiter zusammengestellt, die mit der Analyse der Clips eine bessere Performance der Sprachassistenz ermöglichen sollen. Auch Aufnahmen des Google Assistant werden Mitarbeitern bei Google manchmal zur Analyse vorgelegt, aber laut dem Unternehmen sind diese verzerrt und lassen keinerlei Informationen zum tatsächlichen Sprecher und Nutzer zu.
Viele User Alexas fragen die Sprachassistenz immer wieder, ob jemand anderes mithört. Diese Frage kann mit ja beantwortet werden und das stellt keine allzu große Überraschung dar. Wieder einmal stellt sich jedoch die Frage, ob die Verbesserung eines innovativen Dienstes wie Alexa es wert ist, in die Privatsphäre so vieler Menschen ohne deren Wissen einzudringen. So hilfreich Alexa und Co. für den Nutzer auch sind, diese Technologien tragen orwellsche Züge.