Amazons Mitarbeiter hören sich deine Gespräche mit Alexa an

Amazons Mitarbeiter hören sich deine Gespräche mit Alexa an

Wer gemutmaßt hat, dass Gespräche mit Amazons Sprachassistenz Alexa nicht immer privat bleiben, liegt richtig. Wie nun bekannt geworden ist, hören Mitarbeiter bei Amazon auch private Mitschnitte aus Gesprächen. Bei zu privaten Themen soll die Transkription und Analyse aufhören; doch wie können Nutzer darauf vertrauen, wenn sie bereits vom Mithören nichts wissen?
Alexa: Jemand hört mit
Der Mensch ist den Maschinen insbesondere in Sachen Sprache noch um Einiges voraus. Deshalb setzt Amazon auf eine menschliche Analyse von Anfragen an oder Gesprächen mit Alexa. Davon wissen die betroffenen Nutzer allerdings nichts, wie etwa Bloomberg berichtet. In Außenstellen wie Costa Rica, Indien, Boston oder Rumänien werden pro Schicht eines Mitarbeiters bis zu 1.000 Audio Clips analysiert. Obwohl diese Mitarbeiter Versicherungen zum Stillschweigen unterschrieben haben, ist diese Praktik Amazons nun an die Öffentlichkeit gelangt.
Beim Anhören der Interaktionen werden häufig bloß simple Assoziationen gesetzt. Mitunter werden jedoch äußerst private Dinge aufgezeichnet und abgehört. Nach Bloombergs Informationen sollen die Mitarbeiter auch Hilfeschreie oder vermeintliche sexuelle Übergriffe mitangehört haben. Werden Klarnamen oder Bankdaten mitgehört, sollen diese als „kritische Daten“ angemerkt werden. In einem Statement gegenüber dem Publisher erklärte Amazon:
We only annotate an extremely small sample of Alexa voice recordings in order [to] improve the customer experience. For example, this information helps us train our speech recognition and natural language understanding systems, so Alexa can better understand your requests, and ensure the service works well for everyone. We have strict technical and operational safeguards, and have a zero tolerance policy for the abuse of our system. Employees do not have direct access to information that can identify the person or account as part of this workflow. All information is treated with high confidentiality and we use multi-factor authentication to restrict access, service encryption and audits of our control environment to protect it.
Wissen die Mitarbeiter über die Nutzer Bescheid?
Nach Amazons Aussage können die Analysten die Audio Clips keinen Nutzern zuordnen. Allerdings hat Bloomberg einen Screenshot der übermittelten Aufzeichnungen analysiert, der zeigt, dass zumindest der Vorname des Users, eine Account-Nummer und die Seriennummer seines genutzten Geräts übermittelt werden. Das dürfte letztlich ermöglichen, eine Person zu identifizieren.
Zwar können Nutzer in den Einstellungen unter „Alexa Konto“ und „Alexa Datenschutz“ der Verwendung ihrer Daten für die Verbesserung des Dienstes widersprechen – doch den Informationen Bloombergs zufolge werden auch Aufnahmen dieser User zum Teil abgehört. Außerdem sollen gut 100 der etwa 1.000 pro Schicht überprüften Audio-Schnipsel Aufzeichnungen sein, die ohne ein Aktivierungswort wie „Alexa“ oder „Echo“ aufgenommen wurden.
Alexa hat sich als Sprachassistenz bereits ein sehr gutes Verständnis angeeignet, kann jedoch Akzente oder anderssprachige Wörter auch fehlinterpretieren. Oft werden Wörter oder Passagen auch nicht verstanden. Um diese Lücken, die der Algorithmus noch offenbart, zu schließen, wurden die Teams der Mitarbeiter zusammengestellt, die mit der Analyse der Clips eine bessere Performance der Sprachassistenz ermöglichen sollen. Auch Aufnahmen des Google Assistant werden Mitarbeitern bei Google manchmal zur Analyse vorgelegt, aber laut dem Unternehmen sind diese verzerrt und lassen keinerlei Informationen zum tatsächlichen Sprecher und Nutzer zu.
Viele User Alexas fragen die Sprachassistenz immer wieder, ob jemand anderes mithört. Diese Frage kann mit ja beantwortet werden und das stellt keine allzu große Überraschung dar. Wieder einmal stellt sich jedoch die Frage, ob die Verbesserung eines innovativen Dienstes wie Alexa es wert ist, in die Privatsphäre so vieler Menschen ohne deren Wissen einzudringen. So hilfreich Alexa und Co. für den Nutzer auch sind, diese Technologien tragen orwellsche Züge.

Voice Search: Die Branche ist kaum vorbereitet

Voice Search: Die Branche ist kaum vorbereitet

Ob mit Alexa oder dem Google Assistant, die Nutzer greifen vermehrt auf Sprachassistenzen zurück, um digitale Interaktionen voranzutreiben. Voice Search könnte zum Standard in der Suche werden und Websites und Unternehmen müssen darauf vorbereitet sein. Doch wie bereit sind die schon heute für die sprachbasierte Suche, während immer mehr User Smart Speaker verwenden und sprachbasierte KI immer mehr zum Alltag werden?
Voice Search: Unternehmen hinken der Entwicklung hinterher
Wer Voice Search ready ist, kann sich im digitalen Wettbewerb langfristig Vorteile verschaffen. Das untermauern verschiedene Studien und Schätzungen, die aufzeigen, wie stark die Nutzung von Smart Speakern und Sprachassistenzen ansteigt. So gab Amazon vor wenigen Monaten an, bereits über 100 Millionen Geräte mit Alexa verkauft zu haben, während der Google Assistant auf über einer Milliarde Geräten zur Verfügung steht. Es gibt eine ganze Reihe von Tipps, wie Websites für Voice optimiert werden können. Sie müssen schnell laden und Strukturierte Daten aufweisen, während eine starke Sicherheit und FAQs durchaus helfen. Wir haben einige hilfreiche Ansätze zusammengestellt.
Eine aktuelle Studie zur Voice Search Readiness von Uberall kommt jedoch zu dem Schluss, dass lediglich vier Prozent aller Unternehmen bestens darauf vorbereitet sind, die Voice-Nutzer zu erreichen. Das ist angesichts der aktuellen Entwicklung eine zu geringe Zahl. Allein in den US-Haushalten ist die Zahl der Smart Speaker von 2017 bis 2018 um 78 Prozent auf 118,5 Millionen angestiegen.
Zahl der Smart Speaker in US-Haushalten 2017-2018, © Uberall Während nun der Großteil der Befragten der Studie (57,2 Prozent) angab, im vergangenen Jahr nicht auf Voice Search zurückgegriffen zu haben, gaben doch knapp zehn Prozent an, sie täglich zu nutzen. Immerhin elf Prozent suchten mindestens einmal pro Woche sprachbasiert. Diese Werte dürften sich jedoch in den kommenden Monaten und Jahren deutlich ändern. Daher hat Uberall einen Voice Search Readiness Score erstellt, um zu prüfen, wie bereit Unternehmen für diese Form fouder Suche sind.

Du möchtest auch innovative Technologien wie KI und Voice nutzen? Dann  schau dir das Whitepaper von Quantcast zu „Lehren von Marken des 21.  Jahrhunderts“ an, denn es liefert konkrete Handlungsansätze für moderne Marken – insbesondere im Direktgeschäft. 
Jetzt herunterladen!
Der Score für Voice Search Readiness
Für die Erstellung des Scores hat Uberall die wichtigsten Verzeichnisse in den USA ausgemacht, darunter Google, Google Maps, Yelp, Bing, Facebook, Foursquare usw. Daraufhin wurden die zentralen Geschäftsinformationen festgelegt. Diese sind:
Adresse
Öffnungszeiten
Telefonnummer
Website
Unternehmensname
Postleitzahl
Auf Grundlage eines Datensets von 73.000 Unternehmen der Metropolregion Boston wurde der Score für die einzelnen Unternehmen im Bereich von ein bis 100 Prozent ermittelt. Im Schnitt lagen die Unternehmen der Region bei 44,12 Prozent – man kann sich bereits vorstellen, dass die Voice Search Readiness in anderen Ländern, wie Deutschland, auf einem weniger weit entwickelten Level ist. Bestwerte konnten Zahnärzte oder Läden mit gesundem Essen erzielen, über 96 Prozent, während Kunstgalerien (1,65 Prozent) oder Verbraucherschutzorganisationen (0,2 Prozent) besonders schlecht abschnitten. Nur knapp vier Prozent konnten bei drei Verzeichnissen korrekte Informationen über Voice angeben. Davon waren zwar die meisten (39,1 Prozent) große Unternehmen; doch die mittelgroßen Player (36,4 Prozent) und kleinen Unternehmen (24,6 Prozent) waren nicht weit abgeschlagen.
Ein ausgeglichenes Bild bei den Unternehmen, die Voice Search ready waren, © Uberall Das zeigt, dass auch unabhängig von der Unternehmensgröße die Optimierung für die Sprachsuche angegangen werden kann – und sollte.
Zentrale Fehlerquellen, die zum Problem werden können
Zum Problem bei den Geschäftsinformationen, gerade im Kontext der Voice Search, können natürlich auch fehlerhafte Angaben werden. In Uberalls Analyse wiesen fast die Hälfte aller geprüften Unternehmen fehlerhafte Öffnungszeiten bei zentralen Verzeichnissen wie Google oder Bing auf. Aber auch in Bezug auf die Website und den richtigen Namen der Location waren viele Angaben falsch. Das ist deshalb problematisch, weil Leute, die über die Sprachsuche nach lokalen Unternehmen suchen, womöglich direkt zum Laden kommen möchten oder sogar eine Kaufintention haben. Daher müssen Unternehmen nicht nur für die Sprachsuche bereit sein, sondern auch die Richtigkeit der vermittelten Informationen angeben.
Tatsächlich nutzen die meisten Menschen Voice Search noch am meisten zu Hause oder im Auto.
Zu Hause und im Auto wird am meisten auf Voice Search zurückgegriffen, © Uberall Und was die Nutzer tun, ist auch für die Unternehmen entscheidend. Denn diese Nutzer wollen die Unternehmen auf ihre Seiten und zu ihren Angeboten oder Diensten und Inhalten locken. Dabei sind sich die Nutzer noch nicht ganz einig darüber, wie wichtig die Sprachsuche in Zukunft eigentlich wird.
Die Meinung der Nutzer zur künftigen Relevanz der Voice Search ist unterschiedlich, © Uberall Es gilt hierbei aber zu untersuchen, weshalb die Nutzer die Möglichkeiten der Voice Search (noch) nicht wahrnehmen. Mehr als ein Drittel gab bei Uberalls Studie zwar andere Gründe an, doch mit 23,2 Prozent sagte auch fast ein Viertel, dass der Umstand, dass sie Voice Search nicht gewohnt sind, sie von der Nutzung abhält. Und immerhin 13,5 Prozent sind skeptisch, was die Genauigkeit und Richtigkeit der Suchergebnisse angeht.
Gründe, warum Nutzer Voice Search nicht nutzen, © Uberall Bei den Momenten, die dafür sorgen könnten, dass die Sprachsuche mehr verwendet wird, lässt sich aus der Studie kein klarer Trend ableiten. Noch ist die Technologie für einige zu limitiert, während wieder andere durch Angebote und Deals gelockt werden könnten. Knapp 21 Prozent der Befragten sind mindestens wöchentlich über die Sprachsuche aktiv, Tendenz steigend.
Die Chancen für Unternehmen, um Voice Search ready zu werden
Die Studie von Uberall gibt nicht nur den Zustand der Voice Search Readiness im Kontext der untersuchten Unternehmen an, sondern liefert auch Hinweise, wie man sich für die Entwicklung wappnen kann. Dass die Sprachsuche immer gewichtiger wird, davon ist auch Norman Rohr, Senior Vice President Marketing bei Uberall, überzeugt:
Nutzeranfragen über Voice Search sind stark im Kommen und werden derzeit regelrecht gehypt. Gerade deswegen handelt es sich um ein Thema, bei dem nach wie vor viel Aufklärungsarbeit nötig ist. Nur sehr wenige Unternehmen wissen heute, was es heißt, Voice Search Ready zu sein, was sie tun müssen, um es zu werden und ob sich die Investition überhaupt lohnt […] Wir haben VSR mit einem prozentualen Bewertungssystem messbar gemacht, das die optimierte Onlinepräsenz eines Unternehmens analysiert. Auf diese Weise kann ein Unternehmen sehen, ob seine Online-Listings für lokale Sprachsuchen optimiert sind und welche Probleme behoben werden müssen.
Einige der grundlegenden Hinweise dürften hier nicht neu sein. Es gilt, seine Fakten zu prüfen, bei Google My Business registriert zu sein, Yahoo, Bing und Co. aber auch nicht außen vor zu lassen. Darüber hinaus muss natürlich auf Voice-freundliche strukturierte Sprache gesetzt werden – ebenso wie auf Markups. Außerdem könnten externe Anbieter helfen. Von Interesse für die Unternehmen und die Webmaster ist jedoch sicherlich die ausführliche Checkliste, die Uberall kreiert hat. Sie zeigt im Detail, wie in Bezug auf Verzeichnisse, den eigenen Content oder die eigene Seite Elemente optimiert werden können, um bei der Voice Search ganz vorne zu landen.
Ausschnitt aus der Voice Search Readiness Checklist, © Uberall Wer sich für die Sprachsuche bereit machen möchte, sollte sich den Bericht von Uberall komplett anschauen. Denn er zeigt: die meisten Unternehmen sind für Voice Search noch nicht bereit – obwohl sie es sein sollten. Denn die User werden sich daran gewöhnen, mehr über Sprache zu interagieren. Mit Alexa, dem Google Assistant etc. Und so wird der Weg zur Voice Search Readiness eine der größten SEO-Aufgaben für Unternehmen und Websites überhaupt.

Welche Rolle spielt künstliche Intelligenz für die Zukunft des E-Mail-Marketings?

Welche Rolle spielt künstliche Intelligenz für die Zukunft des E-Mail-Marketings?

Künstliche Intelligenz im Marketing ist schon lange keine Science-Fiction mehr. Vor ein paar Jahren noch unmöglich, verbessern Algorithmen und Deep Learning-Applikationen mittlerweile stetig die Performance und Auswertung verschiedenster Kampagnen. Ich bin mir sicher: Wir stehen gerade erst am Anfang. Besonders im Bereich E-Mail-Marketing ist das Potenzial dieser neuen Technologie nicht einmal ansatzweise ausgeschöpft. Die Verknüpfung mit solchen KI-Applikationen schafft etliche neue Ansätze.
Aufwertung der Customer Experience und Verkürzung der Customer Journey
Es gibt bereits Sprachassistenten, die eingetroffene E-Mails vorlesen. Doch was hindert uns daran, die E-Mail nicht generell als audio-visuelles Medium einzusetzen? Von der Nutzung von Audio – denkbar wäre etwa eine vorgelesene, personalisierte Ansprache – bis hin zur grafischen Darstellung in Form von E-Mails, die von der KI automatisch von einem zweidimensionalen in ein dreidimensionales Template überführt werden.
Stell dir vor, du erhältst per Mail Werbung eines Brillenanbieters. Du öffnest die E-Mail und wirst durch ein kurzes Audio-Snippet begrüßt: „Hallo Robert. Schön, dass du wieder da bist.“. Gleich hier würde dem Adressaten, in diesem Fall einem Bestandskunden, suggeriert, er befände sich in einem Geschäft der Kette, mitten in seiner Inbox – und der Verkäufer kennt ihn auch noch persönlich. Talking about Customer Experience: Es geht um eine neue Brillenkollektion, selbstverständlich gibt es verschiedene Designs des Gestells, Farben und getönte Gläser zur Auswahl. Das Modell gefällt, in der Mail selber kann das Design bestimmt werden und schon hast du deine neue Lieblingsbrille vor Augen. Doch wie es manchmal so ist, stellt sich schnell die Frage: Steht mir das überhaupt? Nachdem du ein Foto von dir selbst mit dem Abbild des favorisierten Brillenmodells verknüpft hast, verschmilzt die KI selbstständig dein Portraitfoto mit dem Brillenmodell und du trägst virtuell eine neue Brille auf der Nase.
Dabei handelt es sich nicht um ein simples Copy-Paste Verfahren. Der dahinterstehende Algorithmus ist dank Deep Learning – vereinfacht ausgedrückt, die fortwährende Wiederholung der selben Tätigkeit einer Software mit anschließender, eigenständiger Analyse zum Erkenntnisgewinn – in der Lage mit derselben Präzision wie ein professioneller Grafiker in Handarbeit das Brillenmodell fotorealistisch an die richtige Stelle im Gesicht zu setzen, und das in Sekundenbruchteilen. Selbstverständlich kannst du dies ohne merkliche Ladezeit mit allen verfügbaren Modellen ausprobieren. So lässt sich die Customer Journey beim E-Mail-Marketing nicht nur neu und aufregend gestalten, sie ist interaktiv und stärkt die Kundenbindung. Der Einsatz von KI ist insbesondere im Bereich der Produktwerbung besonders reizvoll und vielfältig. Denn wenn die Mail wie wir in unserem Beispiel gezeigt haben, wie eine eigene App oder Microsite aufgebaut ist, kann sie direkt zur Landing Page werden und damit quasi zu einem Online Shopping Cart. Der User bleibt in der gewohnten, „heimischen“ Umgebung seiner Inbox.
Oder denken wir an Social Feeds. Ein entsprechender Algorithmus wäre problemlos in der Lage, etwa den Instagram-Account des eigenen Unternehmens oder den eines Influencers, der die Brand markiert hat oder einen entsprechendes #Tag verwendet hat, nach dem zur Mail gehörigen Post zu durchsuchen und diesen in die Mail einzupassen.
Zudem wäre es denkbar, den Post eines Celebrities wie zum Beispiel Justin Bieber einzubetten, der das ausgewählte Brillenmodell gerade erst in seinem neuesten Post trägt. Der Kunde bekommt somit nur angezeigt, was für ihn und seine Kaufentscheidung relevant ist. Er wird zur Interaktion animiert anstatt ihn mit (für Ihn) unnötigen Informationen zu überfluten. Der First Moment Of Truth wird zudem durch die Möglichkeit Fragen des Kunden direkt zu beantworten, mittels 3D besser visualisierbaren Produktvorstellungen und der „Social Acceptance“ durch Influencer oder Testimonials entscheidend beeinflusst. Generell lässt sich sowohl in Punkto Individualisierung als auch Personalisierung dank künstlicher Intelligenz eine ganz neue Tiefe auf Marketingebene schaffen.
KI gesteuertes CRM und neue Analytics
Eine weitere Verbesserung der E-Mail-Marketing-Performance ist auch durch direkt implementiertes, KI-gesteuertes CRM zu erwarten. So ließe sich etwa über die Integration eines Chatbots nachdenken. Wenn wir bei unserem Beispiel des Brillenkaufes bleiben, dann wäre bereits am ersten Touchpoint mittels Live-Chat die Nachfrage an den Kundenservice möglich, ob die Brille auch mit Brillenstärke verfügbar ist. Die direkte Kundenkommunikation stärkt die Bindung des Kunden an Marke und Produkt und hilft nachweislich auch beim Verkauf, ganz wie die Kundenberatung im Einzelhandel. Gleichzeitig wird dem (potenziellen) Kunden absolute Relevanz suggeriert, denn er erhält sofort eine Antwort auf seine Fragestellung. Im Optimalfall ist für den Nutzer nicht zu unterscheiden, ob er gerade mit dem Kundenservice oder einem professionellen Chatbot spricht, denn diese trainieren sich ebenfalls selbst dank Deep Learning und sind nach einiger Zeit in der Lage, innerhalb eines festgesetzten Rahmens menschenähnlich zu antworten.
Ein netter Nebeneffekt: langfristig können so Ressourcen im Customer-Relationship-Management besser eingesetzt werden. Zugleich bietet eine Konversation mit einem Chatbot deutlich mehr Analysemöglichkeiten als etwa Gespräche mit Kundenberatern – das liegt in der Natur der Sache. So entsteht ganz nebenbei ein komplett neues Tool zur Analyse der Kundenzufriedenheit sowie Learnings, um den Absatz zu erhöhen, indem in der initialen Ansprache solche Erkenntnisse miteinfließen. Doch lass uns noch etwas weiterdenken – warum sollten Chatbots in naher Zukunft nicht auch Bestellungen annehmen – direkt aus der E-Mail heraus? Die Möglichkeiten scheinen aktuell nur durch unsere Fantasie begrenzt, während technische Limitierungen täglich weiter verblassen.
Künstliche Intelligenz könnte auch zur programmatischen Vorsortierung von E-Mails verwendet werden. Diese werden dann, abhängig vom Nutzerverhalten ausgespielt und die Inhalte dementsprechend variiert. War es etwa bei der bekannten „Priority Inbox“ von Gmail noch der Nutzer selbst, der den Algorithmus trainierte, so wird es in Zukunft ein Selbstlernender sein, wodurch Relevanz und Personalisierung von E-Mails trotz, beziehungsweise dank computerisierter Aussteuerung immer weiter zunehmen werden. Mit dem Einsatz von künstlicher Intelligenz kann die Customer Journey verkürzt werden – direkt auf den Posteingang des Mailaccounts. Diese Entwicklung wird sich auch deutlich positiv auf die durchschnittlichen Abbruchraten auswirken. Denn die Verkürzung der Customer Journey und das direkte Einwirken auf den Kunden verkürzen auch den Online Decision Process.
Doch auch Herausforderungen kommen mit der neuen Technologie: Noch gibt es wenig Regulationen in Hinsicht auf Datenschutz und Compliance beim Einsatz von Künstlicher Intelligenz. Hier wird sich mit dem Fortschritt der Entwicklung auch die Legislative anpassen müssen. Dazu wird die zunehmende Verlagerung der Internetnutzung vom Computer auf mobile Endgeräte früher oder später auch von E-Mails erfordern, dem altbekannten Credo „mobile first“ zu folgen.
Eine spannende Zukunft erwartet uns.

Seeing AI: Microsofts Update macht Visuals für Sehbeeinträchtigte per Touch erfahrbar

Seeing AI: Microsofts Update macht Visuals für Sehbeeinträchtigte per Touch erfahrbar

Was vor einigen Jahren noch als Science Fiction abgetan worden wäre, ist jetzt Realität. Künstliche Intelligenz ermöglicht es Menschen mit beeinträchtigtem Sehvermögen, ihre Umgebung mit ihrem Smartphone oder Tablet abzuscannen und beschreiben zu lassen. So können sie tägliche Aufgaben einfacher bewältigen als vorher.
Die App „Seeing AI“ von Microsoft bietet neun verschiedene Channels mit Funktionen wie dem Vorlesen von Dokumenten (auch handschriftlichen Notizen), dem Erkennen von Währungen oder der Möglichkeit Fotos beschreiben zu lassen. Diese entwickeln sich mit Hilfe von Machine Learning-Prozessen weiter. Auch auf Bilder aus anderen Apps kann „Seeing AI“ zugreifen, was besonders für Social Media hilfreich ist. Zudem kann die App Menschen und in Grundzügen deren Emotionen erkennen und durch das Scannen von Barcodes Produkte erkennen und beschreiben. Sie erkennt auch die Umgebung der Nutzer im sogenannten Scene Channel und kann sie den Nutzern schildern.
Die App beschreibt dem Nutzer auch Fotos in anderen Apps. © Microsoft Das neueste Feature ermöglicht es jetzt, sich Bilder nicht nur beschreiben zu lassen, sondern sie auch per Touch zu erforschen. Dem Anwender wird nicht mehr nur der Gesamteindruck des Bildes beschrieben, vielmehr ist es auch möglich, sich ansagen zu lassen, was sich im Vorder- oder Hintergrund des Bildes befindet und wie weit die Objekte schätzungsweise voneinander entfernt sind. Zudem wurden andere Kleinigkeiten in der Benutzerfreundlichkeit verändert. Die Reihenfolge der Channels ist jetzt personalisierbar und die App gibt besseres Audiofeedback entsprechend dem, was sie gerade tut.
Das große Potenzial von AI
Die App ist jetzt auch für iPhone und iPad verfügbar und wird so vielen weiteren Menschen helfen können. Das Internet zugänglicher für Menschen mit Beeinträchtigungen zu machen, ist definitiv keine leichte Aufgabe, aber eine, der sich zunehmend angenommen wird. Instagram brachte erst Ende letzten Jahres ein Update heraus, das es möglich machte, per Screen Reader automatisierte Beschreibungen von Bildern zu hören und dadurch besser partizipieren zu können. So zeigen Apps wie „Seeing AI“, dass AI nicht immer gruselig sein muss, sondern auch viel Gutes bewirken kann.