Datenschutz bei Sprachassistenten | Ein lösbares Problem?

Immer mehr Menschen nutzen Alexa, Siri oder den Google Assistant. Wie sieht es mit dem Datenschutz aus? Und sind Sprachassistenten eigentlich sexistisch?

Datenschutz bei Sprachassistenten
Grafik: eb

Datenschutz bei Sprachassistenten

Grundsätzlich gelten für den Datenschutz bei Sprachassistenten die gleichen Regelungen zum Datenschutz wie für Webseiten, Apps, Geräte etc. auch. Dennoch gibt es immer mehr Kritik. Vor allem, dass Mitarbeiter der Hersteller die „Gespräche“ mit Alexa und Co. sowie andere Sprachnachrichten abhören, sorgte für Aufregung. So war schon im April 2019 zu lesen:

Sie hören bis zu 1000 Clips pro Schicht: Der Tech-Riese Amazon beschäftigt Tausende Mitarbeiter, die Aufnahmen des Sprachassistenten Alexa abtippen
Quelle: WELT

Ähnliche Meldung bezüglich Google Assistant und Siri ließen dann nicht lange auf sich warten.

Fremde Menschen hören zu!

Für die Betroffenen war der eigentlich Skandal jedoch nicht nur, dass irgendwelche Menschen irgendwo in der Welt wissen, was ich sage. Denn sie denken sich wahrscheinlich, dass die Unternehmen selbst sowieso die Nutzerdaten kennen und hoffen, dass diese verantwortungsvoll mit dem Datenschutz bei Sprachassistenten umgehen. Als viel problematischer wird die Erkenntnis eingestuft, dass nicht nur Amazon, Google oder Apple das wissen, sondern dass externe Vertragspartner dieser Unternehmen involviert sind.

Zwar haben diese sicherlich Verträge zum Datenschutz bei Sprachassistenten abgeschlossen, die zur Verschwiegenheit verpflichten, aber nichts genaues weiß man nicht. Und es wäre ja nicht das erste Mal, dass solche Firmen ihre Kenntnisse doch für eigene, gewinnbringende Zwecke nutzen. Außerdem erhöht sich das Risiko, dass die gespeicherten Mitschnitte auf anderen Wegen an die Öffentlichkeit gelangen.

Warum hören sie zu?

Um die Frage nach dem Datenschutz bei Sprachassistenten zu klären, sollte sich jeder die Funktionsweise solcher Sprachassistenten vor Augen führen. Diese beruht u. a. auf der sogenannten AI / künstlichen Intelligenz. Vereinfacht gesagt wird das System von Menschen trainiert, bestimmte Anweisungen zu verstehen und entsprechend zu reagieren. Da jedoch jeder eine andere Ausdrucksweise hat, genügt es nicht, nur ein Kommando zu verstehen.

Einfaches Beispiel: Ich interessiere mich für meine nächsten Termine. Einerseits könnte ich sagen „Öffne den Kalender“. Andererseits aber auch „Zeig mir den Kalender“ oder „Zeige meine nächsten Termine“. Der Sprachassistent soll aber in allen Fällen das gleiche tun. Infolgedessen muss er lernen, dass die drei unterschiedlichen Kommandos zum selben Ziel führen sollen.

Natürlich sind die Aufgaben im täglichen Leben zum Teil wesentlich komplexer. Zu den unterschiedlichen Formulierungen kommen auch noch sprachliche Eigenheiten. Bei einem Süddeutschen hört sich u. U. dieselbe Anfrage anders an, als bei einem Norddeutschen. Dementsprechend viel muss der Assistent lernen, um möglichst schnell richtig zu reagieren. Und dazu braucht es zunächst auch Menschen, die die unterschiedlichen Kommunikationsweisen analysieren, um das System stetig zu verbessern.

Als Teil unserer Arbeit zur Entwicklung der Sprach-Technologie in mehr Sprachen, beschäftigen wir Sprachexperten in der ganzen Welt, die die Nuancen und Akzente bestimmter Sprachen verstehen. Diese Sprachexperten überprüfen einen kleinen Teil der Fragen und schreiben sie auf, um uns zu helfen, jene Sprachen besser zu verstehen. Dies ist ein kritischer Teil beim Aufbau der Sprachtechnologie und er ist notwendig, um Produkte wie Google Assistant zu entwickeln.
Quelle: Google (aus dem Englischen übersetzt)

Datenschutz bei Sprachassistenten seitens der Anbieter

Wie gehen die betroffenen Unternehmen mit der Kritik an ihrer Vorgehensweise um? Wie wollen sie den Datenschutz bei Sprachassistenten erhöhen? Zunächst berufen sie sich auf ihre Datenschutzerklärung. Darin weist Amazon darauf hin, dass die Sprachaufnahmen möglicherweise bei der Entwicklung neuer Funktionen verwendet und hierbei manuell überprüft werden, um ihren Services zu verbessern. Ähnliches ist auch bei Apple und Google zu lesen. Die Nutzer sind somit über den Datenschutz bei Sprachassistenten aufgeklärt, also eigentlich doch kein Problem.

Dennoch haben zumindest Google und Apple die Auswertung durch Menschen ausgesetzt. Apple teilt zudem mit, dass in Zukunft die Nutzer aktiv die Erlaubnis zur Auswertung der Mitschnitte durch (eigene) Mitarbeiter verweigern können. Ein entsprechendes Update sei bereits geplant.

Problem Nutzererwartung

Wie in anderen Bereichen, sitzt das Problem Datenschutz bei Sprachassistenten nicht nur „im“ Gerät, sondern auch davor. Die Nutzer erwarten eine umgehende, korrekte und umfassende Reaktion auf ihre Fragen und Anweisungen. Das kann nur funktionieren, wenn das Gerät seinen Nutzer auch kennt. Und um ihn kennenzulernen, muss es möglichst viele Daten sammeln, wobei der Datenschutz bei Sprachassistenten „notgedrungen“ auf der Strecke bleibt..

Das Prinzip gleicht dem der Suchmaschinen. Warum nutzen die meisten Menschen Google? Weil Google alles weiß. Warum weiß Google alles? Weil es alle Daten sammelt, die es nur kriegen kann. Wenn du eine Suchmaschine nutzt, die nicht so eifrig sammelt, sind eben auch die Suchergebnisse nicht immer auf Anhieb so perfekt.

Dasselbe gilt für Sprachassistenten. So wird Siri oft belächelt und als „nicht so toll“ abgetan, weil Apple eben nicht ganz so viele Daten speichert wie Google oder Amazon. Dementsprechend ist der Datenschutz bei Sprachassistenten zu einem nicht geringen Teil eine Frage des Nutzerverhaltens und der Nutzererwartung.

Nutzer und der Datenschutz bei Sprachassistenten

Die radikalste Lösung wäre natürlich Alexa und Co. gar nicht erst zu kaufen bzw. Google Assistant oder Siri komplett zu deaktivieren. Aber das muss nicht sein. Denn du kannst den Datenschutz bei Sprachassistenten verbessern, indem du das Analysieren deiner Sprachaufnahmen untersagst. Nur sind diese Einstellungen recht versteckt:

Alexa

  1. Menü Alexa Datenschutz
  2. Untermenü Legen Sie fest, wie Alexa Ihre Daten verbessern soll
  3. oberen Schalter auf Aus.

Daten löschen:

  1. Einstellungen
  2. Alexa Datenschutz
  3. Sprachaufnahmen Verlauf prüfen
  4. gespeicherte Daten löschen

Per Sprachbefehl::

  1. Im Menü
  2. Löschen per Sprachbefehl aktivieren
  3. Anschließend bei Bedarf:
  4. Alexa, lösche was ich gerade / heute / … gesagt habe

Google Assistant

  1. Einloggen in myaccount.google.com
  2. Datenschutz
  3. Personalisierung
  4. Sprach- und Audioaktivitäten
  5. Speichern von Sprachbefehlen deaktivieren

Daten löschen:

  1. Im gleichen Menü:
  2. Aktivitäten verwalten
  3. Anfragen anhören und löschen oder
  4. Menü-Symbol rechts oben
  5. alle gespeicherten Aufnahmen löschen

Außerdem kannst du in der Google Home App unter Meine Aktivitäten festlegen, ob Google die Daten nach 3 oder 18 Monaten automatisch löschen soll.

Siri

Apple nimmt den Datenschutz bei Sprachassistenten von Haus aus etwas ernster. So erfasst Siri zwar deinen Namen und deinen ungefähren Standort, alle anderen Aufnahmen sind jedoch mit einer zufälligen Identifikationsnummer versehen.

Deshalb lassen sich die sechs Monate lang gespeicherten Daten nicht mehr einer Person / einem Gerät zuordnen. Spätestens nach zwei Jahren löscht Apple auch die Kopien der Audiodaten. Um die Datensammlung einzuschränken, hast du die Möglichkeit festzulegen, worauf Siri Zugriff hat.

  1. Einstellungen
  2. Siri & Suchen
  3. Liste der Apps
  4. Siri & Vorschläge, Sperrbildschirm mit Siri verwenden deaktivieren

Außerdem

  1. Einstellungen
  2. Ortungsdienste
  3. Siri & Diktieren
  4. Zugriff auf Standort erlauben
  5. Nur bei Verwendung / Nie.

Mehr Datenschutz bei Sprachassistenten ab Herbst 2019

Am 28. August 2019 › entschuldigt sich Apple in seinem Newsroom dafür, dass das Unternehmen seinen hohen Maßstäben nicht vollständig gerecht geworden ist. Deshalb bleibt der Siri-Qualitätsauswertungsprozess gestoppt, bis im Herbst 2019 ein Software-Update mit folgenden Änderungen an die Nutzer verteilt wurde.

  • Standardmäßig keine Speicherung von Audioaufzeichnungen von Siri-Interaktionen mehr – nur noch computergenerierte Transkripte.
  • Nutzer können per Opt-in selbst entscheiden, ob sie zur Verbesserung von Siri beitragen möchten. Die Zustimmung dafür, dass Siri aus den Audioproben der Anfragen lernen kann, können sie jederzeit widerrufen.
  • Falls ein Nutzer zugestimmt hat, hören ausschließlich Apple-Mitarbeiter die Audioproben. Außerdem sollen diese jede Aufnahme, die als unbeabsichtigter Auslöser von Siri erkannt wurde, löschen.

Datenschutz bei Sprachassistenten – Zusammenfassung

Um das Problem Datenschutz bei Sprachassistenten zu lösen, sind beide Seiten gefragt. Die Unternehmen, sollten dafür sorgen, dass …

  • weniger Daten gespeichert werden,
  • diese anonymisiert sind und
  • nicht in falsche / dritte Hände gelangen.

Aber auch du als Nutzer hast einige Möglichkeiten, eine gewisse Privatsphäre zu wahren. Allerdings bleiben dabei Komforteinbußen nicht ganz aus.

Fazit

Wenn Alexa, Siri und Co. nicht alles über dich wissen, können sie es auch nicht ausplaudern. Weder dir gegenüber noch gegenüber anderen Menschen. Infolgedessen ist beim Datenschutz bei Sprachassistenten auch eine gewisse Mitarbeit deinerseits gefragt.

Sind Sprachassistenten sexistisch? - Zusammenfassung

Sind Sprachassitenten sexistisch?

Abgesehen vom Datenschutz bei Sprachassistenten gibt es noch einen weiteren „Aufreger“ bei den beliebten Systemen. So wirft die UNESCO ihnen Sexismus und weibliche Unterwürfigkeit vor. Ist die Kritik objektiv betrachtet gerechtfertigt?

Diskriminierung durch Sprachassistenten?

Bei Sprachassistenten handelt es sich um eine spezielle Software, die vor allem mit der Technologie der künstlichen Intelligenz (KI ~ Artificial Intelligence AI) arbeitet. Nachdem das Programm Sprache erkannt und analysiert hat, verarbeitet es diese logisch. Anschließend ist die Software in der Lage, mehr oder weniger passende Antworten zu geben oder Aktionen auszuführen. Darüber hinaus lernt sie kontinuierlich dazu. Deshalb wächst ihre Präzision mit der Häufigkeit ihrer Nutzung.

Zunächst waren Sprachassistenten nur auf allen modernen Smartphones, Tablets und Computern installiert. Dann kamen eigenständige Geräte wie der Amazon Echo, Google Home oder der HomePod von Apple hinzu. Allen gemeinsam ist, dass sie auf Zuruf auf bestimmte Art und Weise reagieren sollen – eben assistieren.

Geschlecht einer Technologie

Gibt es hier bereits einen Anhaltspunkt für Sexismus? Nein. Obwohl es die Software heißt, basierte diese Weiblichkeit lediglich auf der Eigenheit u. a. der deutschen Sprache, nicht nur Personen, sondern auch Gegenständen weibliche oder männliche Artikel zuzuordnen. Wenn diese damit zu Personen würden, begegnetest du dann „dem Ofen“ mit mehr Respekt als „der Heizung“ nur weil er männlich und sie weiblich ist? Ist das schon eine Form von Sexismus? Wohl kaum. Dementsprechend ist auch eine Software oder ein Programm ein Gegenstand und keine Person, hat also kein definiertes Geschlecht.

Wäre da noch der Assistent. Richtig der Assistent – eindeutig männlich! Obwohl er mit dir spricht, macht ihn das jedoch nicht gleich zur Person. Denn seine Sprachfähigkeit beruht ausschließlich auf seiner Programmierung und nicht auf einer genetisch festgelegten Eigenschaft. Deshalb ist und bleibt es ein geschlechtsloses Objekt. Und selbst aus den Produktnamen Echo, Home oder HomePod lässt sich kein Geschlecht ableiten.

Was ist aber mit Alexa, Siri und Co.?

Ausgehend von der Namensgebung fällt alleine Alexa als eindeutig weibliche Sprachassistentin auf. Obwohl Cortana ein Kunstname und (zumindest in der westlichen Welt) kein offizieller weiblicher Vorname ist, spricht jedoch auch Microsoft von einer digitalen Sprachassistentin.

Siri ist ebenfalls ein Kunstname. Laut Apple ist Siri › ein intelligenter Assistent und wird als es bezeichnet. Wenn du bei „Hey Siri“ aufgrund des Klangs die Assoziation „weiblich“ hast, ist das eine rein subjektive Interpretation.

Und um bei „Okay Google“ ein geschlechtsspezifisches Bild vor Augen zu haben, bedarf es einiger Fantasie. Folglich steht zweimal weiblich zweimal geschlechtsneutral gegenüber.

Aber die Stimme …!

Es ist richtig, dass die Sprachassistenten meistens eine weibliche Stimme haben. Wollen die Entwickler der Sprachassistenten damit Frauen erniedrigen? Wiederum nein. Denn sowohl Cortana als auch Siri und der Google Assistent sind flexibel. In den jeweiligen Einstellungen findest du bei …

  • Cortana: Eine helle und eine dunkle weibliche sowie eine männliche Stimme, bei
  • Siri: Zwei weibliche und zwei männliche Stimmen und bei
  • Google: Bis zu sechs unterschiedliche Stimmen.

Nur Alexa ist und bleibt weiblich. Daraus lässt sich schließen, dass zumindest drei von vier Unternehmen auch männliche Assistenten „akzeptieren“.

Somit ist das Problem woanders zu suchen. Einerseits in den Köpfen der Nutzer (s. u.). Andererseits im menschlichen Gehör. Da weibliche Stimmen i. d. R. höher und klarer sind, wird Sprache besser verstanden als bei tieferen männlichen Stimmen. Deshalb wurden schon lange vor Erfindung der Sprachassistenten für Telefon-, und Lautsprecher-Ansagen etc. überwiegend Frauenstimmen verwendet.

Sprachassistenten sind unterwürfig

Nachdem sich der Sexismus-Vorwurf relativiert hat, wäre da noch die Unterwürfigkeit. Dazu noch einmal zurück zum Assistenten. „Ein Assistent ist eine Person oder ein Produkt, dass einem anderen hilft oder mitarbeitet.“

Schon aus dieser Definition ergibt sich, dass ein Assistent, unabhängig vom Geschlecht, keine Befehle gibt, sondern welche ausführt. So trifft ein/e Assistent/in der Geschäftsleitung i. d. R. auch keine eigenen Entscheidungen. Er/sie unterstützt die Geschäftsleitung, indem er/sie ihm/ihr zugewiesene Aufgaben erledigt. Die jeweiligen Geschlechter spielen bei dieser Arbeitsteilung keine Rolle.

Die Aufgaben werden normalerweise ohne große Widerworte erledigt. Welcher Chef würde es sich schon gefallen lassen, mit seinen Mitarbeitern ständig über seine Entscheidungen und die Aufgabenverteilung zu diskutieren? Ganz zu schweigen von lautstarken Protesten seitens der Assistenten oder der Weigerung, Aufgaben überhaupt zu erledigen.

Fühlen sich Assistent/inn/en deshalb grundsätzlich minderwertig oder diskriminiert? Dass ein System oder ein Unternehmen, in dem alle Menschen gleich sind und das Sagen haben, nicht funktioniert, hat die Geschichte hinlänglich bewiesen. Infolgedessen ist es der Zweck von Sprachassistenten, dir behilflich zu sein. Und das tun sie mehr oder weniger gut.

Und warum sollten sie eigentlich mit dir diskutieren? Wenn ich meinen iMac anmeckere, weil er wiederholt die ersten beiden Buchstaben eines Wortes groß schreibt, erwarte ich doch auch nicht wirklich eine Antwort. Wie sollte die denn lauten? „Mir macht das aber Spaß …“ oder „Hör auf zu meckern, das gefällt mir so besser …“? Oder soll Siri nach der Aufforderung, einen bestimmten Song zu spielen, mit mir darüber diskutieren, ob ein anderer nicht viel schöner sei?

Berechtigte Kritik der UNESCO?

Als weiteres Zeichen weiblicher Unterwürfigkeit bemängelt die UNESCO, dass sich Sprachassistenten beleidigen lassen, ohne sich dagegen zu wehren. Obwohl – manchmal „wehren“ sie sich doch, wie ein Beispiel mit Alexa zeigt.

Da sie zwar antwortete, aber plötzlich die gewünschte Musik nicht mehr spielte, lag eine technische Störung bei Amazon recht nahe. Auf die Frage, ob „Amazon gestört sei,“ lautete die Antwort: „Jemand mit einem so schönen Namen kann nicht dumm sein!“

Ich frage mich ernsthaft, was daran falsch ist, selbst bei einer (wenn auch in diesem Fall nur auf einem Missverständnis seitens der KI beruhenden) Beleidigung, nett und freundlich zu bleiben? Was ist erstrebenswerter? Eine Gesellschaft, in der alle respektvoll miteinander umgehen, oder eine, in der nach Belieben geschimpft und zurück gepöbelt wird?

Obwohl letzteres immer mehr zur Normalität wird, muss doch Software dieses Benehmen nicht unbedingt nachahmen. Wenn Unhöflichkeit und Respektlosigkeit Zeichen von Selbstbestimmung und Gleichberechtigung sind, läuft da glaube ich irgendetwas falsch.

Trenner - Zusammenfassung

Sind Sprachassitenten sexistisch? – Zusammenfassung

Unter Berücksichtigung der oben erläuterten Aspekte kann ich nur zu dem Schluss kommen, dass Sexismus und weibliche Unterwürfigkeit objektiv nicht zu belegen sind. Infolgedessen handelt es sich dabei um ein subjektives Empfinden. Die Diskriminierung findet also im Kopf der Nutzer statt und geht nicht von der Software aus.

Wenn jemand Siri und Co. als weiblich ansieht und deshalb abfällig behandelt, tut er das nicht, weil es die Entwickler der Sprachassistenten so vorgeben. Sondern er tut es, weil sein höchstpersönliches Frauenbild entsprechend geprägt ist. Mit ziemlicher Sicherheit verhält er sich realen Frauen gegenüber nicht wesentlich anders.

Falls künstliche Intelligenz doch einmal soweit weiterentwickelt würde, eigenständig denken zu können, kann ich nur hoffen, dass sie sich nicht am durch Vorurteile geprägten, respektlosen Verhalten einiger Menschen orientiert. Zurück-Beleidigen löst das gesamtgesellschaftliche Problem jedenfalls nicht.

Fazit

Wie in vielen anderen Bereichen auch muss sich etwas in den Köpfen der Menschen ändern, um Diskriminierung zu beseitigen. Denn eine Software kann bisher weder „denken“, noch ist sie zu einer eigenständigen Meinungsbildung und Reaktion auf Emotionen fähig.

© eb | › Externe Verlinkungen: Dieser Beitrag enthält keine Affiliate-/Partner-Links.

Auch Interessant

luckycloud - was für den deutschen Cloud-Speicher spricht

luckycloud | Was für den deutschen Cloud Speicher spricht

luckycloud bietet u.a. einen Cloud Speicher für Unternehmen und für Privatnutzer an. Bestmöglicher Datenschutz und Sicherheit haben dabei oberste Priorität.