Verfügbare Dateien

Keine Datei hochgeladen

Verwandte Diskussion

Waldemar Diskussion gestartet von Waldemar 4 Monaten
 Viele Menschen sprechen mit Sprachassistenten wie „Alexa“ und „Siri“. Ein Teil der Fragen an Apples Assistentin Siri wird zur Kontrolle an Menschen weitergeleitet. Die bekommen dadurch private und sogar intime Gespräche mit.

Macht aber nix. Passiert ja schon bei Alexa, Echo und ich habe schließlich auch nichts zu verbergen!

Mitarbeiter von Apple bekommen regelmäßig Einblicke ins Privatleben von Apples Kunden, von der Konversation mit dem Arzt bis zum Geschlechtsverkehr. Das liegt an der Assistentin Siri, die Gesprächsfetzen aufzeichnet und versucht, darin enthaltene Fragen zu beantworten. Zur Qualitätskontrolle und -verbesserung bekommen auch menschliche Mitarbeiter einen Teil dieser Aufzeichungen zu hören. Wenn die Assistentin fälschlicherweise glaubt angefragt worden zu sein – was regelmäßig vorkommt –, dann sind auch Gespräche betroffen, die die Kunden gar nicht mit Siri teilen wollen.

Apples Mitarbeiter sind damit beauftragt, Siris Reaktionen auf die Gesprächsschnipsel zu bewerten. Angefangen damit, ob die Aktivierung der künstlichen Assistentin überhaupt gewünscht war, aber auch ob Siris Antwort angemessen war und ob es sich überhaupt um eine von Siri beantwortbare Frage handelt. Wie ein anonym gehaltener Mitarbeiter jetzt dem britischen Guardian berichtet hat, löst die Assistentin häufig unerwünscht aus – unter anderem das Geräusch eines Reißverschlusses würde oft Siri aktivieren. Die dann entstehenden Aufzeichnungen sind teilweise höchst intim. Der (oder die) Whistleblower(in) erzählt von „unzähligen Aufzeichnungen, die private Diskussionen zwischen Ärzten und Patienten enthalten, Geschäftsvereinbarungen, scheinbar kriminelle Deals, sexuelle Beziehungen und so weiter.“

Praktisch kein Datenschutz

Gegenüber dem Guardian hat Apple das Vorgehen bestätigt. Die Firma betont, dass „weniger als 1% der täglichen Siri-Aktivierungen“ betroffen sind, dass die Daten nicht mit der Apple ID verknüpft würden und dass die betreffenden Mitarbeiter sich an Apples „strikte Vertraulichkeitsvereinbarungen“ halten müssten. Das alles ist aber ein sehr schwacher Trost. Schon der Inhalt der Gespräche kann ausreichen, um die Betroffenen zu identifizieren. Laut der Quelle des Guardian kommt hinzu, dass Apple die Aufzeichnungen mit Metadaten anreichere, damit die Mitarbeiter Siris Reaktion besser bewerten können. Zu den Daten gehöre unter anderem die geografische Position und Kontaktinformationen. Außerdem würden Drittfirmen mit der Auswertung beauftragt und es gäbe eine hohe Fluktuation der Mitarbeiter — es sieht also nicht danach aus, dass Apple die Einhaltung seiner Vertraulichkeitsvereinbarungen garantieren kann.

Pikant ist außerdem, dass Apple in seinen Erläuterungen zum Datenschutz zwar erwähnt, Daten zur Verbesserung von Siri und der Diktierfunktion zu sammeln, aber es wird weder explizit gemacht, dass diese Daten Gesprächsmitschnitte beinhalten, noch dass diese von Menschen ausgewertet werden. Für eine Firma, die nach eigenem Bekunden Wert auf Datenschutz legt, ist das durchaus peinlich.

Alternativen kaum besser

Grundsätzlich ist Apples Vorgehen nichts Neues; auch die Assistentin Alexa von Amazon und Googles „Assistant“ zeichnen Gespräche auf, lösen immer wieder fälschlicherweise aus und lassen mitunter Menschen zuhören. Das scheint auch technisch unumgänglich: Menschen bekommen die Gespräche ja zu hören, gerade weil Siri & Co noch korrigiert und verbessert werden müssen. Wenn man dieses Korrektiv zuverlässig auch ohne menschliches Feedback bieten könnte, dann wäre es auch nicht mehr nötig, so ein Korrektiv überhaupt zu haben. Bei Amazon und Google kann man immerhin per Einstellung einige Verwendungsarten der eigenen Aufzeichnungen ausschließen. Apple-Nutzer haben momentan nur die Möglichkeit, Siri komplett auszuschalten, wenn sie sicherstellen wollen, dass ihre Gespräche nicht von Menschen gehört werden.

Chinesische Forscher zeigten, dass man Siri mit Befehlen zu Anrufen überreden kann, die für Menschen völlig unhörbar sind. Wissenschaftler der US-Uni Berkley konnten dagegen Befehle so überarbeiten, dass sie von Menschen nur als Rauschen wahrnehmbar waren. Alle haben eines gemeinsam: Sie machen sich Schwächen bei der Verarbeitung von Sprache durch den Computer zunutze. Was uns Menschen gelingt, ohne darüber nachzudenken, ist für Computer immer noch harte Arbeit. Um Gesprochenes verstehen zu können, müssen sie – beziehungsweise die dahinter steckende künstliche Intelligenz – das Gehörte in einzelne Geräusche zerlegen, denen dann ein Buchstabe zugeordnet wird. Aus denen werden dann wieder Sätze und Phrasen zusammengesetzt, die dann verarbeitet werden können.

Die Angreifer machen sich das Zunutze, indem sie gleich am ersten Schritt angreifen und ihre eingeschleusten Befehle so gestalten, dass sie von Menschen nicht gehört, von den Computern aber verstanden werden. Am besten gelingt das aktuell mit Ultraschall, wie Forscher aus China zeigten. Sie sandten Befehle auf Frequenzen, die für Menschen schlicht unhörbar sind, von den Mikrofonen aber erfasst werden. In Anlehnung an die teilweise ebenfalls unhörbare Sprache der Delfine nannten sie das Ganze „Dolphin Attack“ (Delfin-Angriff). Natürlich kann man die Sprachassistenten auch ausschalten. Wer aber macht das schon?



Dolphin Attack

Und weil ich das alles weiß, kommt mir weder Facebook, Whatsapp, Google Assistant, Instagram, Alexa oder  Siri ins Haus. – Schließlich kann sich jeder soweit vor anderen entblößen wie er möchte. 😉

Bei uns im Netzwerk für Freunde bleiben alle privaten Dateien, MitgliederProfile solange unter Verschluß und auf Wunsch geschützt bis das Mitglied uns wieder verlässt. Nix wird gesammelt und alles wieder gelöscht. – Das stößt welche die anderes im Schilde führen, erst einmal grundsätzlich ab. – Auch damit können wir gut leben.
Antworten
Sepp
Sepp Schön das du es wieder einmal publiziert hast, wo die Unterschiede liegen. Aber auch ich glaube es ist zu spät. Die überwiegende Menschheit ist entweder zu naiv, will es nicht wissen oder sieht sich davon nicht betroffen. Da kommt jeder kritische Ratschlag einfach zu spät.

4 Monaten
loader
loader
Attachment
Cookies erleichtern die Bereitstellung unserer Dienste. Mit der Nutzung unserer Dienste erklären Sie sich damit einverstanden, dass wir Cookies verwenden.