Siri belauschst du mich?

Wenn sie mit dem Sprachassistenten ihres iPhones reden erwarten Sie dort Siri. Der Apple Mitarbeiter der Ihnen dabei vielleicht zuhört heißt zwar wahrscheinlich nicht Siri, ist dafür aber auch aus Fleisch und Blut.
In der dritten Woche des neuen Gardion Forums nun also der dritte Eintrag über Sprachassistenten, die mehr aufzeichnen als sie es eigentlich vorgeben. Wie auch in den Fällen von Amazon und Google werden auch bei Apple Teile der Gespräche mit dem Sprachassistenten an Mitarbeiter weitergeleitet, die diese dann auswerten sollen.
Auch Siri soll sich wohl, ähnlich wie Alexa, oftmals einschalten und aufzeichnen, wenn dies vom Nutzer nicht gewünscht oder überhaupt bemerkt wurde. Ein Mitarbeiter berichtete dem britischen Gardion anonym, dass sich Siri wohl häufig beim Geräusch eines Reißverschlusses einschaltet und mitschneidet. Eine weitere Parallele zu Alexa ist die Tatsache, dass bei dieser häufigen Aktivierung auch viele sehr private Gespräche von Arztpraxis bis Schlafzimmer bei Apple landen.

Apple hat dieses Vorgehen nun auch bestätigt.

Bei dem ganzen Vorgang, über den nicht umfangreich in den Datenschutzerklärungen informiert wird, steht es um den Datenschutz einmal mehr katastrophal. Um Gespräche zu bewerten werden den Mitarbeitern Meta -Daten mitgeteilt, die zusammen mit Gesprächsinhalten eine Identifizierung möglich machen könnten. Außerdem wird die Aufgabe der Auswertung wohl teilweise auch an Drittfirmen
ausgelagert.
Die einzige Möglichkeit, die sich Applenutzern bietet, um sicher zu sein, dass ihre Krankheitsakten oder sexuellen Vorlieben mitgehört werden, ist es Siri komplett auszuschalten.
Da die Assistenten von Amazon (weitere Infos hier) und Google (Bericht dazu hier) ähnliche oder die gleichen Datenschutzprobleme aufweisen ist es wohl im Moment zu empfehlen auf digitale Sprachassistenten eher zu verzichten.