Überwachung

Siri: Fremde hören beim Sex und bei Arztgesprächen mit

27.07.2019

Siri: Fremde hören beim Sex und bei Arztgesprächen mit

Nach Google und Amazon gerät nun auch Apple unter Druck. Ein externer Mitarbeiter warnt vor Missbrauch.

Externe Apple-Mitarbeiter hören ständig bei sensiblen Gesprächen von Apple-Nutzern mit. Arztgespräche, Drogenhandel aber auch  Sex zwischen Paaren wird pausenlos aufgezeichnet und auch ausgewertet, berichtet ein Mitarbeiter einer externen Firma dem Guardian. Dabei handle es sich praktisch ausnahmslos um Aufnahmen, die versehentlich gestartet wurden.

Als Crux für alle Sprachassistenten von Google bis Alexa ist, dass sie ständig gestartet werden, auch wenn nicht der vorgesehene Aktivierungsbefehl gesagt wurde – etwa weil das Gesprochene von der Software falsch verstanden wurde. Auch Apple ist davor nicht gefeit. Dem Mitarbeiter zufolge schaltet sich Siri manchmal auch durch Geräusche, wie das Öffnen eines Reißverschlusses ein.

Apple Watch hört ständig mit

Als besonders anfällig für ungewollte Aufnahmen habe sich die Apple Watch erwiesen, die bis zu 30 Sekunden lang die Umgebung aufzeichne. Das passiere besonders häufig, weil die Uhr besonders sensibel reagiere. Der Mitarbeiter, der nicht zuletzt aufgrund der Knebelverträge von Apple, anonym bleiben wollte, gibt an, dass das Zuhören bei persönlichen Gesprächen und Situationen nicht nur verstörend sei.

Netzpolitik Alexa, Siri und Google locken User mit Frauenstimme in die Falle

Er wolle im Namen seiner Kollegen auch die Öffentlichkeit auf das enorme Missbrauchspotenzial hinweisen, das durch solche Sprachassistenten existiere. Zuvor waren bereits Amazon und Google unter Kritik geraten, weil die Firmen die hochsensiblen Gespräche ebenfalls extern auswerten und transkribieren lassen. Im Fall von Google konnten Journalisten aufgrund der Informationen sogar Nutzer, die auf den Aufnahmen zu hören waren, zuordnen und ausfindig machen.

Anonym, aber doch nicht

Apple rühmt sich bei Siri damit, dass der Dienst anonymisierter funktioniert. So sind die Siri-Gespräche nicht mit einer Apple-ID verknüpft und können nicht so leicht zugeordnet werden. Andererseits lassen sich durch die Gespräche selbst, aber auch andere mitgelieferte Informationen wie ortsbezogene Daten, gewisse Kontaktinformationen und App-Daten sehr wohl Rückschlüsse machen, behauptet der Mitarbeiter.

Bei Konsumentenschützern schrillen nicht zuletzt seit diesen Berichten die Alarmglocken. Digitale Sprachassistenten führen zur Totalüberwachung. Der Datenschutz komme dabei viel zu kurz, kritisiert etwa das Institut für Technikfolgen-Abschätzung (ITA).

Digital Life Amazon-Mitarbeiter hören und schreiben mit, was ihr bei Alexa sagt

Digital Life Sprachassistent: Auch bei Google lauschen Mitarbeiter mit

Quelle https://futurezone.at/digital-life/siri-fremde-hoeren-beim-sex-und-bei-arztgespraechen-mit/400562774

Click to comment

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.

To Top

Durch die weitere Nutzung der Seite stimmst du der Verwendung von Cookies zu. Weitere Informationen

Die Cookie-Einstellungen auf dieser Website sind auf "Cookies zulassen" eingestellt, um das beste Surferlebnis zu ermöglichen. Wenn du diese Website ohne Änderung der Cookie-Einstellungen verwendest oder auf "Akzeptieren" klickst, erklärst du sich damit einverstanden.

Schließen