So gehen Menschen mit Siri um

Die Frau schildert, dass es offenbar viele gelangweilte Hausfrauen gebe, die in ihr Smartphone sprechen, dass sie gerade gestaubsaugt haben oder einkaufen waren. Aber auch Dirty Talk hörten sowohl sie als auch der Mann. Das sei der Frau aber schnell zu viel. "Meist sind es Männer, es ist erstaunlich, wie verbreitet das ist", sagt sie.

Stellenmarkt
  1. Ingenieur SAP-Fachbetreuung (w/m/d)
    Netze BW GmbH, Stuttgart
  2. Softwareentwickler für Ruby on Rails & C# .NET Core (m/w/d)
    KWS SAAT SE & Co. KGaA, Einbeck
Detailsuche

Kinder alberten gerne mit Siri herum, wüssten nach Beobachtung der Frau aber viel besser als die Erwachsenen, wie man mit dem System zu reden habe. "Die geben ganz klare Befehle wie: 'Siri, zeig mir das Neueste von Fortnite.'" Viele Kinder bezeichneten Siri als ihre beste Freundin.

Manchmal mache es ihr zu schaffen, dass sie einfach nur tatenlos zuhören könne. "Ich kann die Pubertierende nicht trösten, weil ihre beste Freundin sie nicht mehr sehen will. Das weinende Kind nicht, weil es wieder alles falsch gemacht hat. Die Frau nicht, die irgendjemandem vom Tod der Mama berichtet." Auch der Mann schildert, dass er oft weinende Kinder höre.

Die Mitarbeiterin frage sich jedoch, ob nicht irgendjemand anderes durchaus in der Lage sei, die Daten zuordnen und Kapital daraus schlagen zu können. "Könnte man den Typen, der anscheinend Frau und Kind hat und nebenbei eine 'geile Sau' bedient, erpressen?" Sie berichtet von einem Kollegen, der einmal ein Gespräch analysiert habe, bei dem es um einen großen Drogendeal gegangen sein könnte. Das wurde gemeldet, aber es sei nicht bekannt, was daraus geworden ist. "Ich selbst habe noch nichts strafrechtlich Relevantes gehört", meint sie. "Wir haben auch keine Anweisung, wie damit zu verfahren wäre."

Nutzer geben sorglos Daten an Siri weiter

Golem Akademie
  1. PowerShell Praxisworkshop: virtueller Vier-Tage-Workshop
    20.–23. Dezember 2021, virtuell
  2. Ansible Fundamentals: Systemdeployment & -management: virtueller Drei-Tage-Workshop
    6.–8. Dezember 2021, Virtuell
Weitere IT-Trainings

Nach Beobachtung des Mannes gingen manche Nutzer sehr sorglos mit Siri um. Sie vertrauten der Software "auch ganze Kreditkartenangaben, mit Nummern, Ablaufdatum, Sicherheitsnummer und Namen" an. Auch habe er schon ärztliche Diagnosen oder Berichte von Operationen gehört, die von Ärzten diktiert wurden. Anwälte nutzten Siri dazu, ihre Schriftsätze zu verschriftlichen - trotz Anwaltsgeheimnis.

Häufig höre die Frau Liebesbotschaften. Aber auch Hassbotschaften seien dabei - das Konkreteste bisher: "Ich hoffe, du wirst morgen überfahren." Bei einigen der Szenen dürfte sich Siri ungewollt aktiviert haben. Der Mann schildert, dass er immer wieder Sachen höre, die von Siri ungewollt aufgenommen werden. "Siri kann sich durchaus zufällig aktivieren, was nicht so oft passiert, aber doch häufig." Man sage "Hey, der Schiri war gestern krank" oder: "Diese Ringel da aus Teig" und schon aktiviere sich Siri. Das komme vor allem dann vor, wenn die Nutzer mit Akzent oder im Dialekt sprächen.

Dann seien auch mal Wutausbrüche zu hören, bei denen Siri als "dämliche Fotze" bezeichnet werde, schildert die Frau. Der Mann vermutet, dass die Beschimpfungen oft scherzhaft gemeint seien. "Manche würden sich aber auch richtig ärgern."

Mitarbeiter würden Apple-Kunden nicht ausspionieren

Der Mann weist den Vorwurf vehement zurück, er und seine Kollegen hörten Siri-Nutzer ab. Schließlich wisse er nicht, wer was gesagt habe, alles sei "strikt anonym". Er schränkt aber ein: "Alles Menschliche kommt bei Siri an, im Guten wie im Schlechten, sozusagen." Er stehe oft vor dem Problem, überhaupt erkennen zu können, worum es in den Aufnahmen geht. "Die Einträge kommen komplett ohne Kontext und sind meist kurz."

Oft gehe es bei seiner Arbeit auch darum, die korrekten Namen von Liedtiteln, Interpreten oder Webseiten zu ermitteln, die Siri falsch erkannt hat. Dafür würde oft einfach Google bemüht. Er könne auch nicht nachvollziehen, warum darüber jetzt so intensiv berichtet werde. "Das Ganze gibt es seit Langem, man wusste das doch", meint er. Er habe jedenfalls "keine Möglichkeit, die Daten der Personen zu erfahren", deren Sprachaufnahmen er anhöre.

In beiden Berichten wird erwähnt, dass die Mitarbeiter Siri bei einem Verständnisproblem geholfen hätten. Beide hätten den Satz vorliegen gehabt "Und du musst noch den Code eingeben", der von Siri nicht korrekt erkannt wurde. Apples digitaler Assistent hat daraus folgendes gemacht: "Und du muss noch den Kot eingeben." Dieser Fehler sei dann korrigiert worden und seitdem könne Siri das korrekt erkennen.

Mitarbeiter sorgen sich um ihre Arbeitsplätze

Beide Mitarbeiter sorgen sich darum, wie es mit ihrer Arbeit weitergehe, denn Apple habe das Mithören der Siri-Sprachaufnahmen erst einmal gestoppt. "Wir haben bisher noch nichts von unserem Arbeitgeber gehört, ob das an unserem Job etwas ändert oder ob wir ihn sogar verlieren", sagt die Frau. "Momentan sind wir unter Beibehaltung von Vertrag und Gehalt beurlaubt, sollen aber jederzeit zur Verfügung stehen." Auch der Mann spricht von einem bezahlten verlängerten Wochenende.

Künftig sollen Kunden erst um Erlaubnis gefragt werden, wenn ihre Siri-Sprachbefehle von Menschen angehört werden dürfen. Das will Apple mit einem Software-Update umsetzen. Wann dieses Update kommt, ist nicht bekannt.

Auch interessant:

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Sprachsteuerung: Das erleben Mitarbeiter beim Abhören von Siri-Mitschnitten
  1.  
  2. 1
  3. 2


luoc 11. Aug 2019

Audio-ReCaptcha incoming :D

Sharra 10. Aug 2019

Nein, eigentlich nicht. Wer als Anwalt, Pfarrer, Arzt, also alle, die eine berufliche...

sfr (golem.de) 10. Aug 2019

Manchmal steckt einfach der Wurm drin :(. Danke für den Hinweis. Auch der Fehler wurde...

3dgamer 10. Aug 2019

na aber sicher doch. die nsa wäre doch bescheuert das nicht zu tun. irgendein...

Hotohori 09. Aug 2019

Das Problem ist eben die eigene Stimme, die kann durchaus identifiziert werden, diese...



Aktuell auf der Startseite von Golem.de
Pornhub, Youporn, Mydirtyhobby
Gericht bestätigt Zugangsverbot für Pornoportale

Die Landesmedienanstalt NRW hat zu Recht gegen drei Pornoportale mit Sitz in Zypern ein Zugangsverbot verhängt.

Pornhub, Youporn, Mydirtyhobby: Gericht bestätigt Zugangsverbot für Pornoportale
Artikel
  1. Zip: Ratenzahlung in Microsoft Edge empört die Community
    Zip
    Ratenzahlung in Microsoft Edge empört die Community

    Die App Zip wird seit Microsoft Edge 96 standardmäßig aktiviert. Diese bietet Ratenzahlung an, schürt aber nur Hass in der Community.

  2. Kompakter Einstieg in die Netzwerktechnik
     
    Kompakter Einstieg in die Netzwerktechnik

    Die Golem Akademie bietet Admins und IT-Sicherheitsbeauftragten in einem Fünf-Tage-Workshop einen umfassenden Überblick über Netzwerktechnologien und -konzepte.
    Sponsored Post von Golem Akademie

  3. Razer Zephyr im Test: Gesichtsmaske mit Stil bringt nicht viel
    Razer Zephyr im Test
    Gesichtsmaske mit Stil bringt nicht viel

    Einmal Cyberpunk mit Beleuchtung bitte: Tragen wir Razers Zephyr in der U-Bahn, fallen wir auf. Allerdings ist das Produkt nicht ausgereift.
    Ein Test von Oliver Nickel

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Last Minute Angebote bei Amazon • Crucial-RAM zu Bestpreisen (u. a. 16GB Kit DDR4-3600 73,99€) • HP 27" FHD 165Hz 199,90€ • Razer Iskur X Gaming-Stuhl 239,99€ • Adventskalender bei MM/Saturn (u. a. Surface Pro 7+ 849€) • Alternate (u. a. Adata 1TB PCIe-4.0-SSD für 129,90€) [Werbung]
    •  /