So gehen Menschen mit Siri um

Die Frau schildert, dass es offenbar viele gelangweilte Hausfrauen gebe, die in ihr Smartphone sprechen, dass sie gerade gestaubsaugt haben oder einkaufen waren. Aber auch Dirty Talk hörten sowohl sie als auch der Mann. Das sei der Frau aber schnell zu viel. "Meist sind es Männer, es ist erstaunlich, wie verbreitet das ist", sagt sie.

Stellenmarkt
  1. IT System Administrator (m/w/d) Netzwerk
    Hirschvogel Holding GmbH, Denklingen
  2. Anwendungsentwickler Risikosteuerung (m/w/d)
    Finanz Informatik GmbH & Co. KG, Hannover
Detailsuche

Kinder alberten gerne mit Siri herum, wüssten nach Beobachtung der Frau aber viel besser als die Erwachsenen, wie man mit dem System zu reden habe. "Die geben ganz klare Befehle wie: 'Siri, zeig mir das Neueste von Fortnite.'" Viele Kinder bezeichneten Siri als ihre beste Freundin.

Manchmal mache es ihr zu schaffen, dass sie einfach nur tatenlos zuhören könne. "Ich kann die Pubertierende nicht trösten, weil ihre beste Freundin sie nicht mehr sehen will. Das weinende Kind nicht, weil es wieder alles falsch gemacht hat. Die Frau nicht, die irgendjemandem vom Tod der Mama berichtet." Auch der Mann schildert, dass er oft weinende Kinder höre.

Die Mitarbeiterin frage sich jedoch, ob nicht irgendjemand anderes durchaus in der Lage sei, die Daten zuordnen und Kapital daraus schlagen zu können. "Könnte man den Typen, der anscheinend Frau und Kind hat und nebenbei eine 'geile Sau' bedient, erpressen?" Sie berichtet von einem Kollegen, der einmal ein Gespräch analysiert habe, bei dem es um einen großen Drogendeal gegangen sein könnte. Das wurde gemeldet, aber es sei nicht bekannt, was daraus geworden ist. "Ich selbst habe noch nichts strafrechtlich Relevantes gehört", meint sie. "Wir haben auch keine Anweisung, wie damit zu verfahren wäre."

Nutzer geben sorglos Daten an Siri weiter

Golem Karrierewelt
  1. Data Engineering mit Python und Spark: virtueller Zwei-Tage-Workshop
    18./19.01.2023, Virtuell
  2. Adobe Photoshop für Social Media Anwendungen: virtueller Zwei-Tage-Workshop
    14./15.12.2022, virtuell
Weitere IT-Trainings

Nach Beobachtung des Mannes gingen manche Nutzer sehr sorglos mit Siri um. Sie vertrauten der Software "auch ganze Kreditkartenangaben, mit Nummern, Ablaufdatum, Sicherheitsnummer und Namen" an. Auch habe er schon ärztliche Diagnosen oder Berichte von Operationen gehört, die von Ärzten diktiert wurden. Anwälte nutzten Siri dazu, ihre Schriftsätze zu verschriftlichen - trotz Anwaltsgeheimnis.

Häufig höre die Frau Liebesbotschaften. Aber auch Hassbotschaften seien dabei - das Konkreteste bisher: "Ich hoffe, du wirst morgen überfahren." Bei einigen der Szenen dürfte sich Siri ungewollt aktiviert haben. Der Mann schildert, dass er immer wieder Sachen höre, die von Siri ungewollt aufgenommen werden. "Siri kann sich durchaus zufällig aktivieren, was nicht so oft passiert, aber doch häufig." Man sage "Hey, der Schiri war gestern krank" oder: "Diese Ringel da aus Teig" und schon aktiviere sich Siri. Das komme vor allem dann vor, wenn die Nutzer mit Akzent oder im Dialekt sprächen.

Dann seien auch mal Wutausbrüche zu hören, bei denen Siri als "dämliche Fotze" bezeichnet werde, schildert die Frau. Der Mann vermutet, dass die Beschimpfungen oft scherzhaft gemeint seien. "Manche würden sich aber auch richtig ärgern."

Mitarbeiter würden Apple-Kunden nicht ausspionieren

Der Mann weist den Vorwurf vehement zurück, er und seine Kollegen hörten Siri-Nutzer ab. Schließlich wisse er nicht, wer was gesagt habe, alles sei "strikt anonym". Er schränkt aber ein: "Alles Menschliche kommt bei Siri an, im Guten wie im Schlechten, sozusagen." Er stehe oft vor dem Problem, überhaupt erkennen zu können, worum es in den Aufnahmen geht. "Die Einträge kommen komplett ohne Kontext und sind meist kurz."

Oft gehe es bei seiner Arbeit auch darum, die korrekten Namen von Liedtiteln, Interpreten oder Webseiten zu ermitteln, die Siri falsch erkannt hat. Dafür würde oft einfach Google bemüht. Er könne auch nicht nachvollziehen, warum darüber jetzt so intensiv berichtet werde. "Das Ganze gibt es seit Langem, man wusste das doch", meint er. Er habe jedenfalls "keine Möglichkeit, die Daten der Personen zu erfahren", deren Sprachaufnahmen er anhöre.

In beiden Berichten wird erwähnt, dass die Mitarbeiter Siri bei einem Verständnisproblem geholfen hätten. Beide hätten den Satz vorliegen gehabt "Und du musst noch den Code eingeben", der von Siri nicht korrekt erkannt wurde. Apples digitaler Assistent hat daraus folgendes gemacht: "Und du muss noch den Kot eingeben." Dieser Fehler sei dann korrigiert worden und seitdem könne Siri das korrekt erkennen.

Mitarbeiter sorgen sich um ihre Arbeitsplätze

Beide Mitarbeiter sorgen sich darum, wie es mit ihrer Arbeit weitergehe, denn Apple habe das Mithören der Siri-Sprachaufnahmen erst einmal gestoppt. "Wir haben bisher noch nichts von unserem Arbeitgeber gehört, ob das an unserem Job etwas ändert oder ob wir ihn sogar verlieren", sagt die Frau. "Momentan sind wir unter Beibehaltung von Vertrag und Gehalt beurlaubt, sollen aber jederzeit zur Verfügung stehen." Auch der Mann spricht von einem bezahlten verlängerten Wochenende.

Künftig sollen Kunden erst um Erlaubnis gefragt werden, wenn ihre Siri-Sprachbefehle von Menschen angehört werden dürfen. Das will Apple mit einem Software-Update umsetzen. Wann dieses Update kommt, ist nicht bekannt.

Auch interessant:

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Sprachsteuerung: Das erleben Mitarbeiter beim Abhören von Siri-Mitschnitten
  1.  
  2. 1
  3. 2


luoc 11. Aug 2019

Audio-ReCaptcha incoming :D

Sharra 10. Aug 2019

Nein, eigentlich nicht. Wer als Anwalt, Pfarrer, Arzt, also alle, die eine berufliche...

sfr (golem.de) 10. Aug 2019

Manchmal steckt einfach der Wurm drin :(. Danke für den Hinweis. Auch der Fehler wurde...

3dgamer 10. Aug 2019

na aber sicher doch. die nsa wäre doch bescheuert das nicht zu tun. irgendein...



Aktuell auf der Startseite von Golem.de
Bundesarbeitsgericht
Arbeitgeber müssen Arbeitszeiten zwingend erfassen

Das vollständige Urteil des BAG zur Arbeitszeiterfassung liegt nun vor. Diese muss zwingend erfolgen, aber nicht unbedingt elektronisch.

Bundesarbeitsgericht: Arbeitgeber müssen Arbeitszeiten zwingend erfassen
Artikel
  1. I am Jesus Christ angespielt: Der Jesus-Simulator lässt uns vom Glauben abfallen
    I am Jesus Christ angespielt
    Der Jesus-Simulator lässt uns vom Glauben abfallen

    Kein Scherz, keine geplante Gotteslästerung: In I am Jesus Christ treten wir als Heiland an. Golem.de hat den kostenlosen Prolog ausprobiert.
    Von Peter Steinlechner

  2. Zusammen mit Keychron: Oneplus entwickelt mechanische Tastatur
    Zusammen mit Keychron
    Oneplus entwickelt mechanische Tastatur

    Zusammen mit Keychron will Oneplus eine mechanische Tastatur auf den Markt bringen. Der Preis dürfte eher niedrig als hoch sein.

  3. ChatGPT: Der geniale Bösewicht-Chatbot mit Stackoverflow-Bann
    ChatGPT
    Der geniale Bösewicht-Chatbot mit Stackoverflow-Bann

    ChatGPT scheint zu gut, um wahr zu sein. Der Chatbot wird von Nutzern an die (legalen) Grenzen getrieben.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • NBB: Samsung Odyssey G5 WQHD/165 Hz 203,89€ u. Odyssey G9 49"/DQHD/240Hz 849,90€ • ViewSonic VX3258 WQHD/144 Hz 229,90€ • Elgato Cam Link Pro 146,89€ • Mindstar: Alphacool Eiswolf 2 AiO 360 199€ • Alternate: Tt eSPORTS Ventus X Plus 31,98€ • 4x Philips Hue White Ambiance 49,99€ [Werbung]
    •  /