So gehen Menschen mit Siri um
Die Frau schildert, dass es offenbar viele gelangweilte Hausfrauen gebe, die in ihr Smartphone sprechen, dass sie gerade gestaubsaugt haben oder einkaufen waren. Aber auch Dirty Talk hörten sowohl sie als auch der Mann. Das sei der Frau aber schnell zu viel. "Meist sind es Männer, es ist erstaunlich, wie verbreitet das ist", sagt sie.
Kinder alberten gerne mit Siri herum, wüssten nach Beobachtung der Frau aber viel besser als die Erwachsenen, wie man mit dem System zu reden habe. "Die geben ganz klare Befehle wie: 'Siri, zeig mir das Neueste von Fortnite.'" Viele Kinder bezeichneten Siri als ihre beste Freundin.
Manchmal mache es ihr zu schaffen, dass sie einfach nur tatenlos zuhören könne. "Ich kann die Pubertierende nicht trösten, weil ihre beste Freundin sie nicht mehr sehen will. Das weinende Kind nicht, weil es wieder alles falsch gemacht hat. Die Frau nicht, die irgendjemandem vom Tod der Mama berichtet." Auch der Mann schildert, dass er oft weinende Kinder höre.
Die Mitarbeiterin frage sich jedoch, ob nicht irgendjemand anderes durchaus in der Lage sei, die Daten zuordnen und Kapital daraus schlagen zu können. "Könnte man den Typen, der anscheinend Frau und Kind hat und nebenbei eine 'geile Sau' bedient, erpressen?" Sie berichtet von einem Kollegen, der einmal ein Gespräch analysiert habe, bei dem es um einen großen Drogendeal gegangen sein könnte. Das wurde gemeldet, aber es sei nicht bekannt, was daraus geworden ist. "Ich selbst habe noch nichts strafrechtlich Relevantes gehört", meint sie. "Wir haben auch keine Anweisung, wie damit zu verfahren wäre."
Nutzer geben sorglos Daten an Siri weiter
Nach Beobachtung des Mannes gingen manche Nutzer sehr sorglos mit Siri um. Sie vertrauten der Software "auch ganze Kreditkartenangaben, mit Nummern, Ablaufdatum, Sicherheitsnummer und Namen" an. Auch habe er schon ärztliche Diagnosen oder Berichte von Operationen gehört, die von Ärzten diktiert wurden. Anwälte nutzten Siri dazu, ihre Schriftsätze zu verschriftlichen - trotz Anwaltsgeheimnis.
Häufig höre die Frau Liebesbotschaften. Aber auch Hassbotschaften seien dabei - das Konkreteste bisher: "Ich hoffe, du wirst morgen überfahren." Bei einigen der Szenen dürfte sich Siri ungewollt aktiviert haben. Der Mann schildert, dass er immer wieder Sachen höre, die von Siri ungewollt aufgenommen werden. "Siri kann sich durchaus zufällig aktivieren, was nicht so oft passiert, aber doch häufig." Man sage "Hey, der Schiri war gestern krank" oder: "Diese Ringel da aus Teig" und schon aktiviere sich Siri. Das komme vor allem dann vor, wenn die Nutzer mit Akzent oder im Dialekt sprächen.
Dann seien auch mal Wutausbrüche zu hören, bei denen Siri als "dämliche Fotze" bezeichnet werde, schildert die Frau. Der Mann vermutet, dass die Beschimpfungen oft scherzhaft gemeint seien. "Manche würden sich aber auch richtig ärgern."
Mitarbeiter würden Apple-Kunden nicht ausspionieren
Der Mann weist den Vorwurf vehement zurück, er und seine Kollegen hörten Siri-Nutzer ab. Schließlich wisse er nicht, wer was gesagt habe, alles sei "strikt anonym". Er schränkt aber ein: "Alles Menschliche kommt bei Siri an, im Guten wie im Schlechten, sozusagen." Er stehe oft vor dem Problem, überhaupt erkennen zu können, worum es in den Aufnahmen geht. "Die Einträge kommen komplett ohne Kontext und sind meist kurz."
Oft gehe es bei seiner Arbeit auch darum, die korrekten Namen von Liedtiteln, Interpreten oder Webseiten zu ermitteln, die Siri falsch erkannt hat. Dafür würde oft einfach Google bemüht. Er könne auch nicht nachvollziehen, warum darüber jetzt so intensiv berichtet werde. "Das Ganze gibt es seit Langem, man wusste das doch", meint er. Er habe jedenfalls "keine Möglichkeit, die Daten der Personen zu erfahren", deren Sprachaufnahmen er anhöre.
In beiden Berichten wird erwähnt, dass die Mitarbeiter Siri bei einem Verständnisproblem geholfen hätten. Beide hätten den Satz vorliegen gehabt "Und du musst noch den Code eingeben", der von Siri nicht korrekt erkannt wurde. Apples digitaler Assistent hat daraus folgendes gemacht: "Und du muss noch den Kot eingeben." Dieser Fehler sei dann korrigiert worden und seitdem könne Siri das korrekt erkennen.
Mitarbeiter sorgen sich um ihre Arbeitsplätze
Beide Mitarbeiter sorgen sich darum, wie es mit ihrer Arbeit weitergehe, denn Apple habe das Mithören der Siri-Sprachaufnahmen erst einmal gestoppt. "Wir haben bisher noch nichts von unserem Arbeitgeber gehört, ob das an unserem Job etwas ändert oder ob wir ihn sogar verlieren", sagt die Frau. "Momentan sind wir unter Beibehaltung von Vertrag und Gehalt beurlaubt, sollen aber jederzeit zur Verfügung stehen." Auch der Mann spricht von einem bezahlten verlängerten Wochenende.
Künftig sollen Kunden erst um Erlaubnis gefragt werden, wenn ihre Siri-Sprachbefehle von Menschen angehört werden dürfen. Das will Apple mit einem Software-Update umsetzen. Wann dieses Update kommt, ist nicht bekannt.
Auch interessant:
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Sprachsteuerung: Das erleben Mitarbeiter beim Abhören von Siri-Mitschnitten |
- 1
- 2
Audio-ReCaptcha incoming :D
Nein, eigentlich nicht. Wer als Anwalt, Pfarrer, Arzt, also alle, die eine berufliche...
Manchmal steckt einfach der Wurm drin :(. Danke für den Hinweis. Auch der Fehler wurde...
na aber sicher doch. die nsa wäre doch bescheuert das nicht zu tun. irgendein...
Das Problem ist eben die eigene Stimme, die kann durchaus identifiziert werden, diese...