Original-URL des Artikels: https://www.golem.de/news/speech-to-text-amazon-transcribe-entfernt-persoenliche-informationen-2002-146931.html    Veröffentlicht: 28.02.2020 16:11    Kurz-URL: https://glm.io/146931

Speech-to-Text

Amazon Transcribe entfernt persönliche Informationen

Das Speech-to-Text-Angebot Transcribe von Amazon soll künftig auch automatisiert persönliche Informationen entfernen können. Dazu gehören Namen, Kontaktdaten oder auch Bankinformationen. Kunden sollten wohl aber nicht all zu großes Vertrauen in den Dienst setzen.

Der IT-Anbieter Amazon bietet in seiner AWS-Cloud eine Vielzahl verschiedener Techniken zur automatisierten Spracherkennung und Sprachverarbeitung an. Dazu gehört auch die Speech-to-Text-Engine Transcribe, die Sprachaufnahmen in Text zur weiteren Verarbeitung überführt. Wie das Unternehmen in seinem AWS-Blog ankündigt, soll Transcribe künftig persönliche Daten automatisch aus den erstellten Texten entfernen können.

Laut der Mitteilung ist der Dienst Transcribe besonders in Callcentern beliebt, um Kundenanrufe einfacher verarbeiten zu können. Das Angebot werde etwa für eine weitergehende statistische Analyse oder für direkte Aufgaben der Sprachverarbeitung wie eine Sentimentanalyse verwendet, heißt es in der Ankündigung.

Persönliche Daten werden entfernt

Mit einem Verweis auf die Privatsphäre der Aufgezeichneten sowie auch auf lokale Gesetzgebungen führt Amazon also die Möglichkeit ein, Informationen, die zur persönlichen Identifizierung führen können, aus dem transkribierten Text zu entfernen. Dazu gehören sollen etwa die Sozialversicherungsnummer, Kreditkarten- und Kontodaten, PINs oder auch Telefonnummern. Hinzu kommen Daten wie Namen und E-Mail-Adressen.

Bereitgestellt wird der Dienst zunächst nur für US-Englisch, weitere Sprachen dürften folgen. Amazon hat in seinem Blog darüber hinaus ein recht simples Beispiel veröffentlicht, das das Entfernen der Daten demonstrieren soll. Verschiedene Machine-Learning-Systeme sind der Vergangenheit jedoch dadurch aufgefallen, dass diese bestehende Vorurteile reproduzieren oder gar verstärken. Dazu gehören etwa ein sexistisches Bewerbungswerkzeug oder auch Bilderkennung, die nur bei weißen Männern gut funktioniert.

Mit Blick auf diese Negativbeispiele könnte es durchaus sein, dass das von Amazon vorgestellte Werkzeug zum Beispiel Probleme damit haben könnte, Namen tatsächlich als solche zu erkennen. Darüber hinaus schließt der Dienst schon von vornherein internationale Telefonnummern aus, die offenbar nicht automatisch erkannt werden können.

 (sg)


Verwandte Artikel:
Eero: Amazons Mesh-Router unterstützen Apple Homekit   
(27.02.2020, https://glm.io/146890 )
Alphabet: Google strukturiert Cloud-Business um   
(18.02.2020, https://glm.io/146704 )
Mozilla: Deep Speech wird klein und schnell   
(06.12.2019, https://glm.io/145392 )
Coronavirus: Amazon geht gegen überteuerte Mundschutzmasken vor   
(26.02.2020, https://glm.io/146866 )
Bundesgerichtshof: Händler haftet nicht für Kundenbewertungen auf Amazon   
(20.02.2020, https://glm.io/146752 )

© 1997–2020 Golem.de, https://www.golem.de/