Zum Hauptinhalt Zur Navigation

Geheimnisverrat: Amazon warnt Mitarbeiter vor ChatGPT

Amazon hat seine Mitarbeiter davor gewarnt, vertrauliche Informationen mit dem Chatbot ChatGPT einzugeben, weil dadurch das Modell trainiert werden könne.
/ Andreas Donath
16 Kommentare News folgen (öffnet im neuen Fenster)
Amazon Hauptquartier in Seattle (Bild: Amazon)
Amazon Hauptquartier in Seattle Bild: Amazon

Einige Amazon Mitarbeiter hatten in einem internen Slack-Kanal Fragen zur Verwendung des Tools ChatGPT gestellt, was offenbar die Anwälte von Amazon aufhorchen ließ, berichtet Business Insider(öffnet im neuen Fenster) . Sie äußerten Bedenken, dass ChatGPT aufgrund seiner Fähigkeit, aus vorhandenem Material zu lernen, vertrauliche Unternehmensinformationen preisgeben könne.

Amazon hat dem Bericht nach interne Sicherheitsvorkehrungen für ChatGPT getroffen, um die Verwendung des Tools zu kontrollieren. Wenn Mitarbeiter die ChatGPT-Website aufzurufen, erscheint eine Warnmeldung, die besagt, dass sie im Begriff sind, einen Drittanbieterservice zu besuchen, der möglicherweise nicht für die Verwendung durch die Amazon-Sicherheit zugelassen sei. Gesperrt ist ChatGPT jedoch nicht.

Interne Maßnahmen von Amazon zur Kontrolle der ChatGPT-Nutzung

"OpenAI ist weit davon entfernt, transparent zu machen, wie sie die Daten verwenden, aber wenn sie in die Trainingsdaten einfließen, würde ich erwarten, dass sich die Unternehmen fragen: Wird es nach einigen Monaten der weit verbreiteten Nutzung von ChatGPT möglich sein, mit geschickt formulierten Anfragen interne Unternehmensinformationen zu extrahieren?" , fragte sich Emily Bender, die Computerlinguistik an der University of Washington lehrt, im Gespräch mit Business Insider.

Amazon hat auch interne Richtlinien für die Verwendung von ChatGPT entwickelt. Eine Amazon-Anwältin empfahl den Mitarbeitern, die bestehenden Interessenkonflikt- und Vertraulichkeitsrichtlinien des Unternehmens zu befolgen, da ihre Eingaben als Trainingsdaten für eine weitere Iteration von ChatGPT verwendet werden könnten.


Relevante Themen