Künstliche Intelligenz: Google warnt eigene Mitarbeiter vor der Nutzung von Chatbots

Auf seiner eigenen Messe I/O betonte Alphabet noch seinen verantwortungsvollen Umgang mit KI . Auch intern mahnt das Unternehmen seine Angestellten nun zu einer verantwortungsvollen Nutzung: Beschäftigte sollen keine vertraulichen Informationen in Chatbots wie ChatGPT oder Googles eigenes Bard eingeben. Das berichtet Reuters(öffnet im neuen Fenster) unter Berufung auf Google-Angestellte.
Außerdem warnte Alphabet davor, von KI-Tools generierten Code direkt zu verwenden. Auf Nachfrage der Nachrichtenagentur Reuters erklärte das Unternehmen, man wolle die Begrenzungen seiner Technologie transparent machen. Auch wenn Bard unerwünschte Code-Vorschläge mache, helfe es Entwicklern dennoch. Googles eigener Chatbot verfügt seit April 2023 über die Funktion, Code in mehr als 20 Programmiersprachen zu erzeugen .
Alphabet ist mit diesen Einschränkungen nicht allein. Laut einem Bericht des Wall Street Journal untersagte auch Apple intern die Nutzung von ChatGPT . Dabei gehe es vor allem um die Sorge vor einer versehentlichen Weitergabe von Geschäftsgeheimnissen.
Genau das war bei Samsung Anfang 2023 bereits passiert . Angestellte in einer Samsung-Fab hatten Quellcode in ChatGPT eingegeben, um Fehler finden zu lassen. Die Eingabe wurde in den Trainingsdatensatz des Sprachmodells übernommen und geleakt. Daraufhin untersagte Samsung seinen Beschäftigten die Nutzung von KI-Tools .
Ob diese Verbote die Verbreitung von Chatbots in Unternehmen einschränken können, bleibt offen. Laut einer neuen Umfrage von Github nutzen bereits 92 Prozent der Entwickler Werkzeuge wie Github Copilot .
Ersetzt die KI den Programmierer? Diese Fragen thematisieren wir immer wieder auch im Golem.de-Newsletter für IT-Entscheider: Chefs von Devs stellt alle zwei Wochen CTOs und ihre Lösungen für ihre Probleme vor - und kann hier kostenlos abonniert werden .



