Zum Hauptinhalt Zur Navigation

KI-Bot: Google soll ethische Grundsätze bei Bard aufgeben

Eine Reihe von aktuellen und ehemaligen Mitarbeitern werfen Google vor, die Kommerzialisierung des Chatbots Bard ethischen Grundsätzen vorzuziehen.
/ Tobias Költzsch
14 Kommentare News folgen (öffnet im neuen Fenster)
Google-Mitarbeiter beschweren sich über die Entwicklung von Bard. (Bild: Tobias Költzsch/Golem.de)
Google-Mitarbeiter beschweren sich über die Entwicklung von Bard. Bild: Tobias Költzsch/Golem.de

Der Druck durch die Konkurrenz von Microsoft soll bei Google dazu geführt haben, dass bei der Entwicklung des eigenen Chatbots Bard ethische Grundsätze ignoriert werden. Das beklagen 18 aktuelle und ehemalige Google-Mitarbeiter in einem Bloomberg-Bericht(öffnet im neuen Fenster) . Bloomberg hatte zudem Einsicht in interne Dokumente, die die Priorisierung auf einen schnellen Markteintritt zeigen sollen.

Nachdem die Konkurrenz von Microsoft den Bing-Chatbot auf den Markt gebracht hatte, soll die interne Ethikabteilung bei Google immer stärker übergangen worden sein. Das Team hat eigentlich die Aufgabe, neue Entwicklungen im KI-Bereich auf Ethikprobleme zu überprüfen und gegebenenfalls eine Veröffentlichung zu verzögern.

Bei bestimmten Themen, etwa die Sicherheit von Kindern, müssen Entwickler immer noch eine Freigabe von 100 Prozent der Mitglieder des Ethikteams erreichen. In anderen Bereichen soll die Freigabegrenze auf 80 bis 85 Prozent aufgeweicht worden sein, um einer Veröffentlichung nicht im Wege zu stehen.

Einschätzungen der Ethikabteilung sollen ignoriert werden

Die Mitarbeiter der Ethikabteilung beklagen, dass ihre Meinungen und Vorgaben im Bereich der KI-Entwicklung keine Rolle mehr spielten. Stattdessen sei die Veröffentlichung um jeden Preis von KI-Produkten wie Bard wichtiger.

Google wurde von der Veröffentlichung des Microsoft-Chatbots überrascht. Das Unternehmen forcierte in der Folge die Entwicklung des eigenen Chatbots. Mitarbeiter hatten vor der Veröffentlichung der ersten Testversion gewarnt, dass Bard pathologisch lüge und kein gutes Produkt sei. Google stellte den Bot dennoch vor und kennzeichnete ihn als Experiment.

Die KI-Chatbot-Situation soll bei Google Ende 2022 zu Panik geführt haben. Intern wurde ein Code Red ausgegeben und die Entwicklung von Bard priorisiert.


Relevante Themen