KI-Bot: Google soll ethische Grundsätze bei Bard aufgeben
Eine Reihe von aktuellen und ehemaligen Mitarbeitern werfen Google vor, die Kommerzialisierung des Chatbots Bard ethischen Grundsätzen vorzuziehen.

Der Druck durch die Konkurrenz von Microsoft soll bei Google dazu geführt haben, dass bei der Entwicklung des eigenen Chatbots Bard ethische Grundsätze ignoriert werden. Das beklagen 18 aktuelle und ehemalige Google-Mitarbeiter in einem Bloomberg-Bericht. Bloomberg hatte zudem Einsicht in interne Dokumente, die die Priorisierung auf einen schnellen Markteintritt zeigen sollen.
Nachdem die Konkurrenz von Microsoft den Bing-Chatbot auf den Markt gebracht hatte, soll die interne Ethikabteilung bei Google immer stärker übergangen worden sein. Das Team hat eigentlich die Aufgabe, neue Entwicklungen im KI-Bereich auf Ethikprobleme zu überprüfen und gegebenenfalls eine Veröffentlichung zu verzögern.
Bei bestimmten Themen, etwa die Sicherheit von Kindern, müssen Entwickler immer noch eine Freigabe von 100 Prozent der Mitglieder des Ethikteams erreichen. In anderen Bereichen soll die Freigabegrenze auf 80 bis 85 Prozent aufgeweicht worden sein, um einer Veröffentlichung nicht im Wege zu stehen.
Einschätzungen der Ethikabteilung sollen ignoriert werden
Die Mitarbeiter der Ethikabteilung beklagen, dass ihre Meinungen und Vorgaben im Bereich der KI-Entwicklung keine Rolle mehr spielten. Stattdessen sei die Veröffentlichung um jeden Preis von KI-Produkten wie Bard wichtiger.
Google wurde von der Veröffentlichung des Microsoft-Chatbots überrascht. Das Unternehmen forcierte in der Folge die Entwicklung des eigenen Chatbots. Mitarbeiter hatten vor der Veröffentlichung der ersten Testversion gewarnt, dass Bard pathologisch lüge und kein gutes Produkt sei. Google stellte den Bot dennoch vor und kennzeichnete ihn als Experiment.
Die KI-Chatbot-Situation soll bei Google Ende 2022 zu Panik geführt haben. Intern wurde ein Code Red ausgegeben und die Entwicklung von Bard priorisiert.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Ich sags mal so: Ja, GPT-4 ist erstaunlich, besonders, wenn man sich vor Augen führt...
So weit würde ich nicht gehen, aber zwischen 'nicht vertrauenswürdig' und Microsoft...
Der Titel ist missverständlich formuliert. Was mit dem Titel gemeint ist, wird einem...
Kommentieren