Frontier Model Forum: Google und Microsoft wollen Verantwortung für KI übernehmen

Nicht nur im neuen Mission-Impossible-Film geht es um die Gefahren künstlicher Intelligenz , auch in der echten Welt gibt es Bedenken. Microsoft(öffnet im neuen Fenster) , OpenAI(öffnet im neuen Fenster) und Google(öffnet im neuen Fenster) veröffentlichten dazu nun eine gemeinsame Absichtserklärung: Im Frontier Model Forum wollen sich die Konzerne für eine verantwortungsvolle Forschung einsetzen.
Zu den Zielen des Forums gehört die Förderung einer "verantwortungsvollen Entwicklung" von künstlicher Intelligenz, um "Risiken zu minimieren und unabhängige, standardisierte Bewertungen" zu erarbeiten. Außerdem wolle man der Öffentlichkeit die Fähigkeiten, Grenzen und Folgen der Technologie zu erklären. Eruiert werden solle, wie KI "zur Bewältigung der größten gesellschaftlichen Herausforderungen beitragen" könne, beispielsweise dem "Klimawandel, Krebsfrüherkennung sowie Bekämpfung von Cyberbedrohungen."
"Unternehmen, die KI-Technologien entwickeln, tragen die Verantwortung dafür, dass diese sicher sind und unter menschlicher Kontrolle bleiben" , sagte Brad Smith, stellvertretender Vorsitzender von Microsoft. "Diese Initiative ist ein wichtiger Schritt, um den Technologiesektor bei der verantwortungsvollen Weiterentwicklung der KI und der Bewältigung der Herausforderungen zusammenzubringen, damit sie der gesamten Menschheit zugutekommt."
Anthropic-Chef Dario Amodei sagte, er sei "davon überzeugt, dass die KI das Potenzial hat, die Welt grundlegend zu verändern." Deshalb solle das Frontier Model Forum "eine wichtige Rolle bei der Koordinierung von Best Practices und dem Austausch von Forschungsergebnissen zur Sicherheit von KI spielen."
Alle beteiligten Unternehmen bieten bereits öffentlich verfügbare KI-Produkte an. Google veröffentlichte im Sommer seinen eigenen KI-Assistenten Bard , während Microsoft für seinen Chatbot Bing mit OpenAI zusammenarbeitet. Zu den weniger bekannten Mitgliedern des Forums gehört außerdem das von ehemaligen OpenAI-Mitarbeitern gegründete und von Google mitfinanzierte Anthropic, das den eigenen Chatbot Claude 2 betreibt .
Das Forum will auch "mit politischen Entscheidungsträgern, Wissenschaftlern, der Zivilgesellschaft" in den Austausch treten. Die US-Aufsichtsbehörde FTC untersucht momentan, ob OpenAIs Chatbot gegen Gesetze verstoßen haben könnte . Auch in der EU wird an Regelungen zur künstlichen Intelligenz gearbeitet (g+).



