Original-URL des Artikels: https://www.golem.de/news/kuenstliche-intelligenz-facebook-spendiert-millionen-fuer-institut-in-muenchen-1901-138856.html    Veröffentlicht: 21.01.2019 11:14    Kurz-URL: https://glm.io/138856

Künstliche Intelligenz

Facebook spendiert Millionen für Institut in München

Für Facebook sind Algorithmen und künstliche Intelligenz die Standardlösung für viele Probleme. Nun soll ein Institut an der TU München ethische Fragestellungen dazu erforschen.

Das US-Unternehmen Facebook will die Erforschung ethischer Fragestellungen beim Thema künstliche Intelligenz (KI) an der Technischen Universität (TU) München unterstützen. In den kommenden fünf Jahren sollen 6,5 Millionen Euro in das neue "Institute for Ethics in Artificial Intelligence" fließen, teilten die TU München und Facebook mit.

Für Facebook spielt KI eine wichtige Rolle bei dem Versuch, Hassrede auf seinen Seiten zu bekämpfen. In einer Anhörung vor dem US-Kongress im vergangenen Jahr verwies Facebook-Chef Mark Zuckerberg immer wieder auf die Möglichkeiten von KI, die von den Nutzern geteilten Inhalte auf Verstöße zu überprüfen.

Nach Darstellung der TU eröffnet die KI "technischen Systemen durch digitale Vernetzung neue Funktions- und Anwendungshorizonte". Die Universität habe ein umfangreiches Ausbauprogramm für die Geistes- und Sozialwissenschaften gestartet, "um die kulturelle und gesellschaftliche Rückverankerung dieser teils sprunghaft fortschreitenden Entwicklungen sicherzustellen". Der Vizepräsident der TU, Prof. Thomas Hofmann, sagte: "Gesellschaftsrelevante Innovationskreisläufe sind ohne die ethische, rechtliche und politische Gesamtbetrachtung nicht möglich."

Facebook entwickelt Fairness Flow

"Bei Facebook ist der verantwortungsvolle und umsichtige Umgang mit der KI für alles, was wir tun, von grundlegender Bedeutung. Die KI wirft jedoch komplexe Probleme auf, die Menschen und Gesellschaft betreffen und die die Industrie allein nicht beantworten kann", sagt Joaquin Quiñonero Candela, Director of AI bei Facebook. Das Unternehmen entwickele dazu Werkzeuge wie den "Fairness Flow", um beurteilen zu können, ob in bestimmten Modellen unbeabsichtigte Verzerrungen aufträten. Dazu arbeite Facebook auch mit anderen Organisationen zusammen, wie der Partnership for AI oder der Initiative AI4People.

Der TU München zufolge wird das neue Institut von Facebook ohne weitere Vorgaben unterstützt. Projektkoordinator sei Prof. Christoph Lütge vom Lehrstuhl für Wirtschaftsethik.  (fg)


Verwandte Artikel:
Forschung: Algorithmus erweckt Facebook-Profilbilder zum Leben   
(10.10.2017, https://glm.io/130527 )
Neurowissenschaft: Facebook erforscht Gedanken-Postings   
(20.04.2017, https://glm.io/127394 )
Europäische Netzpolitik: Schlimmer geht's immer   
(18.01.2019, https://glm.io/138815 )
DSGVO: Soziale Medien erschweren Nutzern die Datenauskunft   
(16.01.2019, https://glm.io/138769 )
Facebook-Anhörung: Wie Facebook seine Kritiker bekämpfte   
(15.11.2018, https://glm.io/137751 )

© 1997–2019 Golem.de, https://www.golem.de/