Original-URL des Artikels: https://www.golem.de/news/ki-ethik-rat-googles-eigene-mitarbeiter-waeren-eine-bessere-wahl-gewesen-1904-140485.html    Veröffentlicht: 05.04.2019 11:18    Kurz-URL: https://glm.io/140485

KI-Ethik-Rat

Googles eigene Mitarbeiter wären eine bessere Wahl gewesen

Googles Ateac-Projekt wurde beendet. Es war von Anfang an zum Scheitern verurteilt: Warum beruft das Unternehmen offensichtlich intolerante Menschen ein? Die heftigen Proteste für Gleichberechtigung innerhalb des eigenen Teams zeigen doch, dass dort die eigentlichen Experten gefunden werden können.

Nach den Protesten gegen einige Mitglieder von Googles KI-Rat Ateac, der sich mit der Ethik und Gleichberechtigung von Machine Learning beschäftigen sollte, hat das Unternehmen laut der Nachrichtenagentur Reuters sein Projekt komplett eingestellt. Und das innerhalb nur einer Woche, nachdem das Team aus Wissenschaftlern, Ökonomen und Psychologen angekündigt wurde. Der Grund: Proteste der eigenen Mitarbeiter gegen zwei Mitglieder - ein offener Brief, den mehr als 2.000 Personen unterschrieben haben.

Die Anschuldigungen gegen die zwei ausgerufenen Experten sind durchaus berechtigt: Google habe mehr die Nähe zu Machtpositionen, als die Nähe zur Gleichbehandlung von Menschen mit unterschiedlicher sexueller Identifikation gesucht - ein Thema, das auch im Bereich Machine Learning beachtet werden sollte. Warum das Unternehmen ausgerechnet eine Person auswählt, die sich öffentlich gegen die lesbische, schwule, bisexuelle, Transgender- und Queer-Bevölkerung geäußert hat, ist daher absolut nicht nachvollziehbar. Das konnte von Anfang an nicht erfolgreich werden.

Google muss nicht weit schauen

Schaut Google auf seine eigene Belegschaft, wird schnell klar: Eine Wissenschaftlerin, die in ihrer Karriere an Militärprojekten gearbeitet hat, ist ebenfalls unerwünscht. Es kommt einem aber so vor, als habe das Unternehmen nicht allzu viel aus früheren Protesten wie gegen das mittlerweile eingestellte Projekt Maven gelernt. Schon damals äußerten sich Tausende Google-Mitarbeiter dagegen.

Googles offene Unternehmenskultur und die nach außen hin erscheinende Diversität von Ethnien, Lebensstilen, sexueller Ausrichtung und Geschlechtern wäre dabei doch eine perfekte Quelle, um daraus einen eigenen Ethik-Rat zu gründen. Dieser sollte sich aus Mitgliedern verschiedener Kulturen und Lebenslagen zusammensetzen. Menschen, die eigene Erfahrungen gesammelt und eventuell selbst Ungerechtigkeit oder Diskriminierung erfahren haben, wären perfekt - und solche Menschen scheint es im eigenen Unternehmen zu geben. Dazu sollten sich Informatiker im Unternehmen gesellen, die sich mit Googles Tensorflow und anderen KI-Systemen auskennen und die ethische Werte bereits im Kopf in kommende Software umsetzen können.

Ethik muss zudem unabhängig vom eigenen wirtschaftlichen Interesse betrachtet werden, weil das zu ungerechten Entscheidungen und damit intoleranten Systemen führen kann. Deshalb sind CEOs, große Anteilshaber und Vorstände nicht unbedingt eine gute Wahl. Dennoch hat Google sich genau dafür entschieden. Dabei ist es verständlich, dass das Unternehmen ausschließlich externe Experten einberufen hat. Googles Ansatz ist wohl, dass externe Berater nicht vorrangig auf die Interessen des eigenen Unternehmens achten und daher weniger leicht beeinflussbar sind.

Wie Projekte bei Amazon, Facebook, Microsoft und IBM, behandeln bisher auch einige KI-Systeme von Google Menschen aufgrund ihrer Ethnie oder ihres Geschlechtes ungleich. Bilderkennungssysteme haben es beispielsweise besonders schwer, kaukasische oder afroamerikanische Frauen auch als solche zu erkennen. Trotzdem werden sie teilweise sogar schon in Behörden eingesetzt - gefährlich!

Ethik für KI ist eine gute Idee

Wenn schon externe Experten gesucht werden, sollte Google Menschen einberufen, die sich bereits aktiv mit dem Thema beschäftigen, die dazu stehen und die ihre Karriere der Gleichbehandlung widmen. Forscherinnen wie Joy Buolamwini wären eine gute Wahl. Sie ist die Person, die mit ihren Untersuchungen bereits viele Vorurteile in KI-Systemen entdeckt hat - und sie ist sicherlich nicht die einzige, die sich damit intensiv beschäftigt.

Wichtig ist, dass alle Gruppen vertreten werden. Das bedeutet beispielsweise, auch heterosexuelle Männer und Frauen einzubeziehen. Ansonsten könnte sich das Bemühen nach Gleichberechtigung schnell wieder in Ungleichbehandlung wandeln. Außerdem sollten Mitglieder des Rates eine Kompensation für ihre Arbeit bekommen, damit sie sich voll und ganz darauf konzentrieren können - und nicht nur viermal im Jahr.

An sich ist die Idee eines Ethik-Rates eine sehr gute. Wir brauchen neutrale Systeme, die Menschen aller Art gleichbehandeln - und Google ist eines der Unternehmen, das mit Open-Source-Frameworks wie Tensorflow ein führender Vertreter ist. Deshalb ist Googles Verantwortung besonders groß.  (on)


Verwandte Artikel:
Ethik: Googles KI-Rat ist schon wieder kurz vor dem Zerfall   
(04.04.2019, https://glm.io/140453 )
AWS DL Containers: AWS bietet vorgefertigte Umgebungen für KI-Entwicklung an   
(28.03.2019, https://glm.io/140318 )
Musikstreaming: Apple Music kommt auf weitere Geräte anderer Hersteller   
(15.03.2019, https://glm.io/140038 )
Smart TV: Google bringt ungewollte Inhalte auf Android TV   
(05.04.2019, https://glm.io/140482 )
Neuronale Netzwerke: Roboter lernt selbstständig das Greifen und Werfen   
(27.03.2019, https://glm.io/140288 )

© 1997–2019 Golem.de, https://www.golem.de/