Abo
  • Services:

KI-Ethik-Rat: Googles eigene Mitarbeiter wären eine bessere Wahl gewesen

Googles Ateac-Projekt wurde beendet. Es war von Anfang an zum Scheitern verurteilt: Warum beruft das Unternehmen offensichtlich intolerante Menschen ein? Die heftigen Proteste für Gleichberechtigung innerhalb des eigenen Teams zeigen doch, dass dort die eigentlichen Experten gefunden werden können.

Ein IMHO von veröffentlicht am
Diversität muss beachtet werden, auch bei Algorithmen.
Diversität muss beachtet werden, auch bei Algorithmen. (Bild: Pixabay.com/CC0 1.0)

Nach den Protesten gegen einige Mitglieder von Googles KI-Rat Ateac, der sich mit der Ethik und Gleichberechtigung von Machine Learning beschäftigen sollte, hat das Unternehmen laut der Nachrichtenagentur Reuters sein Projekt komplett eingestellt. Und das innerhalb nur einer Woche, nachdem das Team aus Wissenschaftlern, Ökonomen und Psychologen angekündigt wurde. Der Grund: Proteste der eigenen Mitarbeiter gegen zwei Mitglieder - ein offener Brief, den mehr als 2.000 Personen unterschrieben haben.

Stellenmarkt
  1. Zentralinstitut für die kassenärztliche Versorgung, Berlin
  2. DLR Deutsches Zentrum für Luft- und Raumfahrt e.V., Berlin

Die Anschuldigungen gegen die zwei ausgerufenen Experten sind durchaus berechtigt: Google habe mehr die Nähe zu Machtpositionen, als die Nähe zur Gleichbehandlung von Menschen mit unterschiedlicher sexueller Identifikation gesucht - ein Thema, das auch im Bereich Machine Learning beachtet werden sollte. Warum das Unternehmen ausgerechnet eine Person auswählt, die sich öffentlich gegen die lesbische, schwule, bisexuelle, Transgender- und Queer-Bevölkerung geäußert hat, ist daher absolut nicht nachvollziehbar. Das konnte von Anfang an nicht erfolgreich werden.

Google muss nicht weit schauen

Schaut Google auf seine eigene Belegschaft, wird schnell klar: Eine Wissenschaftlerin, die in ihrer Karriere an Militärprojekten gearbeitet hat, ist ebenfalls unerwünscht. Es kommt einem aber so vor, als habe das Unternehmen nicht allzu viel aus früheren Protesten wie gegen das mittlerweile eingestellte Projekt Maven gelernt. Schon damals äußerten sich Tausende Google-Mitarbeiter dagegen.

Googles offene Unternehmenskultur und die nach außen hin erscheinende Diversität von Ethnien, Lebensstilen, sexueller Ausrichtung und Geschlechtern wäre dabei doch eine perfekte Quelle, um daraus einen eigenen Ethik-Rat zu gründen. Dieser sollte sich aus Mitgliedern verschiedener Kulturen und Lebenslagen zusammensetzen. Menschen, die eigene Erfahrungen gesammelt und eventuell selbst Ungerechtigkeit oder Diskriminierung erfahren haben, wären perfekt - und solche Menschen scheint es im eigenen Unternehmen zu geben. Dazu sollten sich Informatiker im Unternehmen gesellen, die sich mit Googles Tensorflow und anderen KI-Systemen auskennen und die ethische Werte bereits im Kopf in kommende Software umsetzen können.

Ethik muss zudem unabhängig vom eigenen wirtschaftlichen Interesse betrachtet werden, weil das zu ungerechten Entscheidungen und damit intoleranten Systemen führen kann. Deshalb sind CEOs, große Anteilshaber und Vorstände nicht unbedingt eine gute Wahl. Dennoch hat Google sich genau dafür entschieden. Dabei ist es verständlich, dass das Unternehmen ausschließlich externe Experten einberufen hat. Googles Ansatz ist wohl, dass externe Berater nicht vorrangig auf die Interessen des eigenen Unternehmens achten und daher weniger leicht beeinflussbar sind.

Wie Projekte bei Amazon, Facebook, Microsoft und IBM, behandeln bisher auch einige KI-Systeme von Google Menschen aufgrund ihrer Ethnie oder ihres Geschlechtes ungleich. Bilderkennungssysteme haben es beispielsweise besonders schwer, kaukasische oder afroamerikanische Frauen auch als solche zu erkennen. Trotzdem werden sie teilweise sogar schon in Behörden eingesetzt - gefährlich!

Ethik für KI ist eine gute Idee

Wenn schon externe Experten gesucht werden, sollte Google Menschen einberufen, die sich bereits aktiv mit dem Thema beschäftigen, die dazu stehen und die ihre Karriere der Gleichbehandlung widmen. Forscherinnen wie Joy Buolamwini wären eine gute Wahl. Sie ist die Person, die mit ihren Untersuchungen bereits viele Vorurteile in KI-Systemen entdeckt hat - und sie ist sicherlich nicht die einzige, die sich damit intensiv beschäftigt.

Wichtig ist, dass alle Gruppen vertreten werden. Das bedeutet beispielsweise, auch heterosexuelle Männer und Frauen einzubeziehen. Ansonsten könnte sich das Bemühen nach Gleichberechtigung schnell wieder in Ungleichbehandlung wandeln. Außerdem sollten Mitglieder des Rates eine Kompensation für ihre Arbeit bekommen, damit sie sich voll und ganz darauf konzentrieren können - und nicht nur viermal im Jahr.

An sich ist die Idee eines Ethik-Rates eine sehr gute. Wir brauchen neutrale Systeme, die Menschen aller Art gleichbehandeln - und Google ist eines der Unternehmen, das mit Open-Source-Frameworks wie Tensorflow ein führender Vertreter ist. Deshalb ist Googles Verantwortung besonders groß.



Anzeige
Hardware-Angebote
  1. 58,99€
  2. 99,90€
  3. 399€ (Wert der Spiele rund 212€)

plutoniumsulfat 06. Apr 2019 / Themenstart

Je nachdem, was er später machen soll. Da könnte man ja auch eine Ethikkommission mit...

JensBröcher 05. Apr 2019 / Themenstart

Jedes Projekt und Unternehmen was damit infiziert ist geht früher oder später unter oder...

Janquar 05. Apr 2019 / Themenstart

Da können wir auch gleich noch hinterschieben was das eigentlich für ein "Framing" ist...

redmord 05. Apr 2019 / Themenstart

Die letzten Jahre haben doch auch gezeigt, dass die Couleur der im Artikel empfohlenen...

torrbox 05. Apr 2019 / Themenstart

BWL 1. Semester: Ein Unternehmen kann nur dann seiner CSR nachkommen, wenn es finanziell...

Kommentieren


Folgen Sie uns
       


Workers Resources Soviet Republic - Test

Wem Aufbaustrategiespiele wie Anno oder Sim City zu einfach sind, sollte Workers & Resources: Soviet Republic ausprobieren. Das Spiel ist Wirtschaftssimulation und Verkehrsmanager in einem.

Workers Resources Soviet Republic - Test Video aufrufen
Orientierungshilfe: Wie Webseiten Nutzer tracken dürfen - und wie nicht
Orientierungshilfe
Wie Webseiten Nutzer tracken dürfen - und wie nicht

Für viele Anbieter dürfte es schwierig werden, ihre Nutzer wie bisher zu tracken. In monatelangen Beratungen haben die deutschen Datenschützer eine 25-seitige Orientierungshilfe zum DSGVO-konformen Tracking ausgearbeitet.
Ein Bericht von Christiane Schulzki-Haddouti

  1. Cookie-Banner Deutsche Datenschützer spielen bei Nutzertracking auf Zeit
  2. Fossa EU erweitert Bug-Bounty-Programm für Open-Source-Software
  3. EU-Zertifizierung Neues Gesetz soll das Internet sicherer machen

Falcon Heavy: Beim zweiten Mal wird alles besser
Falcon Heavy
Beim zweiten Mal wird alles besser

Die größte Rakete der Welt fliegt wieder. Diesmal mit voller Leistung, einem Satelliten und einer gelungenen Landung im Meer. Die Marktbedingungen sind für die Schwerlastrakete Falcon Heavy in nächster Zeit allerdings eher schlecht.
Von Frank Wunderlich-Pfeiffer und dpa

  1. SpaceX Raketenstufe nach erfolgreicher Landung umgekippt
  2. Raumfahrt SpaceX zündet erstmals das Triebwerk des Starhoppers
  3. Raumfahrt SpaceX - Die Rückkehr des Drachen

Echo Wall Clock im Test: Ach du liebe Zeit, Amazon!
Echo Wall Clock im Test
Ach du liebe Zeit, Amazon!

Die Echo Wall Clock hat fast keine Funktionen und die funktionieren auch noch schlecht: Amazons Wanduhr ist schon vielen US-Nutzern auf den Zeiger gegangen - im Test auch uns.
Ein Test von Ingo Pakalski

  1. Amazon Echo Link und Echo Link Amp kommen mit Beschränkungen
  2. Echo Wall Clock Amazon verkauft die Alexa-Wanduhr wieder
  3. Echo Wall Clock Amazon stoppt Verkauf der Alexa-Wanduhr wegen Technikfehler

    •  /