Abo
  • Services:
Anzeige
Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände.
Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände. (Bild: Golem.de)

Diskriminierung: Wenn Algorithmen Vorurteile haben

Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände.
Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände. (Bild: Golem.de)

Auch Technologie kann rassistisch oder sexistisch sein. In einer zunehmend digitalisierten Welt wird das zum Problem.

Wer uns auf Facebook als Freund vorgeschlagen wird und wann unsere selbstfahrenden Autos künftig bremsen werden - das bestimmen Algorithmen. Algorithmen sind eine Folge von Anweisungen, die ein Problem lösen können, wenn sie korrekt ausgeführt werden. Sie sollen systematisch sein, logisch, und auch beim tausendsten Mal noch zum selben Ergebnis führen.

Anzeige

Doch jeder Algorithmus wird von Menschen programmiert, die Teil bestimmter Gesellschaftsschichten sind und ihre - meist unbewussten - Neigungen und Vorurteile in ihre Arbeit einfließen lassen. Und je stärker die Welt von Technik getrieben wird, desto stärker zeigt sich, dass das ein Problem ist.

"Wir gehen davon aus, dass Technik neutral ist", sagt Corinna Bath. Sie ist Informatikerin und forscht zu Technikentwicklung und Gender an der TU Braunschweig. "Aber es gibt keine neutralen Algorithmen." Bath zufolge ist Technik immer auch von sozialen Umständen beeinflusst. Doch die wenigsten machen sich das bewusst.

Dabei können Algorithmen durchaus gefährlich sein, wenn sie so programmiert sind, dass sie rassistische oder sexistische Entscheidungen treffen. Dies muss nicht absichtlich geschehen: Meist sind sich die Programmierer nicht bewusst, dass ihre Vorurteile sich auf den Code auswirken.

Bei der Google-Suche nach dem Begriff CEO findet die Suchmaschine etwa überproportional viele Bilder von weißen Männern. In der Realität sind etwa 27 Prozent aller CEOs in den USA weiblich. Laut einer Untersuchung der University of Washington tauchen bei der Bildersuche allerdings nur in elf Prozent aller Fälle Bilder von Frauen auf - einer der ersten Treffer ist übrigens die Barbie-CEO-Puppe.

Frauen sollten nicht studieren - und Frauen sind keine Chefs

"Die technische Entwicklung geht immer weiter und wenn wir nicht bald anfangen, Algorithmen auf ihre ethische Tauglichkeit zu untersuchen, könnte das ein großes Drama werden", sagt Bath. Sie beobachtet zum Beispiel, dass in der Technikentwicklung oft antiquierte Geschlechterrollen reproduziert werden - dass Algorithmen also sexistischer sind als unsere heutige Gesellschaft. Und auch die Menschen, die Algorithmen nutzen, hinterfragen diese in der Regel nicht, sondern nehmen die gelieferten Ergebnisse als wahr und richtig hin.

Gibt man bei der Google Suche 'Frauen sollten' ein, wird die Anfrage automatisch vervollständigt zu Formulierungen wie "Frauen sollten nicht studieren", "Frauen sollten keine Hosen tragen", "Frauen sollten keine Rechte haben". Google zufolge werden Vorhersagen in der Autovervollständigung automatisch von einem Algorithmus generiert, ohne jegliches menschliches Zutun.

  • Diskriminierung per Google-Suche? (Screenshot: Golem.de)
  • Diskriminierung per Google-Suche? (Screenshot: Golem.de)
Diskriminierung per Google-Suche? (Screenshot: Golem.de)

Der Algorithmus basiere auf etlichen objektiven Faktoren, unter anderem der Häufigkeit, mit der ein Wort gesucht werde. Deshalb könnten die angezeigten Suchbegriffe 'seltsam oder überraschend' wirken. Eine andere Bezeichnung dafür wäre diskriminierend. Die Organisation UN Women kritisierte diese angebliche "Autocomplete-Wahrheit" schon 2013 in einer großen Kampagne: Frauen sollten heutzutage überall als gleichberechtigt angesehen werden - auch auf Google.

Die vorherrschende Hautfarbe im Internet ist weiß

Und es geht noch drastischer: Eine Untersuchung der Carnegie Mellon University zeigt, dass Frauen bei Google weniger Anzeigen für gut bezahlte Jobs mit Führungspositionen angezeigt bekommen als Männer. Google-Suchen nach Namen, die afroamerikanisch klingen, werden häufiger mit Anzeigen verknüpft, die einen Eintrag im Vorstrafenregister implizieren, so eine Studie von Harvard-Professorin Latanya Sweeney aus dem Jahr 2013.

Bei der Suche nach dem Wort Hand zeigt Google größtenteils Bilder von Händen mit heller Hautfarbe. Solche Symbolbilder, auch Stockfotos genannt, werden genutzt, um Texte zu illustrieren, in denen es etwa um medizinische Themen, Kosmetik oder Schmuck geht, aber auch, wenn ein Smartphone oder eine Spielfigur gehalten werden müssen oder die Verbundenheit mehrerer Menschen bildlich dargestellt werden soll.

Braune oder schwarze Hände werden für solche Zwecke kaum verwendet. Die Initiative World White Web versucht deshalb, mit genau diesem Beispiel auf die "Weißheit" des Netzes aufmerksam zu machen. Sie bietet Stockfotos von Händen in unterschiedlichen Hautfarben an, die kostenfrei genutzt werden können und zeigen sollen: Die Welt ist nicht nur weiß.

Nicht neutral: Wenn Schwarze mit Affen verwechselt werden 

eye home zur Startseite
maniacos 21. Jan 2016

Warum gehst du davon aus, dass sexistische Männer diese Suchanfragen erzeugen? Es können...

maniacos 21. Jan 2016

Indem man über Dinge labert, von denen man keinen blassen Schimmer hat aber trotzdem so...

maniacos 21. Jan 2016

Die Frau behauptet, dass Entwickler ihre Algorithmen sexistisch programmieren. Das ist...

Dwalinn 20. Jan 2016

Noch nichtmal das! Kann auch sein das Feministen ständig nach "Frauen sollten keine...

kullerkeks 19. Jan 2016

...oder kein sinnvolles Thema mit dem Sie sich beschäftigen können. Ein Algorithmus kann...



Anzeige

Stellenmarkt
  1. FRITZ & MACZIOL group, deutschlandweit
  2. Hemmersbach GmbH & Co. KG, Nürnberg
  3. Preh GmbH, Bad Neustadt (Saale)
  4. PROJECT Immobilien GmbH, Nürnberg


Anzeige
Top-Angebote
  1. 399,00€ (Gutscheincode: HONOR8)
  2. 69,95€
  3. 44,00€ (Vorbesteller-Preisgarantie)

Folgen Sie uns
       


  1. Ransomware

    Trojaner Fantom gaukelt kritisches Windows-Update vor

  2. Megaupload

    Gericht verhandelt über Dotcoms Auslieferung an die USA

  3. Observatory

    Mozilla bietet Sicherheitscheck für Websites

  4. Teilzeitarbeit

    Amazon probiert 30-Stunden-Woche aus

  5. Archos

    Neues Smartphone mit Fingerabdrucksensor für 150 Euro

  6. Sicherheit

    Operas Server wurden angegriffen

  7. Maru

    Quellcode von Desktop-Android als Open Source verfügbar

  8. Linux

    Kernel-Sicherheitsinitiative wächst "langsam aber stetig"

  9. VR-Handschuh

    Dexta Robotics' Exoskelett für Motion Capturing

  10. Dragonfly 44

    Eine Galaxie fast ganz aus dunkler Materie



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Next Gen Memory: So soll der Speicher der nahen Zukunft aussehen
Next Gen Memory
So soll der Speicher der nahen Zukunft aussehen
  1. Arbeitsspeicher DDR5 nähert sich langsam der Marktreife
  2. SK Hynix HBM2-Stacks mit 4 GByte ab dem dritten Quartal verfügbar
  3. Arbeitsspeicher Crucial liefert erste NVDIMMs mit DDR4 aus

Wiper Blitz 2.0 im Test: Kein spießiges Rasenmähen mehr am Samstag (Teil 2)
Wiper Blitz 2.0 im Test
Kein spießiges Rasenmähen mehr am Samstag (Teil 2)
  1. Softrobotik Oktopus-Roboter wird mit Gas angetrieben
  2. Warenzustellung Schweizer Post testet autonome Lieferroboter
  3. Lockheed Martin Roboter Spider repariert Luftschiffe

8K- und VR-Bilder in Rio 2016: Wenn Olympia zur virtuellen Realität wird
8K- und VR-Bilder in Rio 2016
Wenn Olympia zur virtuellen Realität wird
  1. 400 MBit/s Telefónica und Huawei starten erstes deutsches 4.5G-Netz
  2. Medienanstalten Analoge TV-Verbreitung bindet hohe Netzkapazitäten
  3. Mehr Programme Vodafone Kabel muss Preise für HD-Einspeisung senken

  1. Re: Und der Rest ist Zuckerwatte

    Ach | 07:05

  2. Re: BQ Aquaris X5 Plus (~290¤)

    demokrit | 07:03

  3. Re: er hätte in Deutschland bleiben sollen ...

    crazypsycho | 06:51

  4. Re: Warum wird die Netzabdeckung nicht auf die...

    thesmann | 06:45

  5. Re: PC von der Stange vs Selbstbau

    DetlevCM | 06:42


  1. 13:49

  2. 12:46

  3. 11:34

  4. 15:59

  5. 15:18

  6. 13:51

  7. 12:59

  8. 15:33


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel