Abo
  • Services:
Anzeige
Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände.
Bei der Suche nach dem Begriff "Hands" findet Google vor allem eines: weiße Hände. (Bild: Golem.de)

Nicht neutral: Wenn Schwarze mit Affen verwechselt werden

Dass Dinge wie diese passieren, liegt Bath zufolge an der Technikentwicklung selbst. Die Programmierer sind oft weiße Männer, also Mitglieder einer sehr homogenen Gruppe. Sie entwickeln Produkte in der Annahme, dass die späteren Nutzer ähnliche Interessen und Kompetenzen haben wie sie selbst. Außerdem haben Entwickler oft keine realen Personen im Kopf, sondern Stereotype.

So entstehen etwa für Senioren geeignete Telefone mit besonders großen Tasten - schließlich können alte Menschen oft nicht mehr gut sehen. Dabei ist alt sein nicht ausschließlich mit Fehlsichtigkeit gleichzusetzen. Auch andere gesundheitliche Probleme wie Demenz oder Hörprobleme beeinflussen, wie alte Menschen Telefone nutzen und welche Funktionen für sie relevant sind. Doch das ist vielen Programmierern nicht bewusst.

Anzeige

Jede neue technische Entwicklung kann erneut zu Diskriminierung führen. Etwa, wenn Fotos automatisch mit Schlagworten versehen werden, wie bei Google und Flickr. Die Dienste erkennen, was auf einem Bild zu sehen ist: Ein Foto von einem Dackel wird mit dem Schlagwort Hund versehen, ein Bild vom Eiffelturm der Stadt Paris zugeordnet. Der Algorithmus wurde bei der Entwicklung mit Informationen und Beispielen gefüttert, sodass er alle möglichen Kategorien von sich aus erkennen kann, so das Versprechen.

Doch nicht immer funktioniert das: So wurden Fotos von schwarzen Personen von Flickr mit dem Schlagwort Affe und von Google mit dem Schlagwort Gorilla versehen. Weiße Menschen wurden nicht mit Tieren verwechselt. Nach Protesten entschuldigte sich Google - und entfernte das Gorilla-Label komplett.

Technik kann genauso gut diskriminieren wie Menschen

Algorithmen werden auch von Unternehmen genutzt, etwa um aus einem Berg von Job-Bewerbern diejenigen auszusuchen, die zum Gespräch eingeladen werden. Andreas Dewes, Physiker und Datenwissenschaftler, beschäftigt sich mit Diskriminierung und Ethik in der datengetriebenen Gesellschaft. Mit einer Formel will er berechnen, ob der von ihm gewählte Algorithmus für die Bewerberwahl sexistisch ist.

Oder anders gesagt: Werden Männer bevorzugt zu Bewerbungsgesprächen eingeladen und Frauen schlechter behandelt? Dies wäre der Fall, wenn Frauen und Männer mit gleicher Qualifikation signifikant unterschiedlich vom Algorithmus bewertet würden. Wäre der Algorithmus neutral, hätte das Geschlecht keinerlei Einfluss darauf, ob ein Bewerber ausgewählt wird oder nicht.

Dewes' Simulation mit mehr als 10.000 Stichproben zeigt: Je mehr Informationen der Algorithmus über eine Person hat, desto stärker kann er sie diskriminieren. Es muss nicht immer das Geschlecht sein: Auch über Hautfarbe oder Gesellschaftsschicht lassen sich online öffentlich verfügbare Daten finden - Stichwort Big Data.

"Wenn der Algorithmus durch irgendeinen Zufall vollen Zugriff auf eine bestimmte Information hat, kann er genauso gut diskriminieren wie ein Mensch", sagt Dewes. "Es kann viel schiefgehen, wenn man Algorithmen nutzt."

Nur Bewusstsein kann helfen, das Problem zu lösen

Da über jeden Menschen immer mehr Daten verfügbar sind, steigt die Wahrscheinlichkeit, dass Algorithmen Informationen finden, die Grundlage für Diskriminierung sein können. Besonders kritisch wird es, wenn Entscheidungen, die unser Leben tiefgehend beeinflussen, von derartigen Algorithmen gefällt werden.

"Wie gehe ich etwa damit um, wenn ich aufgrund meines Onlineverhaltens als Terrorist eingestuft werde?", fragt Bath. "Algorithmen können schließlich auch falsche Informationen liefern."

Wenn Algorithmen nicht so vorurteilsbehaftet handeln sollen wie Menschen, gibt es nur eine Lösung: Die Entwickler selbst müssen sich des Problems bewusst werden - und zwar schon in ihrer Ausbildung. Und auch die Nutzer sollten im Hinterkopf behalten, dass jeder Algorithmus, den sie nutzen, nicht im luftleeren Raum entstanden ist, sondern von einem Menschen programmiert wurde, der nicht frei von Fehlern und Vorurteilen ist.

 Diskriminierung: Wenn Algorithmen Vorurteile haben

eye home zur Startseite
maniacos 21. Jan 2016

Warum gehst du davon aus, dass sexistische Männer diese Suchanfragen erzeugen? Es können...

maniacos 21. Jan 2016

Indem man über Dinge labert, von denen man keinen blassen Schimmer hat aber trotzdem so...

maniacos 21. Jan 2016

Die Frau behauptet, dass Entwickler ihre Algorithmen sexistisch programmieren. Das ist...

Dwalinn 20. Jan 2016

Noch nichtmal das! Kann auch sein das Feministen ständig nach "Frauen sollten keine...

kullerkeks 19. Jan 2016

...oder kein sinnvolles Thema mit dem Sie sich beschäftigen können. Ein Algorithmus kann...



Anzeige

Stellenmarkt
  1. Qimia GmbH, Köln
  2. Zühlke Engineering GmbH, Eschborn
  3. Robert Bosch GmbH, Leonberg
  4. Bundeskriminalamt, Wiesbaden


Anzeige
Spiele-Angebote
  1. (-53%) 6,99€
  2. 26,99€
  3. (u. a. Anno 2205 Ultimate Edition für 10,99€, Anno 2070 Königsedition für 6,99€ und...

Folgen Sie uns
       


  1. Facebook Messenger

    Bug lässt iPhone-Nutzer nur wenige Wörter tippen

  2. Multi-Shot-Kamera

    Hasselblad macht 400-Megapixel-Fotos mit 2,4 GByte Größe

  3. Mitsubishi

    Rückkamera identifiziert Verkehrsteilnehmer

  4. Otherside Entertainment

    Underworld Ascendant soll mehr Licht ins Dunkle bringen

  5. Meltdown und Spectre

    "Dann sind wir performancemäßig wieder am Ende der 90er"

  6. Google Play Services

    Update gegen Chromecast-WLAN-Blockade kommt bald

  7. Cars 3 und Coco in HDR

    Die ersten Pixar-Filme kommen als Ultra-HD-Blu-ray

  8. Überwachungstechnik

    EU-Parlament fordert schärfere Ausfuhrregeln

  9. Loki

    App zeigt Inhalte je nach Stimmung des Nutzers an

  10. Spielebranche

    Fox kündigt Studiokauf und Alien-MMORPG an



Haben wir etwas übersehen?

E-Mail an news@golem.de


Anzeige
Nachbarschaftsnetzwerke: Nebenan statt mittendrin
Nachbarschaftsnetzwerke
Nebenan statt mittendrin
  1. Facebook Wieder mehr Haustierbilder statt Hass
  2. Nextdoor Das soziale Netzwerk für den Blockwart
  3. Hasskommentare Neuer Eco-Chef Süme will nicht mit AfD reden

Sgnl im Hands on: Sieht blöd aus, funktioniert aber
Sgnl im Hands on
Sieht blöd aus, funktioniert aber
  1. NGSFF alias M.3 Adata zeigt seine erste SSD mit breiterer Platine
  2. Displaytechnik Samsung soll faltbares Smartphone auf CES gezeigt haben
  3. Vuzix Blade im Hands on Neue Datenbrille mit einem scharfen und hellen Bild

EU-Urheberrechtsreform: Abmahnungen treffen "nur die Dummen"
EU-Urheberrechtsreform
Abmahnungen treffen "nur die Dummen"
  1. Leistungsschutzrecht EU-Kommission hält kritische Studie zurück
  2. Leistungsschutzrecht EU-Staaten uneins bei Urheberrechtsreform

  1. Re: Kochen und Fußballfelder

    weltraumkuh | 13:00

  2. Re: 100 Mbit/s bei der Telekom

    Sinnfrei | 12:58

  3. Re: Ich brauche kein Volumen

    fox82 | 12:56

  4. Re: Endlich mal eine sinnvolle Kombination

    M.P. | 12:55

  5. Re: Andere hersteller haben auch keine Lösung

    cry88 | 12:55


  1. 13:15

  2. 13:00

  3. 12:45

  4. 12:30

  5. 12:00

  6. 11:58

  7. 11:48

  8. 11:27


  1. Themen
  2. A
  3. B
  4. C
  5. D
  6. E
  7. F
  8. G
  9. H
  10. I
  11. J
  12. K
  13. L
  14. M
  15. N
  16. O
  17. P
  18. Q
  19. R
  20. S
  21. T
  22. U
  23. V
  24. W
  25. X
  26. Y
  27. Z
  28. #
 
    •  / 
    Zum Artikel