Abo
  • IT-Karriere:

Was ist eigentlich Intelligenz?

Um die Regeln einer Ethikmaschine zu programmieren, müsste man sie aller sozialer Unschärfe und Menschlichkeit berauben. Nur wäre das vermutlich stark diskriminierend, weil genau eine Wertvorstellung als normal definiert würde - die derer, die solche Systeme entwickeln.

Stellenmarkt
  1. Dataport, Hamburg
  2. Hong Kong Economic and Trade Office, Berlin

Und man würde das Problem auch völlig unzulässig vereinfachen: Warum sollten Entscheidungen basierend auf einem viel zu simplen Modell zu annehmbaren ethischen Entscheidungen in dieser heterogenen Welt führen? Ethische Entscheidungen sind viel komplexer, als man das in Softwaresystemen abbilden könnte. Darum kann die Automatisierung einer Ethik nur scheitern.

Irrtum 2: Daten erzeugen Wahrheit, und falls nicht, braucht man einfach mehr Daten

In der öffentlichen Debatte hat sich glücklicherweise die Erkenntnis durchgesetzt, dass die Datensätze, die uns zur Verfügung stehen, durchsetzt sind mit Vorurteilen und Fehlannahmen. Jeder Datensatz ist stark beeinflusst von den Wert- und Weltvorstellungen der Personen, die die Daten strukturiert haben.

Trotzdem hält sich ein Irrtum hartnäckig: dass man nur die Vorurteile erkennen muss, um sie auszuräumen, um die Datensätze zu reparieren. So versucht man zum Beispiel, weitere Daten zu erfassen, die bestimmte Annahmen ausgleichen sollen, entfernt andere Werte oder ändert Datentypen, um breitere Facetten der Welt abbilden zu können. Zum Beispiel überarbeitet man das Feld Geschlecht so, dass man nicht mehr nur Mann und Frau eintragen kann, sondern jede Geschlechtsidentität. Oder man trainiert eine Gesichtserkennung nicht mehr nur mit den Porträtfotos von Menschen mit weißer Hautfarbe, sondern mit einer diversen Auswahl.

Diese Reparaturen können Datensätze definitiv verbessern, sogar massiv, und bestimmte Diskriminierungsvektoren ausblenden. Sie werden durch die Anpassungen aber niemals komplett eliminiert. Und manchmal erzeugen diese kleinen Reparaturen sogar neue Fehler, die der Datensatz vorher nicht hatte.

Die Frage kann daher nicht sein, wie man Vorurteile aus den Datensätzen entfernt. Sondern wie man solch implizite Annahmen und Vorurteile sichtbar und analysierbar macht. Wie man bewerten kann, auf welche Art und Weise ein Datensatz problematisch ist. Eine objektive und abstrakte Wahrheit, wie man sie sich gerne von neutralen Maschinen erhoffen würde, kann es niemals geben. Sie ist immer gefärbt durch die Realität der Entwickelnden - egal, wie viele Daten man noch hinzufügt.

Irrtum 3: In 20 Jahren gibt es eine künstliche Intelligenz, die genauso gut wie oder besser ist als menschliche

Dieser Satz wird unverändert seit mindestens 50 Jahren verbreitet. Künstliche Intelligenz ist immer fast da, aktuelle Entwicklungen sind immer sehr vielversprechend. Und 20 Jahre später hat sich trotzdem nicht viel getan.

Für dieses Phänomen gibt es viele Gründe. Einer davon lautet, dass es extrem unklar ist, was genau eigentlich Intelligenz sein soll. Die Definition von Intelligenz entwickelt sich ständig weiter, verbreitert sich, verändert sich.

Trotzdem versuchte man früher, über komplexe Regelsysteme und Logikbäume, die Welt abzubilden und sie Maschinen damit verständlich zu machen. Nachdem man damit aber niemals wirklich relevante Ergebnisse erreichen konnte, hat man sich heute vor allem einem anderen Ansatz zugewendet: Statt des Menschen sollen Maschinen ein Weltmodell aufbauen. Dafür wirft man möglichst große Mengen von Daten auf Maschinen, die aus diesen Daten lernen sollen. Und plötzlich erkennt Google auf meinen Fotos Katzen, beeindruckend.

Aber heute populäre Technologien wie etwa neuronale Netze sind weit entfernt von allem, was wir Intelligenz nennen würden. Sie sind Systeme automatisierter Statistikanwendung, die auf extrem spezielle Anwendungsfälle trainiert wurden und auseinanderfallen, sobald die Eingabe den engen Korridor der ihnen bekannten Daten verlässt.

Die sogenannte Intelligenz dieser Systeme ist eine, die Beobachter ihnen zuschreiben. Es ist ein sehr menschliches Verhalten, Objekten und Strukturen in der Welt Intelligenz zu unterstellen - wie dem Auto, das nicht anspringen will, wenn man nicht nett zu ihm ist. Aber das sind psychologische Prozesse des Menschen, keine Leistungen der Maschine.

Selbstfahrende Autos beispielsweise haben große Probleme mit Menschen auf der Straße, weil sie sich unvorhersehbar verhalten. Viele Entwickler schlagen schon vor, die Bewegungsfreiheit von Menschen im Straßenverkehr noch weiter einzuschränken, damit die selbstfahrenden Autos klarkommen. Was ist daran intelligent?

 Digitalisierung: Nein, Ethik kann man nicht programmierenGesetze als Code? Funktionieren nicht 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


Anzeige
Top-Angebote
  1. 179,99€ (Vergleichspreis 219€)
  2. (u. a. Overwatch GOTY XBO für 15€ und Blu-ray-Angebote)
  3. (u. a. Hell Let Loose für 15,99€, Hitman 2 für 15,49€ und PSN Card 25 Euro [DE] für 21,99€)
  4. (u. a. SanDisk SSD Plus 1 TB für 88€ + Versand oder kostenlose Marktabholung)

HighZ 19. Dez 2018

Ethik wird in den Kommentaren nur auf "töten oder nicht" begrenzt. (Thema Kreissäge: Die...

Diether 16. Dez 2018

...programmieren, das nach außen hin einer - wie auch immer zu definierenden - "Ethik...

Ach 12. Dez 2018

Z.B. klassische Situation, dass ein Kind zwischen parkenden Autos hervorspringt, der...

GeXX 12. Dez 2018

An sich ein gut geschriebener Artikel, wenn hier nicht die KI mit Deep Learning und...

pumok 12. Dez 2018

Das schliesst den Vorschglag nicht aus. Der liebe Gott muss dann halt den...


Folgen Sie uns
       


E-Bike-Neuerungen von Bosch angesehen

Neue Motoren und mehr Selbstständigkeit für Boschs E-Bike Systems - wir haben uns angesehen, was für 2020 geplant ist.

E-Bike-Neuerungen von Bosch angesehen Video aufrufen
Disintegration angespielt: Fast wie ein Master Chief mit Privatarmee
Disintegration angespielt
Fast wie ein Master Chief mit Privatarmee

Gamescom 2019 Ein dick gepanzerter Held auf dem Schwebegleiter plus bis zu vier Fußsoldaten, denen man Befehle erteilen kann: Das ist die Idee hinter Disintegration. Golem.de hat das Actionspiel ausprobiert.
Von Peter Steinlechner

  1. Omen HP erweitert das Command Center um Spiele-Coaching
  2. Games Spielentwickler bangen weiter um Millionenförderung
  3. Gamescom Opening Night Hubschrauber, Historie plus Tag und Nacht für Anno 1800

Hyundai Kona Elektro: Der Ausdauerläufer
Hyundai Kona Elektro
Der Ausdauerläufer

Der Hyundai Kona Elektro begeistert mit Energieeffizienz, Genauigkeit bei der Reichweitenberechnung und umfangreicher technischer Ausstattung. Nur in Sachen Emotionalität und Temperament könnte er etwas nachlegen.
Ein Praxistest von Dirk Kunde

  1. Carver Elektro-Kabinenroller als Dreirad mit Neigetechnik
  2. Elektroauto Neuer Chevrolet Bolt fährt 34 km weiter
  3. Elektroauto Porsches Elektroauto Taycan im 24-Stunden-Dauertest

OKR statt Mitarbeitergespräch: Wir müssen reden
OKR statt Mitarbeitergespräch
Wir müssen reden

Das jährliche Mitarbeitergespräch ist eines der wichtigsten Instrumente für Führungskräfte, doch es ist gerade in der IT-Branche nicht mehr unbedingt zeitgemäß. Aus dem Silicon Valley kommt eine andere Methode: OKR. Sie erfüllt die veränderten Anforderungen an Agilität und Veränderungsbereitschaft.
Von Markus Kammermeier

  1. Arbeit Hilfe für frustrierte ITler
  2. IT-Arbeitsmarkt Jobgarantie gibt es nie
  3. IT-Fachkräftemangel Freie sind gefragt

    •  /