Wie KI Freiheit, Wohlergehen oder Leben von Menschen gefährdet

Michal Kosinski, Professor an der Stanford University, wurde für seine Forschungen in der Psychometrie weltbekannt. Er setzt Deep Learning ein, um aus völlig unverdächtigen Datenspuren, wie Menschen sie tagtäglich hinterlassen, mit hoher Genauigkeit Informationen über die sexuelle Orientierung, den Beziehungsstatus, den Drogenkonsum, den Intelligenzquotienten, die psychische Gesundheit, politische Einstellungen und vieles mehr zu gewinnen. Kosinskis Forschung war die Grundlage für Firmen wie Cambridge Analytica, um neue Methoden der psychologischen Kriegsführung in zivilen Kontexten zur Manipulation von demokratischen Wahlen einzusetzen.

Stellenmarkt
  1. IT-Mitarbeiter für den 1st-Level-Support (m/w/d)
    Limbach Gruppe SE, Heidelberg
  2. Solution Engineer (m/w/d) Senior Expert
    Vodafone GmbH, Eschborn
Detailsuche

Bereits 2013 schrieb Kosinski in einem seiner Aufsätze, die Anwendung seiner Forschung könne eine "Gefahr für das Wohlergehen, die Freiheit oder das sogar das Leben von Menschen darstellen". Konsinski hat diese Worte weise gewählt. Schließlich zeigte er selbst fünf Jahre später in einem umstrittenen, inzwischen jedoch durch eine Replikationsstudie bestätigten Paper, dass allein anhand von Gesichtsabbildungen die sexuelle Orientierung einer Person mit hoher Genauigkeit erkannt werden kann - und das mit einfachsten Mitteln des maschinellen Lernens.

Solche KI-gestützten "Gaydar"-Anwendungen stellen angesichts der Tatsache, dass Homosexualität in vielen Ländern noch immer mit Todes- oder Gefängnisstrafen bedroht wird, tatsächlich eine Gefahr für das Wohlergehen und Leben von Menschen dar.

Eine neue Methode zur Publikation

Ein weiteres Beispiel ist GPT-2, ein von OpenAI entwickelter Textgenerator. Im Februar des vergangenen Jahres veröffentlichte OpenAI lediglich ein in seiner Leistungsfähigkeit eingeschränktes Modell, da die Befürchtung bestand, GPT-2 könne zur automatischen und damit massenhaften Generierung von Falschnachrichten oder als Grundlage für Spambots verwendet werden. Erst nach einem umfangreichen Monitoring, bei dem lediglich "geringfügige Evidenz für Missbrauch" gefunden wurde, entschied sich OpenAI, leistungsstärkere Modelle zu veröffentlichen. Im November 2019 wurde schließlich das komplette Modell von GPT-2 publiziert.

Golem Akademie
  1. Advanced Python – Fortgeschrittene Programmierthemen: virtueller Zwei-Tage-Workshop
    27.–28. Januar 2022, Virtuell
  2. C++ Programmierung Basics: virtueller Fünf-Tage-Workshop
    13.–17. Dezember 2021, virtuell
Weitere IT-Trainings

Diese Strategie der gestuften Publikation von Ergebnissen aus der KI-Forschung kritisierte die wissenschaftliche Gemeinschaft mitunter als unnötig und übertrieben. Faktisch jedoch ist diese neue Methode des Umgangs mit missbrauchsanfälligen Forschungsergebnissen weitaus verantwortungsvoller als herkömmliche Publikationsverfahren.

KI bestimmt Sterbewahrscheinlichkeit oder Suizidabsichten

Neben KI-gestützten "Gaydar"-Anwendungen oder generativen Modellen, mit denen sich synthetische Medien aller Art erzeugen lassen, gibt es diverse weitere Beispiele für Forschungsarbeiten, deren Ergebnisse ein hohes Missbrauchspotential haben. So bestimmen KI-Systeme etwa die Sterbewahrscheinlichkeit von Patienten. Dies birgt - um nur eine mögliche Technikfolge zu nennen - die Gefahr, dass Versicherungen die Bezahlung von Therapien verweigern. KI-Systeme besiegen Menschen in komplexen Spielen wie Starcraft II oder Poker, mit der Folge, dass beispielsweise kommerzielle Online-Pokerplattformen ihren Betrieb einstellen könnten, würde der Code frei verfügbar.

Facebook hat eine KI zur Erkennung von Suizidabsichten entwickelt, wobei sich die Frage stellt, wie mit den gewonnenen Erkenntnissen verantwortungsvoll umgegangen werden kann. Mit Techniken des Micro Targeting, die ebenfalls auf KI-Verfahren zurückgreifen, wird millionenfach menschliches Verhalten beeinflusst. Ferner ist es anhand des Einsatzes von Gehirn-Computer-Schnittstellen und mit der Hilfe von KI möglich, auf zumindest rudimentäre Weise Gedanken- oder Trauminhalte auszulesen.

KI-Systeme können darüber hinaus zur Manipulation von Märkten eingesetzt werden, sie bilden die Grundlage für neuartige Cyberangriffe, sie ermöglichen die moderne Massenüberwachung, sie werden aufgrund der Verantwortungslücken, die sich bei ihrer Verwendung auftun, sogar im Rahmen von Folter- oder Verhörmethoden eingesetzt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Künstliche Intelligenz: Wann ist Forschung zu gefährlich für die Öffentlichkeit?Wissen ist Macht und Macht kann missbraucht werden 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


m9898 25. Apr 2020

Weißt du was ich mache, wenn ich versehentlich eine killer-AI bei mir auf dem PC starte...

m9898 25. Apr 2020

Welche Branche ist das denn?

Aki-San 24. Apr 2020

Das ist extremst naiv. Entwicklung findet statt, so oder so. Notfalls in einem Hinterhof...

Aki-San 24. Apr 2020

Wo Markt- und Nutzermanipulation mittels AI schon gang und gebe ist. Matchmaking auf...

lestard 22. Apr 2020

Ob das eine universelle KI auch so sieht?



Aktuell auf der Startseite von Golem.de
Softwarepatent
Uraltpatent könnte Microsoft Millionen kosten

Microsoft hat eine Klage um ein Software-Patent vor dem BGH verloren. Das Patent beschreibt Grundlagentechnik und könnte zahlreiche weitere Cloud-Anbieter betreffen.
Ein Bericht von Stefan Krempl

Softwarepatent: Uraltpatent könnte Microsoft Millionen kosten
Artikel
  1. Krypto: Angeblicher Nakamoto darf 1,1 Millionen Bitcoin behalten
    Krypto
    Angeblicher Nakamoto darf 1,1 Millionen Bitcoin behalten

    Ein Gericht hat entschieden, dass Craig Wright der Familie seines Geschäftspartners keine Bitcoins schuldet - kommt jetzt der Beweis, dass er Satoshi Nakamoto ist?

  2. Tim Cook: Apple traf geheime Absprache mit chinesischer Regierung
    Tim Cook
    Apple traf geheime Absprache mit chinesischer Regierung

    Tim Cook soll 2016 in China für Apple lobbyiert haben - der Deal soll 275 Milliarden US-Dollar wert sein. Öffentlich gemacht wurde die Absprache nicht.

  3. Spielfilm: Matrix trifft Unreal Engine 5
    Spielfilm
    Matrix trifft Unreal Engine 5

    Ist der echt? Neo taucht in einem interaktiven Programm auf Basis der Unreal Engine 5 auf. Der Preload ist bereits möglich.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • MM Weihnachtsgeschenkt (u. a. 3 Spiele kaufen, nur 2 bezahlen) • PS5 & Xbox Series X mit o2-Vertrag bestellbar • Apple Days bei Saturn (u. a. MacBook Air M1 949€) • Switch OLED 349,99€ • Saturn-Advent: HP Reverb G2 + Controller 499,99€ • Logitech MX Keys Mini 89,99€ [Werbung]
    •  /