• IT-Karriere:
  • Services:

Wie KI Freiheit, Wohlergehen oder Leben von Menschen gefährdet

Michal Kosinski, Professor an der Stanford University, wurde für seine Forschungen in der Psychometrie weltbekannt. Er setzt Deep Learning ein, um aus völlig unverdächtigen Datenspuren, wie Menschen sie tagtäglich hinterlassen, mit hoher Genauigkeit Informationen über die sexuelle Orientierung, den Beziehungsstatus, den Drogenkonsum, den Intelligenzquotienten, die psychische Gesundheit, politische Einstellungen und vieles mehr zu gewinnen. Kosinskis Forschung war die Grundlage für Firmen wie Cambridge Analytica, um neue Methoden der psychologischen Kriegsführung in zivilen Kontexten zur Manipulation von demokratischen Wahlen einzusetzen.

Stellenmarkt
  1. Apollo-Optik Holding GmbH & Co. KG, Schwabach / Metropolregion Nürnberg
  2. Hochland Deutschland GmbH, Heimenkirch, Schongau

Bereits 2013 schrieb Kosinski in einem seiner Aufsätze, die Anwendung seiner Forschung könne eine "Gefahr für das Wohlergehen, die Freiheit oder das sogar das Leben von Menschen darstellen". Konsinski hat diese Worte weise gewählt. Schließlich zeigte er selbst fünf Jahre später in einem umstrittenen, inzwischen jedoch durch eine Replikationsstudie bestätigten Paper, dass allein anhand von Gesichtsabbildungen die sexuelle Orientierung einer Person mit hoher Genauigkeit erkannt werden kann - und das mit einfachsten Mitteln des maschinellen Lernens.

Solche KI-gestützten "Gaydar"-Anwendungen stellen angesichts der Tatsache, dass Homosexualität in vielen Ländern noch immer mit Todes- oder Gefängnisstrafen bedroht wird, tatsächlich eine Gefahr für das Wohlergehen und Leben von Menschen dar.

Eine neue Methode zur Publikation

Ein weiteres Beispiel ist GPT-2, ein von OpenAI entwickelter Textgenerator. Im Februar des vergangenen Jahres veröffentlichte OpenAI lediglich ein in seiner Leistungsfähigkeit eingeschränktes Modell, da die Befürchtung bestand, GPT-2 könne zur automatischen und damit massenhaften Generierung von Falschnachrichten oder als Grundlage für Spambots verwendet werden. Erst nach einem umfangreichen Monitoring, bei dem lediglich "geringfügige Evidenz für Missbrauch" gefunden wurde, entschied sich OpenAI, leistungsstärkere Modelle zu veröffentlichen. Im November 2019 wurde schließlich das komplette Modell von GPT-2 publiziert.

Diese Strategie der gestuften Publikation von Ergebnissen aus der KI-Forschung kritisierte die wissenschaftliche Gemeinschaft mitunter als unnötig und übertrieben. Faktisch jedoch ist diese neue Methode des Umgangs mit missbrauchsanfälligen Forschungsergebnissen weitaus verantwortungsvoller als herkömmliche Publikationsverfahren.

KI bestimmt Sterbewahrscheinlichkeit oder Suizidabsichten

Neben KI-gestützten "Gaydar"-Anwendungen oder generativen Modellen, mit denen sich synthetische Medien aller Art erzeugen lassen, gibt es diverse weitere Beispiele für Forschungsarbeiten, deren Ergebnisse ein hohes Missbrauchspotential haben. So bestimmen KI-Systeme etwa die Sterbewahrscheinlichkeit von Patienten. Dies birgt - um nur eine mögliche Technikfolge zu nennen - die Gefahr, dass Versicherungen die Bezahlung von Therapien verweigern. KI-Systeme besiegen Menschen in komplexen Spielen wie Starcraft II oder Poker, mit der Folge, dass beispielsweise kommerzielle Online-Pokerplattformen ihren Betrieb einstellen könnten, würde der Code frei verfügbar.

Facebook hat eine KI zur Erkennung von Suizidabsichten entwickelt, wobei sich die Frage stellt, wie mit den gewonnenen Erkenntnissen verantwortungsvoll umgegangen werden kann. Mit Techniken des Micro Targeting, die ebenfalls auf KI-Verfahren zurückgreifen, wird millionenfach menschliches Verhalten beeinflusst. Ferner ist es anhand des Einsatzes von Gehirn-Computer-Schnittstellen und mit der Hilfe von KI möglich, auf zumindest rudimentäre Weise Gedanken- oder Trauminhalte auszulesen.

KI-Systeme können darüber hinaus zur Manipulation von Märkten eingesetzt werden, sie bilden die Grundlage für neuartige Cyberangriffe, sie ermöglichen die moderne Massenüberwachung, sie werden aufgrund der Verantwortungslücken, die sich bei ihrer Verwendung auftun, sogar im Rahmen von Folter- oder Verhörmethoden eingesetzt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Künstliche Intelligenz: Wann ist Forschung zu gefährlich für die Öffentlichkeit?Wissen ist Macht und Macht kann missbraucht werden 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


Anzeige
Top-Angebote
  1. (u. a. Fire TV Stick (2020) mit Alexa-Sprachfernbedienung (mit TV-Steuerung) und Dolby Atmos für...
  2. 155,66€ neuer Bestpreis auf Geizhals
  3. (u. a. NZXT Kraken Z73 Wasserkühlung für 229€ (Bestpreis!), Xiaomi Pocophone F2 Pro 128GB...

m9898 25. Apr 2020

Weißt du was ich mache, wenn ich versehentlich eine killer-AI bei mir auf dem PC starte...

m9898 25. Apr 2020

Welche Branche ist das denn?

Aki-San 24. Apr 2020

Das ist extremst naiv. Entwicklung findet statt, so oder so. Notfalls in einem Hinterhof...

Aki-San 24. Apr 2020

Wo Markt- und Nutzermanipulation mittels AI schon gang und gebe ist. Matchmaking auf...

lestard 22. Apr 2020

Ob das eine universelle KI auch so sieht?


Folgen Sie uns
       


    •  /