• IT-Karriere:
  • Services:

Wie KI Freiheit, Wohlergehen oder Leben von Menschen gefährdet

Michal Kosinski, Professor an der Stanford University, wurde für seine Forschungen in der Psychometrie weltbekannt. Er setzt Deep Learning ein, um aus völlig unverdächtigen Datenspuren, wie Menschen sie tagtäglich hinterlassen, mit hoher Genauigkeit Informationen über die sexuelle Orientierung, den Beziehungsstatus, den Drogenkonsum, den Intelligenzquotienten, die psychische Gesundheit, politische Einstellungen und vieles mehr zu gewinnen. Kosinskis Forschung war die Grundlage für Firmen wie Cambridge Analytica, um neue Methoden der psychologischen Kriegsführung in zivilen Kontexten zur Manipulation von demokratischen Wahlen einzusetzen.

Stellenmarkt
  1. EUROBAUSTOFF Handelsgesellschaft mbH & Co. KG, Bad Nauheim
  2. medavis GmbH, Karlsruhe

Bereits 2013 schrieb Kosinski in einem seiner Aufsätze, die Anwendung seiner Forschung könne eine "Gefahr für das Wohlergehen, die Freiheit oder das sogar das Leben von Menschen darstellen". Konsinski hat diese Worte weise gewählt. Schließlich zeigte er selbst fünf Jahre später in einem umstrittenen, inzwischen jedoch durch eine Replikationsstudie bestätigten Paper, dass allein anhand von Gesichtsabbildungen die sexuelle Orientierung einer Person mit hoher Genauigkeit erkannt werden kann - und das mit einfachsten Mitteln des maschinellen Lernens.

Solche KI-gestützten "Gaydar"-Anwendungen stellen angesichts der Tatsache, dass Homosexualität in vielen Ländern noch immer mit Todes- oder Gefängnisstrafen bedroht wird, tatsächlich eine Gefahr für das Wohlergehen und Leben von Menschen dar.

Eine neue Methode zur Publikation

Ein weiteres Beispiel ist GPT-2, ein von OpenAI entwickelter Textgenerator. Im Februar des vergangenen Jahres veröffentlichte OpenAI lediglich ein in seiner Leistungsfähigkeit eingeschränktes Modell, da die Befürchtung bestand, GPT-2 könne zur automatischen und damit massenhaften Generierung von Falschnachrichten oder als Grundlage für Spambots verwendet werden. Erst nach einem umfangreichen Monitoring, bei dem lediglich "geringfügige Evidenz für Missbrauch" gefunden wurde, entschied sich OpenAI, leistungsstärkere Modelle zu veröffentlichen. Im November 2019 wurde schließlich das komplette Modell von GPT-2 publiziert.

Diese Strategie der gestuften Publikation von Ergebnissen aus der KI-Forschung kritisierte die wissenschaftliche Gemeinschaft mitunter als unnötig und übertrieben. Faktisch jedoch ist diese neue Methode des Umgangs mit missbrauchsanfälligen Forschungsergebnissen weitaus verantwortungsvoller als herkömmliche Publikationsverfahren.

KI bestimmt Sterbewahrscheinlichkeit oder Suizidabsichten

Neben KI-gestützten "Gaydar"-Anwendungen oder generativen Modellen, mit denen sich synthetische Medien aller Art erzeugen lassen, gibt es diverse weitere Beispiele für Forschungsarbeiten, deren Ergebnisse ein hohes Missbrauchspotential haben. So bestimmen KI-Systeme etwa die Sterbewahrscheinlichkeit von Patienten. Dies birgt - um nur eine mögliche Technikfolge zu nennen - die Gefahr, dass Versicherungen die Bezahlung von Therapien verweigern. KI-Systeme besiegen Menschen in komplexen Spielen wie Starcraft II oder Poker, mit der Folge, dass beispielsweise kommerzielle Online-Pokerplattformen ihren Betrieb einstellen könnten, würde der Code frei verfügbar.

Facebook hat eine KI zur Erkennung von Suizidabsichten entwickelt, wobei sich die Frage stellt, wie mit den gewonnenen Erkenntnissen verantwortungsvoll umgegangen werden kann. Mit Techniken des Micro Targeting, die ebenfalls auf KI-Verfahren zurückgreifen, wird millionenfach menschliches Verhalten beeinflusst. Ferner ist es anhand des Einsatzes von Gehirn-Computer-Schnittstellen und mit der Hilfe von KI möglich, auf zumindest rudimentäre Weise Gedanken- oder Trauminhalte auszulesen.

KI-Systeme können darüber hinaus zur Manipulation von Märkten eingesetzt werden, sie bilden die Grundlage für neuartige Cyberangriffe, sie ermöglichen die moderne Massenüberwachung, sie werden aufgrund der Verantwortungslücken, die sich bei ihrer Verwendung auftun, sogar im Rahmen von Folter- oder Verhörmethoden eingesetzt.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Künstliche Intelligenz: Wann ist Forschung zu gefährlich für die Öffentlichkeit?Wissen ist Macht und Macht kann missbraucht werden 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6.  


Anzeige
Hardware-Angebote
  1. 499,99€

m9898 25. Apr 2020

Weißt du was ich mache, wenn ich versehentlich eine killer-AI bei mir auf dem PC starte...

m9898 25. Apr 2020

Welche Branche ist das denn?

Aki-San 24. Apr 2020

Das ist extremst naiv. Entwicklung findet statt, so oder so. Notfalls in einem Hinterhof...

Aki-San 24. Apr 2020

Wo Markt- und Nutzermanipulation mittels AI schon gang und gebe ist. Matchmaking auf...

lestard 22. Apr 2020

Ob das eine universelle KI auch so sieht?


Folgen Sie uns
       


Die Tesla-Baustelle von oben (Januar-November 2020)

Wir haben den Fortschritt in Grünheide dokumentiert.

Die Tesla-Baustelle von oben (Januar-November 2020) Video aufrufen
Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme

      •  /