Künstliche Intelligenz: Wann ist Forschung zu gefährlich für die Öffentlichkeit?

Wissenschaftliche Forschung kann unabsehbar fatale Folgen für ganze Gesellschaften haben - gerade im Bereich der KI. Der Umgang mit solchen Ergebnissen ist nicht geregelt: Höchste Zeit, das zu ändern.

Ein Essay von Thilo Hagendorff veröffentlicht am
KI kann Freiheit, Wohlergehen oder Leben von Menschen gefährden.
KI kann Freiheit, Wohlergehen oder Leben von Menschen gefährden. (Bild: Martin Wolf/Golem.de)

Was vor einigen Jahren noch als Science-Fiction abgetan werden konnte, macht die KI-Forschung heute wahr. KI-gestützte Programme schließen aus Profilbildern von Personen auf deren sexuelle Orientierung, erstellen täuschend echte Deep Fakes, verwandeln Text in gesprochene Sprache realer Personen, stellen psychologische Profile basierend auf wenigen Datenspuren zusammen, beeinflussen das Verhalten ganzer Wählerschichten, finden automatisiert Schwachstellen in Software, sagen den Todeszeitpunkt von Patienten voraus und vieles mehr. Das Gefahrenpotenzial solcher Anwendungen ist offensichtlich.

Dennoch unterliegt die Forschung, die zur Entwicklung solcher Anwendungen führt, keinen Restriktionen bei der Veröffentlichung von Forschungsergebnissen. Stattdessen befürwortet die wissenschaftliche Community in der KI-Forschung Open Access, also den freien Zugang zu Forschungsergebnissen. So positiv dies zu bewerten ist und so wichtig die freie Verfügbarkeit von wissenschaftlichen Erkenntnissen für die Gesellschaft ist, so gefährlich ist das Fehlen von Publikationsrestriktionen in bestimmten Bereichen. Um das zu erklären, muss man etwas ausholen.

Verbotenes Wissen

Als "verbotenes Wissen" werden Forschungsresultate bezeichnet, die zu heikel, zu gefährlich oder zu missbrauchsanfällig sind, um allgemein zugänglich gemacht oder öffentlich verbreitet zu werden. "Verbotenes Wissen" ist wesentlicher Bestandteil von wissenschaftlichen Disziplinen wie der Nuklearphysik, der synthetischen Biologie oder der IT-Sicherheitsforschung.

Dementsprechend gehören ausgefeilte Regelwerke zum Umgang mit gefährlichen Wissensbeständen fest zu diesen Disziplinen. Kernphysiker müssen verhindern, dass Wissen, das für die Herstellung von Massenvernichtungswaffen nützlich sein kann, in die falschen Hände gerät. Biologen tun das Gleiche im Hinblick etwa auf Wissen über die Synthese von Viren. Sicherheitsforscher, die kritische Sicherheitslücken entdecken, können auf einen ganzen Apparat an sogenannten Information Sharing Rules zurückgreifen, die sicherstellen sollen, dass die Informationen nur zwischen vertrauenswürdigen Akteuren zirkulieren.

Gefahrenabwehr versus Einschränkung

Stellenmarkt
  1. Softwareentwickler (m/w/d)
    Comprion GmbH, Paderborn
  2. Referent (m/w/d) für Datenstrategie und Data Literacy
    Amprion GmbH, Dortmund
Detailsuche

Ziel all dieser Maßnahmen ist es, Gefahren für Individuen, Organisationen oder ganze Gesellschaften abzuwenden. Gleichzeitig stehen diese Maßnahmen jedoch im Widerspruch zur Idee des freien Zugangs zu Forschungsergebnissen.

Begründet wird die Wichtigkeit dieses freien Zugangs unter anderem damit, dass nur so Forschungsarbeiten repliziert oder in der wissenschaftlichen Community kritisch diskutiert und weiterentwickelt werden könnten. Nicht zuletzt deshalb hat sich in der KI-Forschung eine starke Mentalität etabliert, den offenen Zugang zu Forschungsarbeiten für richtig und wünschenswert zu halten.

Neben der Schilderung von Forschungsergebnissen teilen Wissenschaftlerinnen und Wissenschaftler Details über ihre KI-Modelle oder gar den gesamten Quellcode auf Plattformen wie Github, Gitlab oder Sourceforge. Diese Entwicklung ist zweifelsohne positiv. Jedoch darf nicht aus den Augen verloren werden, dass KI-Forschung hochgefährliches Wissen hervorbringen kann.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Wie KI Freiheit, Wohlergehen oder Leben von Menschen gefährdet 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


m9898 25. Apr 2020

Weißt du was ich mache, wenn ich versehentlich eine killer-AI bei mir auf dem PC starte...

m9898 25. Apr 2020

Welche Branche ist das denn?

Aki-San 24. Apr 2020

Das ist extremst naiv. Entwicklung findet statt, so oder so. Notfalls in einem Hinterhof...

Aki-San 24. Apr 2020

Wo Markt- und Nutzermanipulation mittels AI schon gang und gebe ist. Matchmaking auf...



Aktuell auf der Startseite von Golem.de
Ukrainekrieg
Erster Einsatz einer US-Kamikazedrohne dokumentiert

Eine Switchblade-Drohne hat offenbar einen russischen Panzer getroffen. Dessen Besatzung soll sich auf dem Turm mit Alkohol vergnügt haben.

Ukrainekrieg: Erster Einsatz einer US-Kamikazedrohne dokumentiert
Artikel
  1. Heimnetze: Die Masche mit dem Nachbarn
    Heimnetze
    Die Masche mit dem Nachbarn

    Heimnetze sind Inseln mit einer schmalen und einsamen Anbindung zum Internet. Warum eine Öffnung dieser strengen Isolation sinnvoll ist.
    Von Jochen Demmer

  2. Deutsche Bahn: 9-Euro-Ticket gilt nicht in allen Nahverkehrszügen
    Deutsche Bahn  
    9-Euro-Ticket gilt nicht in allen Nahverkehrszügen

    So einfach ist es dann noch nicht: Das 9-Euro-Ticket gilt nicht in allen Zügen, die mit einem Nahverkehrsticket genutzt werden können.

  3. Übernahme: Twitter zahlt Millionenstrafe und Musk schichtet um
    Übernahme
    Twitter zahlt Millionenstrafe und Musk schichtet um

    Die US-Regierung sieht Twitter als Wiederholungstäter bei Datenschutzverstößen und Elon Musk will sich das Geld für die Übernahme nun anders besorgen.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Daily Deals • Mindstar (u. a. Palit RTX 3050 Dual 319€, MSI MPG X570 Gaming Plus 119€ und be quiet! Shadow Rock Slim 2 29€) • Days of Play (u. a. PS5-Controller 49,99€) • Viewsonic-Monitore günstiger • Alternate (u. a. Razer Tetra 12€) • Marvel's Avengers PS4 9,99€ • Sharkoon Light² 200 21,99€ [Werbung]
    •  /