Künstliche Intelligenz: Wann ist Forschung zu gefährlich für die Öffentlichkeit?

Wissenschaftliche Forschung kann unabsehbar fatale Folgen für ganze Gesellschaften haben - gerade im Bereich der KI. Der Umgang mit solchen Ergebnissen ist nicht geregelt: Höchste Zeit, das zu ändern.

Ein Essay von Thilo Hagendorff veröffentlicht am
KI kann Freiheit, Wohlergehen oder Leben von Menschen gefährden.
KI kann Freiheit, Wohlergehen oder Leben von Menschen gefährden. (Bild: Martin Wolf/Golem.de)

Was vor einigen Jahren noch als Science-Fiction abgetan werden konnte, macht die KI-Forschung heute wahr. KI-gestützte Programme schließen aus Profilbildern von Personen auf deren sexuelle Orientierung, erstellen täuschend echte Deep Fakes, verwandeln Text in gesprochene Sprache realer Personen, stellen psychologische Profile basierend auf wenigen Datenspuren zusammen, beeinflussen das Verhalten ganzer Wählerschichten, finden automatisiert Schwachstellen in Software, sagen den Todeszeitpunkt von Patienten voraus und vieles mehr. Das Gefahrenpotenzial solcher Anwendungen ist offensichtlich.

Dennoch unterliegt die Forschung, die zur Entwicklung solcher Anwendungen führt, keinen Restriktionen bei der Veröffentlichung von Forschungsergebnissen. Stattdessen befürwortet die wissenschaftliche Community in der KI-Forschung Open Access, also den freien Zugang zu Forschungsergebnissen. So positiv dies zu bewerten ist und so wichtig die freie Verfügbarkeit von wissenschaftlichen Erkenntnissen für die Gesellschaft ist, so gefährlich ist das Fehlen von Publikationsrestriktionen in bestimmten Bereichen. Um das zu erklären, muss man etwas ausholen.

Verbotenes Wissen

Als "verbotenes Wissen" werden Forschungsresultate bezeichnet, die zu heikel, zu gefährlich oder zu missbrauchsanfällig sind, um allgemein zugänglich gemacht oder öffentlich verbreitet zu werden. "Verbotenes Wissen" ist wesentlicher Bestandteil von wissenschaftlichen Disziplinen wie der Nuklearphysik, der synthetischen Biologie oder der IT-Sicherheitsforschung.

Dementsprechend gehören ausgefeilte Regelwerke zum Umgang mit gefährlichen Wissensbeständen fest zu diesen Disziplinen. Kernphysiker müssen verhindern, dass Wissen, das für die Herstellung von Massenvernichtungswaffen nützlich sein kann, in die falschen Hände gerät. Biologen tun das Gleiche im Hinblick etwa auf Wissen über die Synthese von Viren. Sicherheitsforscher, die kritische Sicherheitslücken entdecken, können auf einen ganzen Apparat an sogenannten Information Sharing Rules zurückgreifen, die sicherstellen sollen, dass die Informationen nur zwischen vertrauenswürdigen Akteuren zirkulieren.

Gefahrenabwehr versus Einschränkung

Stellenmarkt
  1. IT-Systemadministrator / Anwendungsbetreuer (w/m/d)
    ESWE Verkehrsgesellschaft mbH, Wiesbaden
  2. IT-Systemadministrator Linux / Windows (gn)
    HORNBACH Baumarkt AG, Bornheim bei Landau/Pfalz
Detailsuche

Ziel all dieser Maßnahmen ist es, Gefahren für Individuen, Organisationen oder ganze Gesellschaften abzuwenden. Gleichzeitig stehen diese Maßnahmen jedoch im Widerspruch zur Idee des freien Zugangs zu Forschungsergebnissen.

Begründet wird die Wichtigkeit dieses freien Zugangs unter anderem damit, dass nur so Forschungsarbeiten repliziert oder in der wissenschaftlichen Community kritisch diskutiert und weiterentwickelt werden könnten. Nicht zuletzt deshalb hat sich in der KI-Forschung eine starke Mentalität etabliert, den offenen Zugang zu Forschungsarbeiten für richtig und wünschenswert zu halten.

Neben der Schilderung von Forschungsergebnissen teilen Wissenschaftlerinnen und Wissenschaftler Details über ihre KI-Modelle oder gar den gesamten Quellcode auf Plattformen wie Github, Gitlab oder Sourceforge. Diese Entwicklung ist zweifelsohne positiv. Jedoch darf nicht aus den Augen verloren werden, dass KI-Forschung hochgefährliches Wissen hervorbringen kann.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
Wie KI Freiheit, Wohlergehen oder Leben von Menschen gefährdet 
  1. 1
  2. 2
  3. 3
  4. 4
  5.  


Aktuell auf der Startseite von Golem.de
Opel Mokka-e im Praxistest
Reichweitenangst kickt mehr als Koffein

Ist ein Kompakt-SUV wie Opel Mokka-e für den Urlaub geeignet? Im Praxistest war nicht der kleine Akku das eigentliche Problem.
Ein Test von Friedhelm Greis

Opel Mokka-e im Praxistest: Reichweitenangst kickt mehr als Koffein
Artikel
  1. Statt TCP: Quic ist schwer zu optimieren
    Statt TCP
    Quic ist schwer zu optimieren

    Eine Untersuchung von Quic im Produktiveinsatz zeigt: Die Vorteile des Protokolls sind wohl weniger wichtig als die Frage, wer es einsetzt.

  2. Lockbit 2.0: Ransomware will Firmen-Insider rekrutieren
    Lockbit 2.0
    Ransomware will Firmen-Insider rekrutieren

    Die Ransomware-Gruppe Lockbit sucht auf ungewöhnliche Weise nach Insidern, die ihr Zugangsdaten übermitteln sollen.

  3. Galactic Starcruiser: Disney eröffnet immersives (und teures) Star-Wars-Hotel
    Galactic Starcruiser
    Disney eröffnet immersives (und teures) Star-Wars-Hotel

    Wer schon immer zwei Tage lang wie in einem Star-Wars-Abenteuer leben wollte, bekommt ab dem Frühjahr 2022 die Chance dazu - das nötige Kleingeld vorausgesetzt.

m9898 25. Apr 2020

Weißt du was ich mache, wenn ich versehentlich eine killer-AI bei mir auf dem PC starte...

m9898 25. Apr 2020

Welche Branche ist das denn?

Aki-San 24. Apr 2020

Das ist extremst naiv. Entwicklung findet statt, so oder so. Notfalls in einem Hinterhof...

Aki-San 24. Apr 2020

Wo Markt- und Nutzermanipulation mittels AI schon gang und gebe ist. Matchmaking auf...

lestard 22. Apr 2020

Ob das eine universelle KI auch so sieht?



  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    Schnäppchen • Fire TV Stick 4K Ultra HD 29,99€, Echo Dot 3. Gen. 24,99€ • Robas Lund DX Racer Gaming-Stuhl 143,47€ • HyperX Cloud II Gaming-Headset 59€ • Media Markt Breaking Deals [Werbung]
    •  /