Chatbots und die Leiden des jungen Werther
So setzte das deutsche Bundesverkehrsministerium bereits im Jahr 2017 eine Ethik-Kommission ein, um die Risiken im Zusammenhang mit autonomem Fahren umfassend zu bewerten (PDF). Fragen zur Haftung bei Unfällen, die von Fahrzeugen im Autopilot-Modus verursacht werden, sind zweifellos berechtigt und bedürfen einer Klärung.
Ähnliches gilt für das ethische Dilemma bei der Programmierung selbstfahrender Autos, die verschiedene Arten von Personenschäden bei unvermeidbaren Unfällen gegeneinander abwägen muss. Dennoch wird die Bedeutung dieser Diskussionen durch die Tatsache relativiert, dass die Gesamtzahl der Verkehrsunfälle infolge eines flächendeckenden Einsatzes autonomer Fahrzeuge erheblich abnehmen dürfte.
Verstörende Gespräche
Ein weiteres prominentes Problem ist das Risiko unangemessener Äußerungen einer KI gegenüber den Anwendern. Die Reaktionen eines Chatbots können verstörend oder verletzend sein und im schlimmsten Fall könnte ein fehlgeleiteter Chatbot labile Benutzer dazu verleiten, sich selbst oder anderen Schaden zuzufügen.
Solche Risiken im Medienkonsum sind jedoch keineswegs neu: Schon Goethes Werther wird beispielsweise mit einer Welle von Selbstmorden vor etwa 250 Jahren nachgeahmt.
Neu ist im Falle der AGI die Skalierbarkeit: Es wäre höchst problematisch, wenn künstliche Intelligenz menschenfeindliche Ideen, demokratiezersetzende Konzepte oder stigmatisierende Vorurteile in großem Umfang verbreiten würde. Doch auch in der Vergangenheit haben bahnbrechende Technologie die Kräfteverhältnisse im Kampf um die öffentliche Meinung verändert.
Ein Beispiel dafür ist die Dominanz, die Google mit seinem beherrschenden Marktanteil unter den Suchmaschinen erworben hat: Allein durch die Reihenfolge, in der die Suchergebnisse präsentiert werden, kann politischer Einfluss ausgeübt werden.
Würde der Algorithmus von Google beispielsweise Internetseiten in geschlechtsneutraler Sprache höher oder niedriger gewichten als andere, dann wäre die gesellschaftliche Auseinandersetzung um dieses Thema damit praktisch über Nacht entschieden. Schließlich kann es sich kaum ein Produzent von Onlineinhalten leisten, die Präferenzen der Suchmaschine zu ignorieren.
Chat' dir deine Meinung!
Auf ähnliche Weise könnte eine massenhaft skalierte und in unterschiedliche Dienste eingebaute KI unsere Gesellschaft durch die in ihr verankerten Meinungen und Vorurteile beeinflussen. Wie auch im Fall von Google ist eine solche Konzentration von Macht ohne demokratische Legitimation bedenklich.
Immerhin scheinen die Mechanismen des Marktes und das ständige Risiko regulatorischer Eingriffe die zentralen Akteure bislang zu verantwortungsvollem Handeln zu bewegen. Tatsächlich präsentiert ChatGPT in den meisten Fällen politische oder gesellschaftliche Themen äußerst zurückhaltend und ausgewogen – im Gegensatz zu vielen etablierten Boulevardmedien oder Fernsehsendern.
Dies gibt Anlass zur Hoffnung, dass sorgfältig und verantwortungsbewusst trainierte Sprachmodelle sogar zur Verringerung gesellschaftlicher Spaltung beitragen können, indem sie kontroverse Themen und verschiedene Standpunkte objektiv darstellen.
Abseits der großen kommerziellen Anbieter ist jedoch auf jeden Fall damit zu rechnen, dass künstliche Intelligenz zur Meinungsbildung missbraucht werden wird. Schon heute gibt es eine Vielzahl konkurrierender Sprachmodelle und nicht bei allen wurde in der Entwicklung Wert auf ethische Standards gelegt.
Der offene Brief des FLI warnt explizit vor der Überflutung von Informationskanälen durch KI-generierte Propaganda. Für diese sind allerdings vor allem die sozialen Medien anfällig und es drängt sich die Frage auf, ob deren Zuverlässigkeit als Quelle für politische Informationen überhaupt noch weiter sinken kann. Tatsächlich ist sogar der umgekehrte Effekt denkbar, dass also die offensichtliche massenhafte Verbreitung gefälschter Bilder und anderer Inhalte das öffentliche Bewusstsein für diese Problematik schärft.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
AGI! Und dann? | Welche KI-Risiken sind die besonders kritischen? |
es scheint nicht so, als ob du den Artikel gelesen hast. Schade. Also Forscher gehen...
BGE wird es schon mit 50% Arbeitslosigkeit geben. Dann bekommen die oben nämlich Angst.
"Vor 100 Jahren hat man auch gesagt, dass sich Glühbirnen nicht durchsetzen, weil sie...
Danke lieber Podcast-Beaftragter :-)
Kommentieren