Emotionsforschung: Warum im Netz so erbittert gestritten wird

Wer in Foren, Blogs oder soziale Netzwerke schaut, der könnte denken, dass im Netz nur gestänkert, beleidigt und geflucht wird: Kommentarspalten füllen sich mit gegenseitigen Anfeindungen, die Emotionen quellen über, Wörter wie "Penner" , "Idiot" und "Volltrottel" zählen noch zu den harmlosen Beschimpfungen. Das hat vor kurzem Markus Beckedahl, Betreiber des populären Blogs netzpolitik.org(öffnet im neuen Fenster) , dazu gebracht, sich in seinem Text " Einfach mal die Kommentare schließen?(öffnet im neuen Fenster) " über die Diskussionskultur zu echauffieren - und stieß damit eine Debatte an.
Doch diese Debatte beschäftigt nicht nur die Netzbürger - sondern auch die Wissenschaft. Schon seit über drei Jahren widmet sich ein europäisches Forschungskonsortium dem Wesen von Netz-Communitys. Wissenschaftler verschiedener Fachrichtungen aus fünf EU-Ländern (Polen, England, Österreich, Slowenien, Deutschland) und der Schweiz analysieren die Diskussionskultur in Blogs, Foren und sozialen Netzwerken. Emotionspsychologen, Informatiker, theoretische Physiker sowie Experten für künstliche Intelligenz, virtuelle Realität und komplexe Systeme untersuchen unter dem Projektnamen " Cyberemotions(öffnet im neuen Fenster) " , warum teils so emotional gestritten wird - und was man dagegen tun kann.
Einer der wichtigsten Unterschiede zwischen realer und virtueller Diskussion ist: Im Netz treffen Menschen aufeinander, die sich nicht kennen. Diese Aussage mag banal klingen, doch aus ihr leiten sich Erkenntnisse ab, warum der Ton in Foren, Blogs und Kommentarbereichen oft so rau ist. Mit Anonymität hat das laut Psychologie-Professor Arvid Kappas von der Jacobs University in Bremen(öffnet im neuen Fenster) nämlich nicht viel zu tun.
Der an dem Projekt beteiligte Forscher hat dazu ein Experiment mit zwei Kleingruppen durchgeführt: Jede Gruppe besteht aus zwei Personen, die über das Internet zu einem Thema diskutieren sollten. Die eine Gruppe sollte sich vorher kennenlernen, fragen, wo die andere Person herkommt, was sie macht. Die andere Gruppe startete sofort in die Diskussion. Das Ergebnis: Die Personen, die sich vorher nicht über persönliche Dinge unterhalten haben, gingen rauer miteinander um als die, die sich vorher gegenseitig kennengelernt hatten.
Das spiegelt sich nach Untersuchungsdaten der Forscher auch in Internetcommunitys wider: Die österreichische Nachrichtensite " derstandard.at(öffnet im neuen Fenster) " zum Beispiel hat eine sehr rege Community; einige User diskutieren dort schon seit Jahren in den Kommentaren miteinander. Viele benutzen zwar Pseudonyme, doch sie kennen sich untereinander - und entsprechend reagieren sie weniger harsch aufeinander. "Wenn die User der Community wissen, 'Ach, das ist wieder der eine, der holt immer Marx aus der Kiste', dann verhalten sie sich ihm gegenüber mehr wie bei einem Bekannten" , sagt Kappas. "Ob der Benutzername nun 'Steffen Meyer' oder 'Anonymous' ist, ist fast egal."
Aber eben nur fast.
Denn eine Klarnamenpflicht - also das Verbot, ein Pseudonym zu benutzen - ändert zwar selten den Umgang mit anderen Personen, aber den Umgang mit dem eigenen Wort. Wenn Menschen mit ihrem Namen für ihre Aussagen geradestehen, sagen sie nicht immer das, was sie eigentlich meinen. Kurz gesagt: Sie zensieren sich selbst. Zwar tritt dieser Effekt nicht bei allen Internetnutzern ein - gerade die Generation Facebook scheint da weniger scheu zu sein -, doch auch deswegen protestierten so viele Netzaktivisten gegen den Vorstoß von Innenminister Hans-Peter Friedrich, dass Internetnutzer mit " offenem Visier(öffnet im neuen Fenster) " kommentieren sollen. Sie befürchteten, dass Meinungen abseits des Mainstreams so nicht mehr geäußert würden, sahen darin eine Gefahr für die Meinungsvielfalt.
Mit Wissenschaft zu besserem Diskussionsklima?
Doch ganz unabhängig von dem politischen Diskurs bleibt die Frage: Kann die wissenschaftliche Basis Internetseiten-Betreibern und Administratoren helfen, für ein besseres Diskussionsklima in Blogs und Foren zu sorgen? Darauf hoffen die Forscher zumindest. Ihr langfristiges Ziel ist es, die Internet-Communitys nicht nur zu verstehen, sondern mittels Computerprogrammen Vorhersagen zu treffen, Trends zu erkennen - um nötigenfalls frühzeitig darauf reagieren zu können.
Bestes Beispiel für einen solchen Versuch ist das Programm Sentistrength: Dieses erkennt, ob ein geschriebener Satz positive oder negative Stimmungen beinhaltet - und welche Stimmungen überwiegen. Die Entwickler werben damit, dass Sentistrength bei kurzen Texten in sozialen Netzwerken an menschliche Fähigkeiten heranreicht. Auf der Internetseite http://sentistrength.wlv.ac.uk/(öffnet im neuen Fenster) kann man das in einer Miniversion selbst überprüfen: Man gibt einen Satz in ein Textfeld ein und klickt dann auf "Detect Sentiment" (grob übersetzt: "Emotionen aufspüren" ) - daraufhin gibt das Programm auf einer negativen und einer positiven Skala (-1 bis -5, bzw. +1 bis +5) die Stärke und Richtung der Emotionen an. Der Benutzer kann die Analyse noch auf Stichworte und Themen konkretisieren.
Das Programm sucht dann nach Wörtern, die emotional aufgeladen sind. Zwar erkennt Sentistrength nicht jedes Schimpfwort und nicht jeden Kosenamen, aber im Großen und Ganzen scheint es gut zu funktionieren.
Nur eine kleine Spielerei? Mitnichten.
Laut den Entwicklern - unter ihnen auch der Psychologe Kappas - wurde das Programm an Technologie- und Marktforschungsfirmen in den USA, Europa und Australien verkauft - eine dieser Firmen soll sogar zu den Top Ten der größten Unternehmen der Welt zählen.
Schweizer Forscher nutzten Sentistrength zur Analyse von Meldungen des Kurznachrichtendienstes Twitter. Ihr Ergebnis: Die Wahrscheinlichkeit ist höher, dass eine emotional aufgeladene Nachricht geretweetet - also weiterverbreitet - wird als ein eher nüchtern geschriebener Tweet. Und zwar bis zu fünf Mal so hoch. Die Wissenschaftler nennen diesen Effekt in ihrem online zugänglichen Paper ( Word-Dokument(öffnet im neuen Fenster) ) "Emotional Divergence" .
Auch während der Olympischen Spiele in London wurde das Programm eingesetzt - zu Unterhaltungszwecken: Die Anwendung scannte Twitter-Meldungen, die sich mit Olympia-Themen beschäftigten, und je nach Gefühlslage der Nutzer wurde das große Riesenrad der britischen Hauptstadt, das London Eye, mal mehr, mal weniger(öffnet im neuen Fenster) beleuchtet.
In Zukunft soll das Programm aber noch mehr können: Der Algorithmus soll als Frühwarnsystem für Wutwellen im Netz - die Shitstorms - dienen. Die Idee: Schaukelt sich in einem Forum negative Stimmung hoch, schlägt ein Automatismus Alarm und schickt dem Administrator zum Beispiel eine E-Mail-Benachrichtigung, damit frühzeitig reagiert werden kann. Denn Schnelligkeit ist wichtig. Die Forscher haben anhand ihrer Daten festgestellt: Je länger ein Shitstorm bereits wütet, desto schwieriger ist es, ihm entgegenzuwirken und ihn eventuell zu stoppen - etwa durch eine Gegendarstellung oder im drastischsten Fall durch Schließung der Kommentare.
Ein österreichisches Forschungsteam arbeitet derzeit an einem solchen Prototyp. Marktreif ist er aber noch nicht.
Die EU fördert das gesamte Forschungsprojekt(öffnet im neuen Fenster) "Cyberemotions" mit 3,6 Millionen Euro für vier Jahre, begonnen im Jahr 2009. Millionen für die Erforschung von Internet-Communitys? Einige wundern sich vielleicht, warum die Europäische Union ein solches Unterfangen finanziert. Psychologie-Professor Kappas wundert das nicht. "Forschung in diesem Bereich wird vor allem in den USA betrieben - und dort auch nur hinter verschlossenen Türen großer Privatunternehmen. Da wird für eine kleine Firma wie Instagram eine Milliarde Dollar bezahlt, und wir wissen gar nicht genau warum" , sagt Kappas. "Unsere Forschung hingegen wird aus öffentlichen Mitteln finanziert und ist deswegen jedem frei zugänglich."
In der Tat stecken die großen US-Technologieunternehmen viel in die Forschung: 2011 investierte Google mit(öffnet im neuen Fenster) 5,16 Milliarden Dollar 14 Prozent seiner Einnahmen in Forschung und Entwicklung, bei Facebook(öffnet im neuen Fenster) flossen rund 388 Millionen Dollar und damit rund 9,5 Prozent des Umsatzes in diesen Bereich. So gesehen erscheinen die 3,6 Millionen Euro der EU geradezu mickrig.
Doch auch wenn die Forschung voranschreitet, hängt letzten Endes viel an den Leuten, die die Diskussionskultur geschaffen haben: also den Nutzern selbst. Denn eines haben die Daten der Forscher auch ergeben: Nicht überall wird nur gestänkert, beleidigt und geflucht. Im sozialen Netzwerk Myspace(öffnet im neuen Fenster) etwa - ja, das gibt es noch - wird ständig metaphorisch umarmt und gekuschelt. Wer da schon einen etwas nüchternen Ton anschlägt, gilt gleich als grob. Krasses Gegenteil dazu bildet etwa die britische Nachrichtenwebsite BBC News(öffnet im neuen Fenster) , wo ein eher raues Klima herrscht.
Fraglich, was schlimmer ist: Die harten politischen Diskussionen von BBC News oder die Alle-haben-sich-furchtbar-lieb-Atmosphäre von Myspace. Wahrscheinlich liegt die Antwort in der Mitte.
Aber darüber könnte man ja mal diskutieren.



