IMHO: Wenn Facebook keine Fake-News will, muss es sich ändern
Nach heftiger Kritik, Facebook habe mit dem Verteilen von Falschinformationen die US-Präsidentschaftswahlen beeinflusst, verteidigt Zuckerberg seinen Konzern. Die "Wahrheit" zu finden, sei kompliziert. Willkommen in der Wirklichkeit, Mark!

Vor allem viele Demokraten in den USA haben Facebook angegriffen, weil es die Präsidentschaftswahlen beeinflusst habe. Aber auch Journalisten und professionelle Faktenprüfer beklagten sich bereits während des Wahlkampfes über die Übermacht von Falschmeldungen und sprachen vom post-faktischen Zeitalter.
Facebook hält nun öffentlich dagegen. Mehr als 99 Prozent von dem, was Leute auf Facebook sehen, sei "authentisch", schrieb CEO Mark Zuckerberg am Samstag in einem Blogpost. Daher sei es extrem unwahrscheinlich, dass Falschmeldungen den Ausgang der US-Wahl beeinflusst hätten. Obgleich authentisch nicht dasselbe ist wie wahr, versprach Zuckerberg, Facebook wolle in Zukunft besser gegen Unwahrheiten vorgehen. Jedoch: "Die Wahrheit zu identifizieren, ist kompliziert".
Das stimmt zwar, heißt aber nicht, dass genau das nicht Facebooks Job ist.
Kann Facebook Journalismus?
Natürlich ist die Sache vertrackt. Ein Facebook-Post, der behauptet, am 2. Januar habe es in Berlin 29 Grad im Schatten gehabt, ist zwar offensichtlich und leicht verifizierbar falsch. Eine Meldung, derzufolge Einwanderer Deutschland unsicherer machen, ist dagegen viel schwieriger zu widerlegen. Sie zu löschen oder auf andere Art zu zensieren, wäre zu Recht problematisch. Der Grat ist also schmal und die Aufgabe nicht leicht zu lösen. Der Übergang von einer (womöglich bewussten) Falschmeldung zu einer Meinung ist fließend.
Deswegen gibt es für diese Arbeit traditionellerweise eigene Berufszweige: Journalisten trainieren in der Ausbildung nicht nur unterschiedliche Schreibstile, sie lernen auch ethische Standards und Techniken, um Fakten von Falschinformationen zu unterscheiden. Auch an Universitäten gelehrte wissenschaftliche Arbeitsmethoden wurden über Jahrhunderte hinweg speziell für die Wahrheitsfindung in ihrem jeweiligen Fach entwickelt. Hinzu kommen etwa professionelle Faktenprüfer und spezialisierte, oft gemeinwohlorientierte Nichtregierungsorganisationen.
Natürlich sind auch Wissenschaftler und Journalisten Menschen, die Fehler machen können. Es ist aber Teil ihres Berufs und idealerweise ihres Selbstverständnisses, solche Fehler zu minimieren und - wo nötig - transparent zu korrigieren. Also genau das zu tun, was Facebook mit Verweis auf zu viel Komplexität ablehnt.
Die Crowd soll es richten
Mark Zuckerberg kündigte stattdessen erst einmal an, stärker auf die Mitarbeit der Nutzer zu setzen. Sie sollen Fake-News und Hoaxes über einen Flag-Button melden können. Das ist natürlich vor allem deshalb toll, weil es Facebook fast nichts kostet. Ob das bedeutet, dass die so gemeldeten Inhalte von Mitarbeitern professionell überprüft und gegebenenfalls entfernt werden, ist unklar. Wahrscheinlicher ist, dass Facebook an einem Algorithmus arbeitet, der dies automatisiert erledigt.
So hat es der Konzern bereits im Sommer mit seiner "Trending Topics"-Liste gehandhabt. Diese wurde früher von einem eigenen Mitarbeiter-Team betreut, dann aber an einen Algorithmus übergeben, auch weil dem Konzern Parteilichkeit bei der Themenwahl vorgeworfen wurde. Seitdem wurde das "Trending Topics"-Team entlassen und die Themenauswahl einem Algorithmus überlassen - offenbar mit mäßigem editorialem Erfolg.
Facebook muss Verantwortung übernehmen
Niemand weiß, wie Zuckerberg auf seine 99 Prozent authentische Posts kommt. Eine erste Überprüfung durch Michael Caulfield von der Washington State University kommt zu ganz anderen Ergebnissen. Demnach werden Fake-Posts viel stärker auf Facebook geteilt als selbst die meistgelesenen Artikel seriöser, lokaler US-Zeitungen wie des Boston Globe. Das Problem dabei: Selbst wenn diese sich später als Lüge entpuppen, erreicht die Korrektur die ursprünglichen Leser oft nicht mehr.
In der Vergangenheit bestand Facebook stets darauf, als Plattform-Anbieter für die im Netzwerk verteilten Inhalte keine Verantwortung zu tragen. Als "Entscheider über die Wahrheit" wolle Facebook nicht auftreten, insistiert Zuckerberg. Darum wird er aber nicht herumkommen. Denn auch wenn Facebook nicht für die Wahl von Donald Trump verantwortlich ist, der Werbekonzern ist schon lange groß genug, um publizistisch die politischen und gesellschaftlichen Debatten dieser Welt zu beeinflussen. Auch wenn das nicht sein ursprüngliches Ziel war.
Das Beispiel der Trending Topics zeigt: Egal ob Facebook die Themenauswahl echten Menschen oder seinen Algorithmen anvertraut, im unausweichlichen Auswahlprozess der Informationen besteht immer die Gefahr, Vorurteile und Verzerrungen zu verstärken. So wie jede seriöse Zeitung auch, muss der Konzern daher seiner Verantwortung als Kurator und Verbreiter von Informationen gerecht werden und den Auswahlprozess professionalisieren.
Vorschläge gibt es genügend
Eine Möglichkeit wäre der Einsatz eines Teams unabhängiger und nach journalistischen Standards arbeitender Mitarbeiter. Diese können natürlich durch Algorithmen oder Nutzer-Ratings unterstützt werden. Ergänzend könnte Facebook seinen Nutzern unter einem Post jeweils auch abweichende Meinungen zum Thema anzeigen statt Inhalte, die dieselbe Position wiederholen.
Denkbar wäre auch eine Kennzeichnung der Posts nach Quellentyp: ein Icon für professionelle Zeitungsangebote, eines für private Blogs, eines für nicht verifizierte Quellen, und so weiter. Twitter markiert verifizierte Accounts seit Langem mit einem blauen Häkchen und ermöglicht damit recht erfolgreich die Erkennung von (natürlich erlaubten) Fake-Accounts.
Solange der Konzern aber seine Rolle darauf beschränkt, "Leuten zu geben, was sie sehen wollen", damit jeder Nutzer "über die Nachrichten sprechen kann, die ihn interessieren", bleibt Facebook nicht nur weit hinter den journalistischen Standards zurück. Es wird auch kein verlässlicher Nachrichtenlieferant - und bleibt die erste Adresse für Fake-News.
IMHO ist der Kommentar von Golem.de. IMHO = In My Humble Opinion (Meiner bescheidenen Meinung nach)
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Nein, Facebook hat wie Google eine Monopolstellung weswegen man nicht nur mehr Ansprüche...
Yep, Medienkompetenz wäre eigentlich DAS Thema für Sozialkundeunterricht.
einen stören. Es geht um soziale Netzwerke, die sich explizit dadurch auszeichnen, dass...
Ich glaube es ist schon ein unterschied ob ein Journalist (also ein MENSCH) das macht...