Zum Hauptinhalt Zur Navigation

Playboy-Sperre auf Facebook: Wenn Meta zur heimlichen Medienaufsicht wird

1,9 Millionen Follower - über Nacht weg. Die Sperre des deutschen Playboy durch Meta zeigt, wie fragil journalistische Reichweite auf Big-Tech-Plattformen ist.
/ Oliver Jessner
16 Kommentare News folgen (öffnet im neuen Fenster)
Konzerne wie Facebook agieren wie Gatekeeper für Informationen. (Bild: Justin Tallis / AFP via Getty Images)
Konzerne wie Facebook agieren wie Gatekeeper für Informationen. Bild: Justin Tallis / AFP via Getty Images

Die Redaktion des deutschen Playboy staunte nicht schlecht: Vor einigen Wochen war die offizielle Facebook-Seite mit rund 1,9 Millionen Followern plötzlich verschwunden. Meta hatte die Seite deaktiviert - laut Redaktion geschah dies ohne Vorankündigung. Eine detaillierte Begründung lag der Redaktion nach eigener Aussage zunächst nicht vor.

Auf Nachfragen habe das Unternehmen wochenlang nicht reagiert, vom Kundensupport habe es nur widersprüchliche Hinweise gegeben. Erst die Einschaltung eines Anwalts brachte Bewegung in die Sache.

Für den Chefredakteur von Playboy Deutschland, Florian Boitin, war der Vorfall mehr als ein Ärgernis: Er warnte vor einem " gefährlichen Präzedenzfall(öffnet im neuen Fenster) " , bei dem Meta "faktisch als Zensurinstanz" über journalistische Inhalte entscheide, "und das auch noch ohne Angabe von Gründen," was nichts weniger als die Pressefreiheit untergrabe.

Plattformen als neue Gatekeeper

Der Fall Playboy Deutschland mag ungewöhnlich klingen, doch er steht für ein strukturelles Problem. Große Onlineplattformen wie Facebook, Instagram, Youtube oder Suchmaschinen wie Google fungieren im digitalen Zeitalter als Gatekeeper der Öffentlichkeit.

Sie bestimmen mittels Algorithmen und Moderation, welche journalistischen Inhalte ihr Publikum erreichen - oft intransparent und ohne öffentliche oder demokratische Kontrolle.

Welche Macht diese US-Konzerne über den Nachrichtenfluss haben, wie der Digital Services Act (DSA) der EU hier für mehr Transparenz sorgen will und warum dennoch die Kritik an privater "Plattformzensur" wächst, zeigt ein Blick auf aktuelle Beispiele und Regelungen.

Algorithmen bestimmen, was wir sehen

Ein eindrückliches Beispiel lieferte Facebook selbst im Jahr 2018: Damals kündigte Mark Zuckerberg einen grundlegenden Algorithmus-Umbau des News Feeds an.

Künftig sollten "Beiträge von Freunden und Familie" priorisiert werden, während Inhalte von Medien und Unternehmen deutlich seltener erscheinen würden. Öffentlich begründete Facebook den Schritt mit dem Wunsch, "die Zeit auf Facebook sinnvoller" zu gestalten und Filterblasen aufzubrechen(öffnet im neuen Fenster) .

Auch Google beeinflusst durch Ranking-Änderungen massiv die Sichtbarkeit von Nachrichtenseiten. Ein Update des Such-Algorithmus kann den Traffic von Onlinemagazinen sprunghaft sinken oder steigen lassen - oft ohne dass klar ist, warum.

Diese Abhängigkeit schafft ein Machtgefälle: Redaktionelle Inhalte stehen im Schatten kommerzieller Plattformlogiken. Während Presseverlage an publizistische Grundsätze und mitunter an Rundfunk- oder Presseräte gebunden sind, entziehen sich die kuratorischen Entscheidungen der Tech-Konzerne bislang weitgehend externer Kontrolle.

Wie tief diese Verschiebung bereits greift, zeigt die Reuters Digital News Study 2024: 67 Prozent der Deutschen stoßen zuerst über soziale Netzwerke auf Nachrichten - die Gatekeeper-Rolle verlagert sich damit von Redaktionen zu Plattformen (PDF)(öffnet im neuen Fenster) .

Vier Präzedenzfälle für Plattformzensur

Neben dem Playboy-Deutschland-Fall gibt es noch deutlich gravierendere Fälle, in denen Plattformentscheidungen journalistische Inhalte massiv eingeschränkt haben. Einige der bekanntesten Beispiele:

  • Facebook entfernte 2016 das ikonische Vietnamkriegsfoto eines unbekleideten Mädchens, das vor einem Napalmangriff flieht - ungeachtet seines unbestreitbaren historischen und journalistischen Werts. Die Löschung des Pulitzer-prämierten Bildes löste globalen Protest aus. Norwegens größtes Zeitungshaus Aftenposten druckte das Foto daraufhin auf seiner Titelseite und warf Zuckerberg vor(öffnet im neuen Fenster) , seine Macht als Chef eines zentralen Nachrichtendistributors zu missbrauchen.
  • Im Februar 2021 demonstrierte Meta die Marktmacht seiner Plattform als Reaktion auf ein geplantes Gesetz: Facebook blockierte kurzerhand sämtliche Nachrichteninhalte in Australien(öffnet im neuen Fenster) . Weder konnten Nutzer Artikel teilen noch australische Medien ihre eigenen Posts veröffentlichen; sogar internationale News-Links wurden für Australier gesperrt.
  • Während der Eskalation in Gaza im Mai 2021 häuften sich Beschwerden, dass Meta massenhaft pro-palästinensische Beiträge entfernt(öffnet im neuen Fenster) oder deren Sichtbarkeit eingeschränkt habe.
  • Im US-Wahlkampf 2020 versuchten Social-Media-Firmen verstärkt, falsche oder gehackte Informationen einzudämmen - und gerieten dabei in Konflikt mit klassischen Medien. So bremsten Facebook und Twitter im Oktober 2020 die Verbreitung eines New-York-Post-Artikels über Joe Bidens Sohn aus, dessen Quellen ihnen dubios erschienen(öffnet im neuen Fenster) .

Diese Beispiele zeigen ein Muster: Journalistische Inhalte können von Plattformbetreibern einseitig entfernt, blockiert oder unsichtbar gemacht werden, sei es durch strikte Gemeinschaftsstandards, automatisierte Filter oder strategische Unternehmensentscheidungen.

Für die betroffenen Medien und Journalistinnen ist oft weder der genaue Anlass klar noch gibt es vorab eine unabhängige Prüfung. Die Folge sind Einschränkungen der Pressefreiheit auf privatwirtschaftlichem Weg: Was gesagt, gezeigt oder gelesen werden kann, hängt vom Gutdünken einiger weniger Tech-Konzerne ab.

Gerade weil Plattformen zum unverzichtbaren Distributionskanal geworden sind, wirken solche Eingriffe wie eine private Inhaltskontrolle ohne Rechtsweg, bislang.

Europas Antwort auf die Plattformmacht

Mit dem Digital Services Act (DSA) versucht die Europäische Union, diesen Verhältnissen etwas entgegenzusetzen. Die EU-Verordnung(öffnet im neuen Fenster) , die letztes Jahr in Kraft getreten ist, soll große Onlineplattformen transparenter und rechenschaftspflichtiger machen.

Ihr Anspruch: Die Blackbox der Plattformentscheidungen soll geöffnet, die Machtverteilung zwischen Nutzern, Medien und Tech-Konzernen neu austariert werden. Erstmals gibt es klare Regeln, wie soziale Netzwerke und Co. mit Inhalten umgehen müssen - und es gibt Aufsichtsbehörden, die das überwachen.

Ein zentrales Element des Digital Services Act ist die Pflicht, Moderationsentscheidungen detailliert zu begründen. Artikel 17 Absatz 3 DSA schreibt vor(öffnet im neuen Fenster) , dass Plattformen den Betroffenen "klare und spezifische Motive" für jede Löschung oder Sperrung nennen und einen leicht zugänglichen Beschwerdeweg anbieten müssen.

Es reicht nicht mehr, wie im Playboy-Fall geschehen, Nutzer mit nichtssagenden Standard-Hinweisen abzuspeisen ("Dieser Inhalt ist derzeit nicht verfügbar"). Vielmehr seien "klare und spezifische Begründungen" nötig. Darüber hinaus müssen Facebook, Twitter, Youtube und Co. nutzerfreundliche Beschwerdewege anbieten.

Wer sich ungerecht behandelt fühlt, kann eine Überprüfung verlangen - zunächst intern und, falls nötig, durch unabhängige Streitbeilegungsstellen. Der DSA ermächtigt Nutzer ausdrücklich, Moderationsentscheidungen vor unabhängigen Gremien oder letztlich gerichtlich anzufechten.

Transparenzpflichten für Very Large Online Platforms

Für die größten Plattformen, in EU-Terminologie VLOPs (Very Large Online Platforms) genannt, mit über 45 Millionen Nutzern in Europa - gehen die Vorgaben noch weiter. Sie müssen halbjährlich Transparenzberichte vorlegen, die unter anderem offenlegen, wie viele Inhalte sie aus welchen Gründen entfernt habe.

Zudem hat die EU eine öffentlich einsehbare DSA-Transparenzdatenbank(öffnet im neuen Fenster) geschaffen, in der alle Lösch- und Sperrentscheidungen samt Begründung nahezu in Echtzeit dokumentiert werden.

Der DSA will somit das bisherige Ungleichgewicht zumindest teilweise korrigieren. "Größere demokratische Kontrolle und Aufsicht über systemische Plattformen" zu ermöglichen, gehört ausdrücklich zu seinen Zielen.

Meta über die eigene DSA-Bilanz

In einem Blogpost vom 28. November 2024 meldet Meta "wesentliche Fortschritte" bei der Umsetzung des Digital Services Act. Ein unabhängiger Audit bescheinigte Facebook und Instagram für mehr als 90 Prozent der geprüften 54 Unterartikel volle Konformität und stellte keine Adverse-Verstöße fest(öffnet im neuen Fenster) . Für die Prüfung stellte Meta ein Spezialteam von über 40 Personen ab und investierte laut eigenen Angaben rund 20.000 Arbeitsstunden; insgesamt arbeiteten bereits mehr als 1.000 Beschäftigte konzernweit an DSA-Lösungen.

Fünf kleinere Except-for-Befunde betrafen unter anderem fehlende Kontextangaben in der Ad-Library und fehlende Opt-out-Möglichkeiten bei Facebook Dating - diese Punkte seien teilweise schon nachgebessert, die restlichen Anpassungen liefen noch.

Parallel veröffentlichte Meta erstmals einen Satz detaillierter Transparenz- und Risikoberichte und verspricht, die jährlichen Audits künftig zur "kontinuierlichen Verbesserung" zu nutzen.

Der Autor meint

Der Fall der Playboy-Deutschland-Seite zeigt, wie abhängig redaktionelle Angebote inzwischen von undurchsichtigen Plattformregeln sind. Der DSA öffnet zwar erstmals eine juristische Tür zu mehr Transparenz und Widerspruchsmöglichkeiten. Doch echte Kontrolle entsteht erst, wenn Behörden, Medienhäuser und Zivilgesellschaft die neuen Instrumente konsequent nutzen und Verstöße sanktioniert werden.

Solange Algorithmen im Hintergrund über Reichweite entscheiden, bleibt die Meinungsvielfalt verletzbar. Entscheidend ist daher, dass demokratische Instanzen künftig schneller, technikaffiner und unabhängiger prüfen können, ob private Moderationsentscheidungen mit öffentlichen Kommunikationsgrundrechten vereinbar sind.

Erst wenn diese Checks and Balances greifen, wird sich zeigen, ob das Versprechen eines faireren digitalen Informationsraums eingelöst wird oder ob die Machtbalance weiter zu Lasten des Journalismus kippt.

Oliver Jessner(öffnet im neuen Fenster) bringt 14 Jahre Erfahrung in der Softwareentwicklung und Unternehmertum mit und schreibt über Wirtschaft, New Work, Start-ups und KI.


Relevante Themen