• IT-Karriere:
  • Services:

Shadow Bans: Aus den Augen, aus dem Sinn?

Es war am 26. Juli 2018, als US-Präsident Donald Trump ein neues Ziel der Empörung entdeckte: "Twitter SHADOW BANNING prominent Republicans. Not good", schrieb er auf Twitter als Reaktion auf Meldungen, dass einige republikanische Politiker nicht mehr in der Twittersuche auftauchten. Am Ende lag es nur an einem technischen Problem, wie Twitter erklärte. Doch sogenannte Shadow Bans standen plötzlich in der Öffentlichkeit.

Stellenmarkt
  1. operational services GmbH & Co. KG, Nürnberg
  2. Roche Diagnostics Automation Solutions GmbH, Kornwestheim

Shadow Banning ist eine Moderationstechnik, bei der einzelne Nutzer von einer Diskussion ausgeschlossen werden, ohne es zu wissen. Sie selbst bekommen ihre Kommentare und Beiträge angezeigt, doch anderen Usern werden sie ausgeblendet. Die Annahme: Wenn die betroffenen Nutzer merken, dass niemand mit ihnen interagiert, verlieren sie früher oder später das Interesse und verlassen von selbst die Plattform. Das soll effektiver sein als das aktive Sperren oder Löschen eines Accounts, was in vielen Fällen bloß dazu führt, dass sich die Betroffenen einen neuen Account zulegen.

Shadow Bans gibt es im Internet schon seit den 80er Jahren, meist wurden sie in kleineren Communities und Foren durchgesetzt. Seit einigen Jahren aber werden sie auch in einem Atemzug mit größeren Plattformen und sozialen Netzwerken erwähnt. Dabei wird viel gemutmaßt, ob einzelne Dienste nun Shadow Banning betreiben oder nicht. Denn so genau möchten das die Betreiber nicht sagen. Aus gutem Grund: Je mehr Leute über diese Praktik Bescheid wissen, desto ineffektiver ist sie.

Reddit und Instagram setzen Shadow Bans ein

Eine Plattform, die offiziell Shadow Banning eingesetzt hat, ist Reddit. Nach eigenen Angaben war es die erste Form von Sperren überhaupt, die es auf der Seite gab. Vor drei Jahren allerdings hieß es, Reddit ersetze die Shadow Bans durch sogenannte Suspensions: Damit werden Nutzer permanent oder für einen bestimmten Zeitraum von der Diskussion ausgeschlossen und bekommen dies auch prominent mitgeteilt. Shadow Bans seien "gut, um Bots und Spam zu bekämpfen, aber nicht für menschliche User geeignet". Nur durch Transparenz sei es möglich, dass die Betroffenen ihr Verhalten überdenken und anpassen könnten, erklärte Reddit.

Die Plattform hat sich aber offenbar nicht ganz von Shadow Bans abgewendet: Weiterhin berichten zahlreiche Nutzer, dass ihre Aktivität eingeschränkt sei. Im Subreddit r/ShadowBan können sie checken lassen, ob sie möglicherweise betroffen sind. Neben den Suspensions sind Shadow Bans weiterhin ein Mittel, das die Moderatoren der Plattform einsetzen können.

Auch Instagram betreibt mittlerweile so etwas wie "Schattensperren light", nennt das aber nicht so. In den Richtlinien heißt es bloß: "Nicht alle Beiträge und Konten sind berechtigt, unter 'Entdecken' und auf Hashtag-Seiten angezeigt zu werden." Das bedeutet konkret: Auffällige Konten werden zumindest in bestimmten Bereichen der Plattform nicht angezeigt, den eigenen Followern aber schon. Berichten zufolge soll sich der Status nach spätestens zwei Wochen wieder normalisieren. Davon betroffen kann sein, wer etwa zu viele Hashtags verwendet, sich wie ein Bot verhält oder "unangebrachte" Inhalte postet.

Das Problem von Shadow Bans, sei es auf Reddit, Instagram oder anderen Plattformen, ist wie schon bei dem Einsatz von künstlicher Intelligenz die Transparenz: "Ich denke, Shadow Bans sind unfair den Usern gegenüber, weil sie nicht wissen, was genau an ihren Inhalten falsch war", sagt Sana Ahmad. Indem man ihnen nicht mitteile, dass sie moderiert wurden, entziehe man ihnen die Option, eine möglicherweise falsche Entscheidung anzufechten.

Gleichzeitig ermöglichen Shadow Bans auch Zensur und Willkür, indem einzelne Gruppen von der Konversation ausgeschlossen werden: So hat Instagram Anfang des Jahres Berichten zufolge vermehrt Accounts gebannt, die Inhalte und Hashtags zum Thema Pole-Dancing veröffentlichten, weil diese mutmaßlich gegen die Richtlinien verstoßen, obwohl die meisten gar keine nackte Haut zeigten. Betroffen waren vor allem Frauen und Sexworker.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed
 Künstliche Intelligenz - die vermeintliche Lösung für allesPeer-Moderation: Sollen sich die User doch selbst moderieren! 
  1.  
  2. 1
  3. 2
  4. 3
  5. 4
  6. 5
  7.  


Anzeige
Spiele-Angebote
  1. 3,95€
  2. 7,99€
  3. 19,49€

TW1920 30. Okt 2019

Deswegen meinte der Threadersteller ja, dass das halt nur bei neuen Accounts was bringt...

Astorek 29. Okt 2019

Zwischen "Blödeln, Meckern, Kritik und Negatives" und menschenverachtender Hetze besteht...

Handle 29. Okt 2019

Ich habe ein Beispiel von hier: Beim letzten Artikel von Valerie Lux hier auf Golem wurde...

Dwalinn 28. Okt 2019

Bisher gab's bei mir immer ne kleine Erklärung warum man einen Kommentar gelöscht hat...

Salzbretzel 28. Okt 2019

Bei dem Thema Mods denke ich gerne an Früher zurück. Als es Foren und noch keine...


Folgen Sie uns
       


    •  /