Kampf gegen Kindesmissbrauch: Die wichtigsten Antworten zur Chatkontrolle
Was steckt genau hinter den Plänen der EU-Kommission zur Chatkontrolle und wie gefährlich wäre deren Umsetzung?

Die EU-Kommission will den Kampf gegen den sexuellen Missbrauch von Kindern verschärfen. Dazu hat sie am 11. Mai 2022 einen Verordnungsentwurf vorgelegt, der soziale Medien, Hosting-Anbieter und Messengerdienste zum Erkennen von Missbrauchsmaterial und Anwerbungsversuchen von Kindern (Cybergrooming) verpflichten soll. Betroffen sind aber auch Internetprovider und Appstores, die auf Anordnung den Zugang zu inkriminierten Inhalten oder Apps blockieren müssen. Golem.de erläutert die Hintergründe der Pläne.
Was will die EU-Kommission erreichen?
- Kampf gegen Kindesmissbrauch: Die wichtigsten Antworten zur Chatkontrolle
- Wie kann so ein Scan funktionieren
- Warum ist die Chatkontrolle problematisch?
- Hilft die Chatkontrolle überhaupt gegen Kindesmissbrauch?
Nach Angaben der Kommission hat die Verbreitung von Missbrauchsmaterial seit Beginn der Coronavirus-Pandemie stark zugenommen. Das National Center for Missing & Exploited Children (NCMEC) erhielt demnach im Jahr 2021 fast 30 Millionen Hinweise, Ermittler identifizierten 4.000 neue Missbrauchsopfer. Zwischen 2020 und 2021 soll die Zahl der Cybergrooming-Fälle um 16 Prozent gestiegen sein.
Die Kommission hält die freiwilligen Anstrengungen von IT-Konzernen wie Facebook, Google, Snapchat, Microsoft oder Twitter für nicht ausreichend. Zudem stammten in den Jahren 2019 und 2020 rund 95 Prozent aller Hinweise nur von einem Anbieter: Facebook. Anbieter wie Google nutzen dazu seit 2008 die von Microsoft entwickelte Technik Photo-DNA. Dabei wird von Fotos ein Hashwert gebildet, der sich auch durch Vergrößerungen und Verkleinerungen des Fotos nicht verändert.
Microsoft verschenkte die Technik im Jahr 2013 an das NCMEC, um auf diese Weise den Einsatz gegen die Verbreitung kinderpornografischer Fotos (englisch: child sexual abuse material (CSAM)) zu unterstützen. Internetdienste, die eine Ende-zu-Ende-Verschlüsselung anbieten, können diese Verfahren jedoch nicht nutzen.
Welche Auflagen sollen künftig gelten?
Der Entwurf sieht eine ganze Reihe von Anforderungen für die Unternehmen vor. Betroffen sind generell "relevante Dienste der Informationsgesellschaft", wozu Hostprovider (auch Foto- und Videoplattformen), interpersonelle Kommunikationsdienste wie Messenger und E-Mail, Appstores und Zugangsprovider zählen. Ja nach Art des Dienstes gibt es unterschiedliche Vorgaben.
- Pflicht zur Bewertung und Minderung von Risiken: Anbieter von Hosting- oder Messengerdiensten müssen in einer Risikobewertung darlegen, inwieweit ihre Dienste für die Verbreitung von Material über sexuellen Kindesmissbrauch oder für Grooming missbraucht werden könnten. Die Anbieter müssen auch Maßnahmen zur Risikominderung vorsehen. Dazu kann beispielsweise eine Altersverifizierung gehören oder eine Aufhebung der Verschlüsselung.
- Aufdeckungspflichten auf Basis von Anordnungen: Die Mitgliedstaaten sollen nationale Behörden benennen, die für die Überprüfung der Risikobewertung zuständig sind. Stellen diese Behörden fest, dass ein erhebliches Risiko bleibt, können sie bei einem Gericht oder einer unabhängigen nationalen Behörde eine Anordnung beantragen, mit der verfügt wird, dass bekanntes oder neues Material zu sexuellem Kindesmissbrauch oder Kontaktanbahnungen aufgespürt werden muss. Diese Anordnungen sind zeitlich befristet und sollen dazu dienen, eine bestimmte Art von Inhalt in einem bestimmten Dienst aufzudecken.
- Meldepflichten: Anbieter, die Online-Inhalte mit sexuellem Kindesmissbrauch aufgespürt haben, müssen diese an ein neues EU-Zentrum für Fragen des sexuellen Kindesmissbrauchs (EU-Zentrum) melden.
- Entfernung und Blockade: Wird Material über sexuellen Kindesmissbrauch nicht umgehend entfernt, können die nationalen Behörden eine Entfernungsanordnung erlassen. Zugangsprovider werden außerdem verpflichtet, den Zugang zu Bildern und Videos zu sperren, wenn diese nicht entfernt werden können, beispielsweise weil sie außerhalb der EU in kooperationsunwilligen Ländern gehostet werden.
- Löschung von Apps: Appstores müssen sicherstellen, dass Kinder keine Apps herunterladen können, die eine erhöhte Gefahr bergen, dass Täter darüber Kontakt zu den Kindern suchen.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Wie kann so ein Scan funktionieren |
wäre meine Antwort darauf. Zur Not schuster ich mir selber eine zusammen und verteil sie...
Auf das Bundesverfassungsgericht würde ich keine Hoffnungen bauen. Die handeln zunehmend...
Politiker werden aus dem System automatisch herausgenommen die sind doch staatlich...
Also ein Tempolimit bringt doch sehr wohl etwas?!