Google Veo 3: Tiktok wird mit rassistischen Videos geflutet

Auf der Kurzvideoplattform Tiktok tauchen vermehrt Videos mit rassistischen Inhalten auf, die mit Googles Video-KI Veo 3 generiert worden sind. Wie Media Matters berichtet(öffnet im neuen Fenster) , sind die Videos maximal acht Sekunden lang und mit dem Wasserzeichen von Veo versehen. In den Videos werden zahlreich und ausgiebig sowohl rassistische als auch antisemitische Klischees gegen verschiedene Bevölkerungsgruppen dargestellt.
Bei der Ankündigung seiner neuen KI-Modelle wurde der Schwerpunkt laut Google auf Sicherheitsvorkehrungen gelegt, die das Erstellen von Inhalten blockieren sollten, die dagegen verstoßen. Laut Ars Technica(öffnet im neuen Fenster) gilt Google in dieser Hinsicht als recht zuverlässig, auch im Hinblick auf die richtige Balance der Durchsetzung seiner Sicherheitsrichtlinien.
Im Fall von Veo 3 konnte das Nachrichtenportal allerdings die rassistischen Inhalte dieser Videos mit einigen einfachen Eingaben reproduzieren. Google scheint seine Sicherheitsrichtlinien daher bei der neuesten Version seines KI-Videogenerators nicht durchzusetzen.
Verstöße gegen Tiktoks Community-Regeln
Aber auch Tiktok steht in der Pflicht, da es laut seinen Nutzungsbedingungen die Verbreitung von Inhalten dieser Art verbietet. "Wir erlauben keine Hassreden, hasserfülltes Verhalten oder die Förderung hasserfüllter Ideologien" , heißt es dazu in den Community-Richtlinien.
Gegenüber Ars Technica weist Tiktok darauf hin, dass sowohl menschliche Moderatoren als auch Technologie eingesetzt werde, um die Verbreitung regelwidriger Inhalte zu verhindern. Ein Sprecher der Videoplattform fügte aber hinzu, dass die Menge der täglichen Uploads eine zeitnahe Moderation erschwere.
Mehr als die Hälfte der bei Media Matters genannten Tiktok-Konten seien aber bereits vor Erscheinen des Artikels gesperrt worden. Die übrigen Urheber seien mittlerweile ebenfalls gelöscht, so der Tiktok-Sprecher. Weiter schreibt Ars Technica, dass Unklarheiten bei den Eingaben von Prompts und die Unfähigkeit von KIs, rassistische Stereotype zu verstehen, dazu geführt haben könnten, dass sich solche Videos erstellen ließen.
Im Februar 2025 wurde bekannt, dass Google die versprochenen, firmeneigenen KI-Prinzipien aufweichte und eine Passage entfernte, laut der die KI-Modelle des Konzerns nicht für die Entwicklung von Waffen verwendet werden dürfen.



