Stable Attribution: KI findet die von Stable Diffusion genutzten Quellbilder
Stable Diffusion erstellt Kunst auf Basis von Menschenhand geschaffener Bilder. Welche das sind, soll nun eine weitere KI herausfinden.

Wenn das neuronale Netzwerk Stable Diffusion Bilder aus Textparametern erstellt, wird es schwer, die eigentlichen Urheber der Quellbilder zu finden. Schließlich werden Programme wie Stable Diffusion anhand vieler Tausend Bilder aus dem Internet trainiert. Sie holen ihre Inspiration von echten Menschen - und das ohne irgend eine Art von Zustimmung der Urheber.
Die Entwickler Jeff Huber und Anton Troynikov vom Start-up Chroma wollen das ändern und haben das Portal Stable Attribution gegründet, welches ein gleichnamiges Machine-Learning-Modell präsentiert. Dieses soll die ursprünglichen Bilder im Netz wiederfinden, die höchstwahrscheinlich von Stable Diffusion als Inspiration genutzt wurden.
Das Modell schaut sich dabei vor allem die Bilder an, die einem KI-Bild ähnlich sehen. Gerade in Details und Perspektiven können mögliche Quellen identifiziert werden, da Stable Diffusion hier besonders nah bei an den Originalbildern bleibt. Stable Attribution dekodiert also einzelne Elemente eines KI-Bildes und sucht den von Stable Diffusion genutzten Trainingsdatensatz nach ähnlichen Dateien ab. Das ist relativ einfach möglich, da die Trainingsdaten und die dahinterliegende Logik von Stable Diffusion öffentlich sind.
Menschen am Gewinn beteiligen
Hat Stable Attribution mögliche Quellbilder gefunden, soll die Software automatisch ihre Urheber hervorheben - etwa indem ein Link auf das Bild direkt gesetzt wird. "Wenn ihr einen Künstler unter den gefundenen Quellen seht und ihn kennt, dann lasst doch den Link zu ihrer Seite bei uns da, damit wir ihn als Urheber einfügen können", schreibt das Team von Chroma in den FAQ. Ziel soll es nämlich sein, die Menschen hinter den KI-Bildern zu finden und sie zu erwähnen. Möglicherweise könnten sie auch an einer Art Gewinn beteiligt werden, sollte es in Zukunft dazu kommen.
Die erste Version von Stable Attribution ist laut dem Entwicklerteam nicht perfekt. Das Training wird von einem generellen Grundrauschen beeinflusst und Parameter sind entsprechend ungenau. Dadurch wird noch eine Menge redundanter oder fehlerhafter Quellbilder gefunden. Generell wird immer nur einen Teil der Quellbilder gefunden werden, da die Software nicht direkt in den Rendering-Prozess von Stable Diffusion eingreift und unabhängig davon Quellen rekonstruiert. Eine interessante Idee ist es trotzdem.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Sie haben mich komplett missverstanden. Kurz Zusammengefasst habe ich gesagt das alles...
Das ist halt noch das Hauptproblem. Der Trainingsdatensatz ist so riesig, dass es...
Kunst ist für mich nichts was ein Künstler erschafft, ein Künstler schafft nur ein Werk...
Die Argumentation das man nach belieben Bilder als Inspiration nutzen darf um eigene...
Kommentieren