Stable Attribution: KI findet die von Stable Diffusion genutzten Quellbilder

Stable Diffusion erstellt Kunst auf Basis von Menschenhand geschaffener Bilder. Welche das sind, soll nun eine weitere KI herausfinden.

Artikel veröffentlicht am ,
Stable Attribution findet die echten Bilder hinter KI-Kunst.
Stable Attribution findet die echten Bilder hinter KI-Kunst. (Bild: Stableattribution.com)

Wenn das neuronale Netzwerk Stable Diffusion Bilder aus Textparametern erstellt, wird es schwer, die eigentlichen Urheber der Quellbilder zu finden. Schließlich werden Programme wie Stable Diffusion anhand vieler Tausend Bilder aus dem Internet trainiert. Sie holen ihre Inspiration von echten Menschen - und das ohne irgend eine Art von Zustimmung der Urheber.

Die Entwickler Jeff Huber und Anton Troynikov vom Start-up Chroma wollen das ändern und haben das Portal Stable Attribution gegründet, welches ein gleichnamiges Machine-Learning-Modell präsentiert. Dieses soll die ursprünglichen Bilder im Netz wiederfinden, die höchstwahrscheinlich von Stable Diffusion als Inspiration genutzt wurden.

Das Modell schaut sich dabei vor allem die Bilder an, die einem KI-Bild ähnlich sehen. Gerade in Details und Perspektiven können mögliche Quellen identifiziert werden, da Stable Diffusion hier besonders nah bei an den Originalbildern bleibt. Stable Attribution dekodiert also einzelne Elemente eines KI-Bildes und sucht den von Stable Diffusion genutzten Trainingsdatensatz nach ähnlichen Dateien ab. Das ist relativ einfach möglich, da die Trainingsdaten und die dahinterliegende Logik von Stable Diffusion öffentlich sind.

Menschen am Gewinn beteiligen

Hat Stable Attribution mögliche Quellbilder gefunden, soll die Software automatisch ihre Urheber hervorheben - etwa indem ein Link auf das Bild direkt gesetzt wird. "Wenn ihr einen Künstler unter den gefundenen Quellen seht und ihn kennt, dann lasst doch den Link zu ihrer Seite bei uns da, damit wir ihn als Urheber einfügen können", schreibt das Team von Chroma in den FAQ. Ziel soll es nämlich sein, die Menschen hinter den KI-Bildern zu finden und sie zu erwähnen. Möglicherweise könnten sie auch an einer Art Gewinn beteiligt werden, sollte es in Zukunft dazu kommen.

Die erste Version von Stable Attribution ist laut dem Entwicklerteam nicht perfekt. Das Training wird von einem generellen Grundrauschen beeinflusst und Parameter sind entsprechend ungenau. Dadurch wird noch eine Menge redundanter oder fehlerhafter Quellbilder gefunden. Generell wird immer nur einen Teil der Quellbilder gefunden werden, da die Software nicht direkt in den Rendering-Prozess von Stable Diffusion eingreift und unabhängig davon Quellen rekonstruiert. Eine interessante Idee ist es trotzdem.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Cespenar 08. Feb 2023 / Themenstart

Sie haben mich komplett missverstanden. Kurz Zusammengefasst habe ich gesagt das alles...

Hotohori 07. Feb 2023 / Themenstart

Das ist halt noch das Hauptproblem. Der Trainingsdatensatz ist so riesig, dass es...

Hotohori 07. Feb 2023 / Themenstart

Kunst ist für mich nichts was ein Künstler erschafft, ein Künstler schafft nur ein Werk...

twothe 06. Feb 2023 / Themenstart

Die Argumentation das man nach belieben Bilder als Inspiration nutzen darf um eigene...

Kommentieren



Aktuell auf der Startseite von Golem.de
Automobil
Keine zwei Minuten, um einen Tesla Model 3 zu hacken

Bei der Hacking-Konferenz Pwn2Own 2023 hat ein Forschungsteam keine zwei Minuten benötigt, um ein Tesla Model 3 zu hacken. Das brachte dem Team jede Menge Geld und einen neuen Tesla ein.

Automobil: Keine zwei Minuten, um einen Tesla Model 3 zu hacken
Artikel
  1. Fiktive Szenarien und Stereotype: AfD nutzt KI-Fotos für propagandistische Zwecke
    Fiktive Szenarien und Stereotype
    AfD nutzt KI-Fotos für propagandistische Zwecke

    Politiker der Alternative für Deutschland (AfD) nutzen realistische KI-Bilder, um Stimmung zu machen. Die Bilder sind kaum von echten Fotos zu unterscheiden.

  2. Italien: Datenschutzbehörde untersagt Betrieb von ChatGPT
    Italien
    Datenschutzbehörde untersagt Betrieb von ChatGPT

    Dem ChatGPT-Entwickler OpenAI könnte eine Millionenstrafe drohen. Die GPDP bemängelt Probleme beim Jugend- und Datenschutz.

  3. Java 20, GPT-4, Typescript, Docker: Neue Java-Version und AI everwhere
    Java 20, GPT-4, Typescript, Docker
    Neue Java-Version und AI everwhere

    Dev-Update Oracle hat Java 20 veröffentlicht. Enthalten sind sieben JEPs aus drei Projekten. Dev-News gab es diesen Monat auch in Sachen Typescript, Docker und KI in Entwicklungsumgebungen.
    Von Dirk Koller

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Crucial SSD 1TB/2TB bis -43% • RAM im Preisrutsch • RTX 4090 erstmals unter 1.700€ • MindStar: iPhone 14 Pro Max 1TB 1.599€ • SSDs & Festplatten bis -60% • AOC 34" UWQHD 279€ • 3 Spiele kaufen, 2 zahlen [Werbung]
    •  /