Tiefe Träume mit Google
Sieben Jahre sind eine lange Zeit in der Informationstechnologie, doch in der KI-Wissenschaft ist es die Steinzeit, über die wir im Folgenden berichten.
Im Jahr 2015 veröffentlichte der bei Google angestellte Forscher Alexander Mordvintsev das erste Programm, das Computer zum Träumen brachte: Deep Dream. Dessen Grundprinzip folgen alle weiteren hier besprochenen Netzwerke.
Vereinfacht gesagt dreht Deep Dream die Bilderkennung um. Statt einfach nur Strukturen und Inhalte zu erkennen, fügt es sie an passender Stelle in ein Ausgangsbild ein. Dabei entstehen psychedelisch wirkende, bunte Werke. Mordvintsev wollte jedoch den Computer gar nicht zu künstlerischen Äußerungen bringen, sondern den oben erwähnten Bias aufdecken.
Es sollte überprüft werden, ob die Erkennung von Inhalten in Details korrekt war: Wenn das Programm beispielsweise nur Bilder von Hunden mit Halsbändern ausgab, dann waren die Trainingsdaten unsauber und das System nahm folglich an, dass ein Halsband unabdingbar zu einem Hund gehört, ebenso wie Augen.
Weil Deep Dream sehr schnell populär wurde, erweiterte sich sein Spektrum 2016 um eine erste ästhetisch sinnvolle Anwendung, den Style Transfer. Damit ließen sich beliebige Bild- und Malstile auf ein Foto anwenden. In der breiten Öffentlichkeit stießen insbesondere Apps zur Verfremdung von Selbstporträts auf Interesse.
Die ersten menschlichen Gesichter wurden 2017 generiert. Das Netzwerk CAN für künstlerische Bildgeneration erschien – und brachte den ersten kleinen KI-Kunst-Skandal mit sich: Das französische Kollektiv Obvious versteigerte ein mit CAN erstelltes Bild für fast eine halbe Million US-Dollar. Das Problem: Es hatte Code kopiert und nicht darauf aufmerksam gemacht.
Wichtiger war aber eine Veröffentlichung eines Teams des Grafikkartenherstellers Nvidia.
GANs und Diffusion
StyleGAN erzeugte ab 2018 fotorealistische menschliche Gesichter. Die erfundenen Bilder werden auf Webseiten als Models angeboten, nicht existierende Personen kann man sich seitdem mit einem Klick selbst generieren. Dass die Qualität der Gesichter und vor allem deren Umgebung noch nicht wirklich überzeugt, lässt sich leicht bei einem Vergleichsexperiment der Universität Washington feststellen.
StyleGAN ist trotzdem in zweierlei Hinsicht bemerkenswert. Zunächst zementierte das Projekt die Vorherrschaft der für Deep Learning und Mustererkennung prädestinierten Hardware von Nvidia, weil es konkrete Anwendungsfälle publikumswirksam darstellte. Die CUDA-Schnittstelle der Grafikkarten (GPU) des Herstellers ermöglicht schnelle parallele Programmabläufe, was KI-Operationen entscheidend beschleunigt. Mit OpenCL steht eine ähnliche Schnittstelle für GPUs von AMD zur Verfügung, diese ist jedoch weniger weit verbreitet.
StyleGAN ist aber auch deshalb interessant, weil sein Ansatz die folgenden Jahre der KI-Bildgeneration prägte: die Nutzung von General Adversary Networks.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
| Deep Learning: KI krempelt die Kunst um | Kampf der Netzwerke |










ist toll. Ich habe wirklich tolle Ergebnisse damit erzielen können, eines der Bilder...
Na toll, ich habe mir das Beispiel gerade erst ausgedacht und da gibt es schon ne Firma...
+1 auf jeden Fall. Ein sehr gut geschriebener Artikel! :)
Ich möchte mich hiermit herzlich dafür bedanken, dass wir in Reaktion auf den Artikel...