Original-URL des Artikels: https://www.golem.de/news/gaugan-nvidias-malprogramm-wandelt-flaechen-in-landschaften-um-1903-140125.html    Veröffentlicht: 20.03.2019 10:27    Kurz-URL: https://glm.io/140125

Gaugan

Nvidias Malprogramm wandelt Flächen in Landschaften um

Anhand eines kleinen Bildeditors stellt Nvidia das neuronale Netzwerk Gaugan vor. Dieses erstellt Felsen, Wasser und Wälder aus einfachen Flächen. Das funktioniert auf den ersten Blick schon ganz gut.

Nvidia zeigt die Fähigkeiten seines neuronalen Netzwerks GauGAN (GAN steht für Generative Adversarial Network) mit einer anschaulichen Malsoftware. Der Algorithmus wandelt einfarbige und grob gezeichnete Flächen in Elemente eines Landschaftsbildes um - etwa Pflanzen, Meer, Flüsse, Wolken, Straßen, Steine und Holz. In dem zu Gaugan gehörenden Bildeditor wählen Nutzer das jeweilige Material aus und zeichnen eine Fläche mit der groben Form eines Objekts - wo ein Fluss langfließt, wo Bäume stehen oder ein Stein aus dem Wasser ragt.

Gaugan versieht jede der Flächen mit der entsprechenden Textur. Das neuronale Netzwerk analysiert den Kontext des jeweiligen Objektes im Bezug zu anderen Objekten auf dem Bild. Wenn Bäume etwa am See stehen, dann wird deren Reflexion auf dem Wasser generiert. Wird Wasser von einem Hügel herab platziert, generiert das System einen Wasserfall. Auch die Jahreszeiten lassen sich einstellen und verändern dementsprechend Elemente wie Bäume in blattlose Bäume oder Gras in Schnee. Trainiert wurde das System laut Nvidia mit einer Million gemeinfreien Bildern aus der Datenbank von Flicker. Eine Geforce RTX Titan beschleunigt das System mit 30 fps. Auch ein CPU-basiertes Rendering ist möglich.

Post-Impressionismus als Vergleich

"Es ist viel einfacher, sich Designs mit simplen Skizzen auszudenken und diese Technik ist in der Lage, Skizzen in sehr realistische Bilder umzuwandeln", schreibt Brian Catanzaro, Nvidia-Bereichsleiter für angewandte Deep-Learning-Forschung. Das Unternehmen könnte sich seine Software als Hilfsmittel für Architekten, Landschaftsgestalter und andere Berufsgruppen vorstellen, die nicht unbedingt gleichzeitig talentierte Künstler sind. Den Stil von Gaugan vergleicht Nvidia mit Werken des Post-Impressionisten Paul Gauguin. Auch Künstler wie Vincent Van Gogh gehören dieser Stilepoche an.

Durch den gewissen Zufallsfaktor in der Natur eignet sich diese Szenerie besonders gut für ein neuronales Netzwerk, da auch eine recht grobe Textur ein glaubwürdiges Bild ermöglicht. Schwieriger wird es, wenn vom Menschen erstellte Dinge simuliert werden, etwa Möbel, Maschinen oder Gebäude. Hier sehen Menschen schneller Fehler, wenn ein Haus schief ist oder ein Schrank verwaschen aussieht. Trotzdem meint Nvidia, dass seine Software auch Menschen und Gebäude generieren könne, zeigt das aber nicht in seiner kurzen Vorstellung.  (on)


Verwandte Artikel:
Deep Learning: IBM stellt Rekord für Bilderkennung auf   
(09.08.2017, https://glm.io/129402 )
Game-Streaming: Geforce Now erhält RTX-Server für Raytracing-Spiele   
(19.03.2019, https://glm.io/140087 )
Raytracing: Nvidia schaltet DXR auf Pascal und Turing GTX frei   
(19.03.2019, https://glm.io/140085 )
Embedded-Platine: Jetson Nano kostet 99 US-Dollar   
(19.03.2019, https://glm.io/140084 )
Geforce GTX 1660 im Test: Für 230 Euro eine faire Sache   
(14.03.2019, https://glm.io/139927 )

© 1997–2020 Golem.de, https://www.golem.de/