Abo
  • IT-Karriere:

Drone Swarm: "32.000 Drohnen sind viel zu viel für die CPU"

Zehntausende Drohnen, gesteuert durch den Spieler: Technisch und spielerisch geht Stillalive Studios mit Drone Swarm neue Wege. Golem.de hat mit Entwickler Julian Mautner unter anderem darüber gesprochen, warum die GPU für die Berechnung der Drohnen zuständig ist.

Ein Interview von veröffentlicht am
In Drone Swarm steuert der Spieler 32.000 Drohnen.
In Drone Swarm steuert der Spieler 32.000 Drohnen. (Bild: Stillalive Studios)

Mit einem Befehl scheucht der Spieler 32.000 Drohnen durch das All und stößt so die Triebwerke einer feindlichen Fregatte aus ihrer Flugbahn: Das soll im PC-Strategiespiel Drone Swarm möglich sein, an dem Stillalive Studios (Son of Nor) aus Österreich arbeitet. Unter anderem mit dem riesigen, flüssig animierten Drohnenschwarm geht der Titel auch technisch neue Wege, die Entwickler Julian Mautner mit einem Vortrag auf dem Tech Summit von Golem.de im April 2017 in Berlin vorstellt.

Stellenmarkt
  1. Die Haftpflichtkasse VVaG, Roßdorf
  2. Taunus Sparkasse, Bad Homburg vor der Höhe

Golem.de: Was ist das Besondere an der Umsetzung von Drone Swarm?

Julian Mautner: Die Technologie dahinter bietet ein paar echte Herausforderungen. Damit meine ich vor allem die Simulation des Schwarms mit seinen 32.000 einzeln simulierten Drohnen, die sich durch den Weltraum bewegen. Das Besondere ist, wie wir das in Echtzeit hinbekommen und wie die Kombination aus flüssiger Dynamik und Schwarmverhalten funktioniert.

Eine der Schwierigkeiten ist etwa, dass wir das Verhalten der Drohnen auf der GPU berechnen. Wir müssen die Daten dann aber sehr schnell wieder auf die CPU übertragen, weil wir sie da ja für die Spielelogik benötigen. Beispielsweise müssen die Drohnen wissen, worauf sie schießen.

Golem.de: Warum berechnet ihr die Schwarmlogik auf der GPU und spart euch diesen Austausch nicht?

Mautner: Die CPU ist zu langsam. Selbst wenn wir da zwei oder drei Threads laufen hätten - 32.000 Drohnen sind einfach viel zu viel. Außerdem müssen wir das Ganze dann ja auch noch rendern. Wenn wir also einzelne, auf der CPU berechnete Objekte auf die GPU übertragen müssten, gäbe es schlicht ein Bandbreitenproblem. Also berechnen wir alles auf der GPU, trotz des Flaschenhalses beim anschließenden Übertragen auf die CPU. Da müssen wir tricksen.

Golem.de: Welche Engine und welche Middleware verwendet ihr?

Mautner: Wir setzen auf Unity. Letztlich simulieren wir den Schwarm mit Hilfe von Shadern. Aber um das in Echtzeit hinzubekommen, haben wir unsere eigenen Renderer und Technologien. Wenn es etwa darum geht, die Daten von der GPU auf die CPU zu übertragen, verwenden wir statt Unity unser eigenes Plug-in für DirectX.

Golem.de: Was könnte man mit dieser Art von Technologie noch alles in Spielen machen?

Mautner: GPU-basierte Partikel sind im Grunde die Vorstufe von unserem Schwarm - sie können grafisch imposant herumfliegen, haben aber kein eigenes Gameplay. Unser Schwarm ist die nächste Stufe, mit eigenen Aktionen und Reaktionen. Ich denke, damit kann man noch sehr viel machen. Ein Schwarm als Mittel in einem Spiel ist einfach interessant, egal ob es um Fische oder um Galaxien geht.

Golem.de: Wie weit seid ihr eigentlich mit der Entwicklung von Drone Swarm?

Mautner: Wir nennen den aktuellen Status immer noch Pre-Alpha. Die Technologie ist schon ziemlich ausgereift, aber beim Gameplay müssen wir noch die richtige Balance herstellen und viele Playtests machen, damit das Spiel wirklich gut wird.

Mehr über die Technologie hinter Drone Swarm erklärt Entwickler Julian Mautner in seinem Vortrag auf dem Tech Summit von Golem.de im Rahmen der Spieleentwicklermesse Quo Vadis am 25. April 2017 in Berlin.



Anzeige
Spiele-Angebote
  1. 2,99€
  2. 16,99€
  3. (-75%) 7,50€
  4. 21,95€

Apfelbrot 13. Apr 2017

Etwas das vermutlich überhaupt nicht auffällt. Das ist Blödsinn. Ja du kannst ja gerne...

bccc1 09. Apr 2017

Hat er doch eindeutig geschrieben. Dass er diese Meinung hat, ist eine Tatsache.

Theoretiker 07. Apr 2017

Die Xeon gibt es mit unterschiedlich vielen Kernen, 8, 12, 18, sogar über 20 inzwischen...

Theoretiker 07. Apr 2017

Gibt es letztlich! Schau dir mal den »Intel Xeon Phi 7290« an. Das Teil hat 72 Kerne mit...

Cok3.Zer0 06. Apr 2017

Im Prinzip ja, die Fluidgleichungen sind unter einander gekoppelt, aber vereinfacht, da...


Folgen Sie uns
       


Smarte Wecker im Test

Wir haben die beiden smarten Wecker Echo Show 5 von Amazon und Smart Clock von Lenovo getestet. Das Amazon-Gerät läuft mit dem digitalen Assistanten Alexa, auf dem Lenovo-Gerät läuft der Google Assistant. Beide Geräte sind weit davon entfernt, smarte Wecker zu sein.

Smarte Wecker im Test Video aufrufen
SEO: Der Google-Algorithmus benachteiligt Frauen
SEO
Der Google-Algorithmus benachteiligt Frauen

Websites von Frauen werden auf Google schlechter gerankt als die von Männern - und die deutsche Sprache ist schuld. Was lässt sich dagegen tun?
Von Kathi Grelck

  1. Google LED von Nest-Kameras lässt sich nicht mehr ausschalten
  2. FIDO Google führt Logins ohne Passwort ein
  3. Nachhaltigkeit 2022 sollen Google-Geräte Recycling-Kunststoff enthalten

Raspberry Pi 4B im Test: Nummer 4 lebt!
Raspberry Pi 4B im Test
Nummer 4 lebt!

Das Raspberry Pi kann endlich zur Konkurrenz aufschließen, aber richtig glücklich werden wir mit dem neuen Modell des Bastelrechners trotz bemerkenswerter Merkmale nicht.
Ein Test von Alexander Merz

  1. Eben Upton Raspberry-Pi-Initiator spielt USB-C-Fehler herunter
  2. 52PI Ice Tower Turmkühler für Raspberry Pi 4B halbiert Temperatur
  3. Kickstarter Lyra ist ein Gameboy Advance mit integriertem Raspberry Pi

Ryzen 5 3400G und Ryzen 3 3200G im Test: Picasso passt
Ryzen 5 3400G und Ryzen 3 3200G im Test
Picasso passt

Vier Zen-CPU-Kerne plus integrierte Vega-Grafikeinheit: Der Ryzen 5 3400G und der Ryzen 3 3200G sind zwar im Prinzip nur höher getaktete Chips, in ihrem Segment aber weiterhin konkurrenzlos. Das schnellere Modell hat jedoch trotz verlötetem Extra für Übertakter ein Preisproblem.
Ein Test von Marc Sauter

  1. Agesa 1003abb Viele ältere Platinen erhalten aktuelles UEFI für Ryzen 3000
  2. Ryzen 3000 Agesa 1003abb behebt RDRAND- und PCIe-Gen4-Bug
  3. Ryzen 5 3600(X) im Test Sechser-Pasch von AMD

    •  /