Abo
  • Services:

Drone Swarm: "32.000 Drohnen sind viel zu viel für die CPU"

Zehntausende Drohnen, gesteuert durch den Spieler: Technisch und spielerisch geht Stillalive Studios mit Drone Swarm neue Wege. Golem.de hat mit Entwickler Julian Mautner unter anderem darüber gesprochen, warum die GPU für die Berechnung der Drohnen zuständig ist.

Ein Interview von veröffentlicht am
In Drone Swarm steuert der Spieler 32.000 Drohnen.
In Drone Swarm steuert der Spieler 32.000 Drohnen. (Bild: Stillalive Studios)

Mit einem Befehl scheucht der Spieler 32.000 Drohnen durch das All und stößt so die Triebwerke einer feindlichen Fregatte aus ihrer Flugbahn: Das soll im PC-Strategiespiel Drone Swarm möglich sein, an dem Stillalive Studios (Son of Nor) aus Österreich arbeitet. Unter anderem mit dem riesigen, flüssig animierten Drohnenschwarm geht der Titel auch technisch neue Wege, die Entwickler Julian Mautner mit einem Vortrag auf dem Tech Summit von Golem.de im April 2017 in Berlin vorstellt.

Stellenmarkt
  1. Ultratronik GmbH, Gilching bei München
  2. McFIT GMBH, Berlin

Golem.de: Was ist das Besondere an der Umsetzung von Drone Swarm?

Julian Mautner: Die Technologie dahinter bietet ein paar echte Herausforderungen. Damit meine ich vor allem die Simulation des Schwarms mit seinen 32.000 einzeln simulierten Drohnen, die sich durch den Weltraum bewegen. Das Besondere ist, wie wir das in Echtzeit hinbekommen und wie die Kombination aus flüssiger Dynamik und Schwarmverhalten funktioniert.

Eine der Schwierigkeiten ist etwa, dass wir das Verhalten der Drohnen auf der GPU berechnen. Wir müssen die Daten dann aber sehr schnell wieder auf die CPU übertragen, weil wir sie da ja für die Spielelogik benötigen. Beispielsweise müssen die Drohnen wissen, worauf sie schießen.

Golem.de: Warum berechnet ihr die Schwarmlogik auf der GPU und spart euch diesen Austausch nicht?

Mautner: Die CPU ist zu langsam. Selbst wenn wir da zwei oder drei Threads laufen hätten - 32.000 Drohnen sind einfach viel zu viel. Außerdem müssen wir das Ganze dann ja auch noch rendern. Wenn wir also einzelne, auf der CPU berechnete Objekte auf die GPU übertragen müssten, gäbe es schlicht ein Bandbreitenproblem. Also berechnen wir alles auf der GPU, trotz des Flaschenhalses beim anschließenden Übertragen auf die CPU. Da müssen wir tricksen.

Golem.de: Welche Engine und welche Middleware verwendet ihr?

Mautner: Wir setzen auf Unity. Letztlich simulieren wir den Schwarm mit Hilfe von Shadern. Aber um das in Echtzeit hinzubekommen, haben wir unsere eigenen Renderer und Technologien. Wenn es etwa darum geht, die Daten von der GPU auf die CPU zu übertragen, verwenden wir statt Unity unser eigenes Plug-in für DirectX.

Golem.de: Was könnte man mit dieser Art von Technologie noch alles in Spielen machen?

Mautner: GPU-basierte Partikel sind im Grunde die Vorstufe von unserem Schwarm - sie können grafisch imposant herumfliegen, haben aber kein eigenes Gameplay. Unser Schwarm ist die nächste Stufe, mit eigenen Aktionen und Reaktionen. Ich denke, damit kann man noch sehr viel machen. Ein Schwarm als Mittel in einem Spiel ist einfach interessant, egal ob es um Fische oder um Galaxien geht.

Golem.de: Wie weit seid ihr eigentlich mit der Entwicklung von Drone Swarm?

Mautner: Wir nennen den aktuellen Status immer noch Pre-Alpha. Die Technologie ist schon ziemlich ausgereift, aber beim Gameplay müssen wir noch die richtige Balance herstellen und viele Playtests machen, damit das Spiel wirklich gut wird.

Mehr über die Technologie hinter Drone Swarm erklärt Entwickler Julian Mautner in seinem Vortrag auf dem Tech Summit von Golem.de im Rahmen der Spieleentwicklermesse Quo Vadis am 25. April 2017 in Berlin.



Anzeige
Spiele-Angebote
  1. (-52%) 13,33€
  2. 19,99€
  3. (verbleibt danach dauerhaft im Account)
  4. 4,99€

Apfelbrot 13. Apr 2017

Etwas das vermutlich überhaupt nicht auffällt. Das ist Blödsinn. Ja du kannst ja gerne...

bccc1 09. Apr 2017

Hat er doch eindeutig geschrieben. Dass er diese Meinung hat, ist eine Tatsache.

Theoretiker 07. Apr 2017

Die Xeon gibt es mit unterschiedlich vielen Kernen, 8, 12, 18, sogar über 20 inzwischen...

Theoretiker 07. Apr 2017

Gibt es letztlich! Schau dir mal den »Intel Xeon Phi 7290« an. Das Teil hat 72 Kerne mit...

Cok3.Zer0 06. Apr 2017

Im Prinzip ja, die Fluidgleichungen sind unter einander gekoppelt, aber vereinfacht, da...


Folgen Sie uns
       


Amazons Echo Dot (2018) - Test

Echo Dot steht eigentlich für muffigen Klang. Das ändert sich grundlegend mit dem neuen Echo Dot. Amazons neuer Alexa-Lautsprecher ist damit durchaus zum Musikhören geeignet. Für einen 60 Euro teuren Lautsprecher bietet der neue Echo Dot eine gute Klangqualität.

Amazons Echo Dot (2018) - Test Video aufrufen
Amazons Echo Show (2018) im Test: Auf keinem anderen Echo-Gerät macht Alexa so viel Freude
Amazons Echo Show (2018) im Test
Auf keinem anderen Echo-Gerät macht Alexa so viel Freude

Die zweite Generation des Echo Show ist da. Amazon hat viele Kritikpunkte am ersten Modell beseitigt. Der Neuling hat ein größeres Display als das Vorgängermodell und das sorgt für mehr Freude bei der Benutzung. Trotz vieler Verbesserungen ist nicht alles daran perfekt.
Ein Test von Ingo Pakalski

  1. Update für Alexa-Display im Hands on Browser macht den Echo Show viel nützlicher
  2. Amazon Echo Show mit Browser, Skype und großem Display

Job-Porträt Cyber-Detektiv: Ich musste als Ermittler über 1.000 Onanie-Videos schauen
Job-Porträt Cyber-Detektiv
"Ich musste als Ermittler über 1.000 Onanie-Videos schauen"

Online-Detektive müssen permanent löschen, wo unvorsichtige Internetnutzer einen digitalen Flächenbrand gelegt haben. Mathias Kindt-Hopffer hat Golem.de von seinem Berufsalltag erzählt.
Von Maja Hoock

  1. Software-Entwickler CDU will Online-Weiterbildung à la Netflix
  2. Bundesagentur für Arbeit Ausbildungsplätze in der Informatik sind knapp
  3. IT-Jobs "Jedes Unternehmen kann es besser machen"

Serverless Computing: Mehr Zeit für den Code
Serverless Computing
Mehr Zeit für den Code

Weniger Verwaltungsaufwand und mehr Automatisierung: Viele Entwickler bauen auf fertige Komponenten aus der Cloud, um die eigenen Anwendungen aufzubauen. Beim Serverless Computing verschwinden die benötigten Server unter einer dicken Abstraktionsschicht, was mehr Zeit für den eigenen Code lässt.
Von Valentin Höbel

  1. Kubernetes Cloud Discovery inventarisiert vergessene Cloud-Native-Apps
  2. T-Systems Deutsche Telekom will Cloud-Firmen kaufen
  3. Trotz hoher Gewinne Wieder Stellenabbau bei Microsoft

    •  /