Original-URL des Artikels: https://www.golem.de/0908/69099.html    Veröffentlicht: 17.08.2009 12:04    Kurz-URL: https://glm.io/69099

Tim Sweeney prophezeit das Ende der GPU

Epics Technikchef will einfacher zu programmierende Grafik

Tim Sweeney, der Kopf hinter den Unreal-Engines, hat in einem Vortrag auf einer Fachkonferenz das Ende des bisherigen Grafikprozessors vorhergesagt. GPUs seien immer noch zu kompliziert zu programmieren. Reines Software-Rendering mit Voxeln und Raytracing-Elementen sei die Zukunft.

Auf der Konferenz "High Performance Graphics 09", die Anfang August 2009 parallel zur "Supercomputing" in New Orleans stattgefunden hat, hielt Tim Sweeney einen Vortrag mit dem Titel "The End of the GPU Roadmap". Inzwischen sind die Folien des Vortrags (PDF) auf den Servern des Williams-College in Massachusetts aufgetaucht.

Nach ausführlichen technischen Erklärungen anhand der seit 1996 von Sweeney entwickelten Unreal-Engines zieht der Epic-Mitbegründer das ernüchternde Fazit, dass GPUs, wie sie bisher üblich sind, immer noch zu schwer zu programmieren seien, was sich für Spieleentwickler nur selten lohne.

Als Faustregel gibt Sweeney folgende Formel an: Schon die Entwicklung einer Anwendung mit Multi-Threading, wie es moderne PC-Prozessoren erfordern, kostet das Doppelte eines Single-Threaded-Programms. Für den In-Order-Prozessor Cell der PlayStation 3 verfünffachen sich die Kosten, und eine GPU voll auszureizen kostet laut Sweeney das Zehnfache.

Ein Hauptgrund seien die Programmiersprachen für GPUs, die im Vergleich zum objektorientierten C++ immer noch "eigenartig" seien, so Sweeney. Da der Programmierer zudem immer mit den Einschränkungen der Größe des Grafikspeichers und der Verwaltung von PC-RAM und Grafikspeicher zu kämpfen habe, fordere das inzwischen zu große Kompromisse.

Typischerweise würden die Spielfiguren heute mit 3D-Modellen aus 4 Millionen Polygonen entwickelt und für ein PC-Spiel auf 20.000 Polygone heruntergerechnet. Um die Grafikqualität weiter steigern zu können, sei eine höhere Auflösung der Figuren aber zwingend. Als weiteres Beispiel nennt Sweeney das Anti-Aliasing, für das insbesondere die Speicheranforderungen immer noch zu hoch seien. Epics Technikchef wünscht sich statt des heute bei spielbaren Bildraten üblichen achtfachen Anti-Aliasings aber zehn bis 20 Durchgänge der Filterung.

Inzwischen, so Sweeney weiter, näherten sich CPU und GPU immer weiter an - er nennt dafür, wie nicht anders zu erwarten, Intels Larrabee mit seinen Dutzenden x86-Kernen als Beispiel. Mit solchen Architekturen, nicht aber mit den immer noch "zu stark fixierten" Rechenwerken von herkömmlichen GPUs, könne man neue Algorithmen verwenden.

Sweeney schlägt dafür die Reyes-Archtiektur vor, die mit schattierten Mikropolygonen arbeitet und Teile von Raytracing-Algorithmen verwendet. Die bisher bei GPUs üblichen Unterschiede der Leistung je nach Auflösung fallen bei Reyes weniger stark ins Gewicht.

Ausgehend von Moores Law erwartet Sweeney bis zum Jahr 2020 eine Verzwanzigfachung der Rechenleistung - egal ob auf CPU oder GPU. Dafür reiche dann aber ein lokaler Grafikspeicher nicht mehr aus und die nächste Generation der Spiele-Engines käme schon lange nicht mehr mit, meint der Programmierer.

Diese Engines müssten aber jetzt schon mit anderen Ansätzen entwickelt werden, denn: Statt mit drei Jahren für die Unreal Engine 3 rechnet Sweeney für seinen nächsten Spieleunterbau mit fünf Jahren - also 2014, falls er jetzt beginnen würde. Bis zum Jahr 2020 müsste diese Engine dann aber konkurrenzfähig sein.

Folglich ist laut Sweeney quasi sofort ein Umdenken bei den Spieleentwicklern gefordert. Dass der Ruf nach einem Software-Renderer ausgerechnet von ihm kommt, ist dabei kein Zufall: Sein erstes aufwendiges 3D-Spiel, der Titel "Unreal" aus dem Jahr 1998, überzeugte mit damals nicht gekanntem Software-Rendering ganz ohne Zutun von 3D-Funktionen auf dem Grafikprozessor. Mit einem Pentium bei 60 MHz habe diese Engine 16 Operation pro Pixel bei 320 x 200 Pixeln auf dem Bildschirm und 30 Bildern pro Sekunde geschafft. Bis 2012 will Sweeney 16.000 Operationen pro Pixel bei 1.920 x 1.080 Pixeln und 60 Bildern pro Sekunde erreichen.  (nie)


Verwandte Artikel:
Crytek-Chef antwortet auf Engine-Kritik von Epic Games   
(27.05.2009, https://glm.io/67386 )
Meltdown und Spectre: NSA will nichts von Prozessor-Schwachstelle gewusst haben   
(07.01.2018, https://glm.io/131999 )
H.264 mit GPU-Beschleunigung auf PC und Mac codieren   
(30.06.2009, https://glm.io/68070 )
iOS und Android: Google veröffentlicht Dart 2.0 und Flutter-Beta   
(28.02.2018, https://glm.io/133050 )
Kreativ-Apps für VR-Headsets: Austoben im VR-Atelier   
(27.12.2017, https://glm.io/131807 )

Links zum Artikel:
Tim Sweeney - The End of the GPU Roadmap (PDF): http://graphics.cs.williams.edu/archive/SweeneyHPG2009/TimHPG2009.pdf

© 1997–2020 Golem.de, https://www.golem.de/