Die Nanometer-Falle und die Folgen
Die Zeiten, in denen es spätestens alle 18 Monate eine neue Grafikkartengeneration gab, welche die Leistung verdoppelte, sind schon lange vorbei. Viel mehr als früher sind die Chipentwickler von der Verkleinerung der Strukturbreiten abhängig, auch Shrinks genannt. Diese werden aber bei den Produzenten der Halbleiter vorgenommen, bei AMD und Nvidia kommen die PC-GPUs für Desktop-Grafikkarten von TSMC.
Dort können die besonders schnell schaltenden Transistoren, die für Grafikprozessoren nötig sind, aber seit Ende 2011 unverändert nur mit 28 Nanometern Strukturbreite hergestellt werden. Auch Monate nach dem Beginn der Serienproduktion lag die Ausbeute der Chips immer noch unter dem Bedarf der Kunden. Selbst dem Vorreiter bei Shrinks, Intel, macht die eben nicht ganz zu überlistende Physik der kleinen Halbleiter inzwischen zu schaffen: Die erste 14-Nanometer-CPU, Broadwell, ist um ein Quartal verschoben worden.
Insbesondere die GPU-Entwickler bekommen das Stocken von Moore's Law zu spüren, denn sie entwerfen ohnehin schon sehr große Chips, die dadurch sehr teuer sind. Um mehr Leistung zu erhalten, sind bei den gut parallelisierbaren Aufgaben der 3D-Grafik aber stets noch mehr Funktionseinheiten gefragt. Die wiederum lassen sich wirtschaftlich sinnvoll nur mit stetig verkleinerten Strukturbreiten herstellen.
So weit ist TSMC aber noch nicht: Erst im ersten Quartal 2014 soll die 20-Nanometer-Fertigung aufgenommen und ein Jahr später auf 16 Nanometer gewechselt werden. Wohl aufgrund der Erfahrungen mit dem schleppenden Anlaufen der 28-Nanometer-Produktion wollten sich AMD und Nvidia bei der Grafikgeneration des Jahres 2013 nicht mehr darauf verlassen.
Also preschte zuerst Nvidia vor und machte aus dem Supercomputer-Chip GK110 mit Kepler-Architektur die Geforce Titan. Statt der maximal möglichen 2.880 Rechenwerke des Designs wurden auch dabei, offenbar wegen geringer Ausbeute, nur 2.688 freigeschaltet. Großer Unterschied zu anderen Grafikkarten war aber auch der mit 6 GByte gegenüber der damals aktuellen Radeon HD 7970 GHz Edition verdoppelte Speicher.
Einen so großen Chip hatte AMD aber nicht zu bieten, die Tahiti-GPU der 7970 war zwar mit 352 Quadratmillimetern schon recht üppig, mit Hawaii ist der Chip aber auf 438 Quadratmillimeter gewachsen. Statt 4,3 hat der Baustein nun 6,2 Milliarden Transistoren. Nvidia gibt für den GK110 schon 7 Milliarden an.
Bei Hawaii wird diese Fülle an Schaltelementen für eine recht einfache Erweiterung genutzt: Die bereits ausführlich vorgestellte GCN-Architektur bleibt gleich, nur sind statt 32 nun 44 Compute Units (CU) vorhanden. Jede davon besteht aus 64 ALUs, den Rechenwerken, klassisch bei GPUs auch Shader genannt. Somit ergibt sich auch die Zahl der 2.816 Funktionseinheiten. Hawaii ist, stark vereinfacht gesagt, ein Tahiti mit knapp 40 Prozent mehr Rechenleistung - wenn sich alles so parallelisieren lässt, wie AMD das vorhat. Zudem gibt es ein erweitertes Backend, unter anderem mit mehr Rasterprozessoren, um auch 4K-Displays anzutreiben.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Radeon R9 290X im Test: Teilzeit-Boost macht Hawaii fast zum Titan-Killer | Titan und 290X sind ähnlich, aber im Boost sehr verschieden |
Ich bin der Meinung der Vergleich hinkt ein wenig. Erstens kam die Nvidia viel früher...
die nvidia kühler sind nicht schlecht, nur amd hat ein problem mit der lautstärke/kühlung
Lustig ist ja Nur das man bei der 780 und der Titan (Custom Bios Vorausgesetzt) Sehr Gut...
Spielt keine Rolle. Die 9 Monate ältere Karte ist immer noch weitaus teurer. Außerdem...