Grafikkarte: Chip der Geforce GTX 1660 Ti ist überraschend groß

Laut Videocardz(öffnet im neuen Fenster) erscheint die Geforce GTX 1660 Ti am 22. Februar 2019, der Preis wird mit 280 US-Dollar beziffert. Passend dazu legt die Hardware-Seite mehrere Fotos vor, welche die Platine der Grafikkarte und deren TU116-Chip zeigen. Der dürfte etwas unter 300 mm² messen, was bei angeblichen 1.536 Shader-Einheiten und 192-Bit-Speicherinterface im 12-nm-Verfahren ziemlich viel wäre.
Der TU116 basiert auf Nvidias Turing-Architektur, wie sie von Modellen wie der Geforce RTX 2060 (Test) bekannt ist. Neu im Vergleich mit der bisherigen Pascal-Technik sind unter anderem größere sowie schnellere Caches und dedizierte Int32-Einheiten parallel zu den FP32-Rechenwerken. Dem TU116 fehlen aber offenbar die RT- und die Tensor-Cores für Raytracing oder die DLSS-Kantenglättung, weshalb die Karte auch Geforce G TX 1660 Ti und nicht Geforce R TX 1660 Ti heißt.

Mit knapp 300 mm² wäre der TU116 kaum kleiner als der GP104 einer Geforce GTX 1080, welcher 314 mm² misst und in einem sehr ähnlichen Fertigungsprozess hergestellt wird. Der GP104 hat aber gleich 2.560 Shader-Einheiten und ein 256 Bit breites Speicherinterface, weshalb der TU116 auch mit 1.536 flotteren Turing-Kernen und 192-Bit-Interface klar langsamer sein wird. Die Platine der Geforce GTX 1660 Ti verfügt allerdings über zwei leere Lötstellen für GDDR6-Speicher, weshalb der TU116 vielleicht nicht im Vollausbau antritt.
Denkbar wären mehr ALUs und 256 Bit, womit der Chip dann aber wieder näher am TU106 der Geforce RTX 2060/2070 läge. Der hat 2.304 Kerne und 256 Bit breites Speicherinterface, aber RT- und Tensor-Cores und ist mit 445 mm² auch gleich 50 Prozent größer als der TU116 der Geforce GTX 1660 Ti. Die Geforce RTX 2060 mit 1.920 Shadern und 192 Bit erreicht die Leistung einer Geforce GTX 1080.



