Next-Gen-Konsolen setzen auf APUs
Microsoft und Sony hatten sich für ihre Next-Gen-Konsolen mit AMD zusammengesetzt, beide entschieden sich für acht verbesserte Bobcat-Kerne namens Jaguar (eine Großkatze) und eine GCN-v2-basierte Grafikeinheit. Während die Xbox One auf langsamen DDR3-Speicher plus 32 MByte an sehr schnellem eDRAM setzte, gab es bei der Playstation 4 einen flotten GDDR5-Pool mit kombiniertem Speicherzugriff für CPU und iGPU.
Mit Kabini legte AMD selbst zwar auch Jaguar-basierte APUs mit GCN-Grafik auf, die Mobile-Ableger hatten jedoch aus Performance-Sicht nichts mit den Konsolen-Chips gemein. Kabini integrierte erstmals eine Southbridge, also den FCH (Fusion Controller Hub) mit bisher externen I/O-Funktionen wie Sata oder USB. Folgerichtig handelte es sich um ein System-on-a-Chip, das autark agieren konnte.
Auch nach den beiden Konsolen im Herbst 2013 und Kaveri im Sommer 2014 musste AMD noch immer die Bulldozer-Architektur durchschleppen: So erschien 2015 mit Carrizo eine APU, welche zwei Excavator-Module mit einer GCN-v3-Grafikeinheit samt verbesserter Video-Einheit (H.265-Decoding!) verknüpfte und initial nur für Notebooks eingesetzt wurde.
Ein Jahr später erschien mit Bristol Ridge eine optimierte Desktop-Umsetzung von Carrizo mit DDR4-Unterstützung, diese APUs ebneten primär den Weg für den neuen Sockel AM4. Weil AMD die Chips an OEMs und Systemintegratoren verkaufte, erreichten sie keine sonderlich große Verbreitung und die Energieeffizienz war mies.
Dafür erlebte die Jaguar-Technik anno 2016 ein Revival: Microsoft brachte die Xbox One X in den Handel und Sony veröffentlichte die Playstation 4 Pro. Statt des alten 28-nm- wurde das moderne 16-nm-Verfahren für mehr CPU-Takt eingesetzt, zudem sind die Grafikeinheiten mit Polaris-/Vega-Technik deutlich flotter. Die enge Zusammenarbeit mit AMD machte sich bezahlt, da beide Konsolen spezielle Funktionen wie Checkerboard-Rendering oder FP16-Befehle mit doppeltem Durchsatz beherrschen, die bei PC-Grafikkarten gar nicht oder erst Monate später eingeführt wurden.
Mit der Veröffentlichung der Zen-Architektur ließ AMD die Bulldozer-Ära schließlich hinter sich: Die im Frühling 2017 erschienenen Ryzen-CPUs waren leistungsstark und effizient, ihnen fehlt allerdings (bis heute) eine integrierte Grafikeinheit. Die gab es Anfang 2018 mit den Raven Ridge, der ersten 14-nm-APU. Mit vier Zen-Kernen und einer Vega-GCN-v5-basierten iGPU samt VP9-Encoding zog AMD alle Register, weshalb der Chip absolut konkurrenzfähig war. Einzig kleinere (Software-)Probleme wie das fehlende Play Ready 3.0 für 4K-HDR-Netflix trübten den ansonsten exzellenten Eindruck der APUs.
Picasso stellte 2019 einen Refresh von Raven Ridge dar, bei dem AMD von 14LPP auf 12LP als Fertigung umschwenkte und den Chip sogar mit dem Heatspreader verlötete, statt Wärmeleitpaste zu nutzen. Überdies war endlich der Treiber für Play Ready 3.0 angepasst, weshalb dieser Kritikpunkt wegfiel. 2020 folgte mit Renoir die bisher beste APU: Acht Zen-2-Kerne mit einer nochmals verbesserten Vega-Grafikeinheit kombiniert mit TSMCs 7-nm-Fertigung sorgen für gleich zwei Alleinstellungsmerkmale verglichen zu Intels Prozessoren.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Gemeinsamer Speicher-Pool für CPU und iGPU | Mit Chiplets in die APU-Zukunft |
Das ist so nicht ganz korrekt. Die strikte Trennung zwischen CPU-Memory-Map und GPU...
Ich fand damals Bobcat genial. Erst wenige Jahre zuvor hatte ich mir ein Netbook mit Atom...
Das lohnt sich im Desktop-Markt offenbar nicht, sonst hätte AMD es längst getan, die...
Also ohne GPU wird es knapp mit dem Bild. Die APU gibt faktisch viel GPU-Leistung für...