CPU und GPU vereint: Wie die Fusion zu AMDs Zukunft wurde
Mit Lauchgemüse und Katzen-Kernen zu Playstation und Xbox: Wir blicken auf ein Jahrzehnt an Accelerated Processing Units (APUs) zurück.

Als AMD anno 2006 für 5,4 Milliarden US-Dollar den Grafikchip-Hersteller Ati aufkaufte, war das eine Wette auf die Zukunft: Die Fusion aus CPU und GPU in einem Design war das erklärte Ziel, es sollte aber noch viele Jahre dauern und auch keine Potara-Ohrringe benötigen, bis es erstmals erreicht wurde.
- CPU und GPU vereint: Wie die Fusion zu AMDs Zukunft wurde
- Gemeinsamer Speicher-Pool für CPU und iGPU
- Next-Gen-Konsolen setzen auf APUs
- Mit Chiplets in die APU-Zukunft
Heute hingegen sind Accelerated Processing Units (APUs) aus AMDs Portfolio nicht mehr wegzudenken - sie stecken in günstigen Notebooks, in Desktop-PCs und in multiplen Spielekonsolen von Microsoft sowie Sony. Tatsächlich begann die initiale APU-Entwicklung indirekt mit einem Xbox-Chip, unter der Federführung von Microsoft.
In der Xbox 360 steckten von Beginn an eine CPU von IBM, der Xenon, und eine dedizierte GPU von Ati, der Xenos. Seit 2005 produzierte Microsoft beide Prozessoren mit 90 nm, es folgten Versionen mit 65-nm-CPU (Falcon) und 65-nm-GPU (Jasper). 2010 erschien die Xbox 360 S (Valhalla), hier wurden beide Funktionsblöcke mit 45 nm in einem einzigen Chip kombiniert - der sogenannten XCGPU.
Allerdings geht der nominell erste Prozessor mit integrierter Grafikeinheit nicht auf das Konto von Microsoft, sondern auf das von Intel - und nein, wir sprechen nicht vom längst eingestampften Timna: Ende 2009 wurde der Pineview-Atom vorgestellt, ein Chip mit zwei Bonnell-CPU-Kernen und integrierter Grafik (GMA 3150), der für die damals sehr populären Netbooks gedacht war.
Seitens AMD gab es zu diesem Zeitpunkt noch keine APUs, wohl aber befanden sich diverse Designs in Entwicklung. So sprach AMD im Sommer 2007 von neuen CPU-Designs: Bobcat (Rotluchs) sollte im Low-Power-Segment überzeugen, Bulldozer hingegen im Desktop- und im Server-Bereich. Die Idee eines 45-nm-Designs musste AMD verwerfen, zu unterschiedlich waren die Anforderungen an Transistoren für CPU- und GPU-Kerne, auch blieb die Frage der Priorisierung lange ein internes Streitthema.
Folgerichtig musste sich AMD auf TSMCs 40 nm und Globalfoundries' 32 nm konzentrieren, weshalb die erste APU überhaupt ein sparsamer Chip für günstige Notebooks wurde: Im Januar 2011 erschien die Brazos-Plattform mit Ontario (9 Watt) und Zacate (18 Watt), welche zwei Bobcat-Cores mit einer Terascale-2-/VLIW5-Grafikeinheit kombinierten. Verglichen zu Intels damaligen Atoms schnitten die Prozessoren sehr gut ab.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
- ohne Werbung
- mit ausgeschaltetem Javascript
- mit RSS-Volltext-Feed
Gemeinsamer Speicher-Pool für CPU und iGPU |
Das ist so nicht ganz korrekt. Die strikte Trennung zwischen CPU-Memory-Map und GPU...
Ich fand damals Bobcat genial. Erst wenige Jahre zuvor hatte ich mir ein Netbook mit Atom...
Das lohnt sich im Desktop-Markt offenbar nicht, sonst hätte AMD es längst getan, die...
Also ohne GPU wird es knapp mit dem Bild. Die APU gibt faktisch viel GPU-Leistung für...
Ich denke die Verträge mit Sony und Microsoft im Konsolen Segment verhindern dies. wenn...
Kommentieren