Intel Inside: Strombedarf wird sinken (Teil 2)

Golem: Heißt das, dass mit dem Wechsel auf die neue Architektur die Taktfrequenzen in Zukunft noch mehr an Bedeutung verlieren?
Golem: Das Gigahertz-Rennen ist damit vorbei?
Gelsinger: Es wird nicht diese bisherige rasante Beschleunigung geben, sondern nur mäßige Steigerungen. Die echten Verbesserungen liegen beim Einsatz mehrerer Cores und anderen leistungssteigernden Mechanismen, die nicht auf der Taktfrequenz basieren. Sie werden da Dinge wie "Micro-Ops Fusion" sehen, das wir mit dem Pentium M eingeführt haben [A.d.R.: Micro Ops-Fusion ist eine Technik des Pentium M, die Befehle und Datentypen automatisch zur schnelleren Verarbeitung zusammenfasst und gilt als Kern der hohen Effizienz dieses Prozessors] . Das war ein sehr cleverer Weg zu mehr Leistung, der aber nicht wesentlich mehr Strom benötigt hat.
Golem: Dann ist eine niedrigere Leistungsaufnahme bei Intel jetzt in allen Bereichen eine wesentliche Designvorgabe? Der Prescott-Kern brauchte drei Steppings, um unter 80 Watt zu kommen, und die neue Extreme Edition 840 mit zwei Kernen ist derzeit mit 130 Watt der leistungshungrigste Desktop-Prozessor.
Gelsinger: Der Rahmen, in dem ein Prozessor elektrische Leistung aufnehmen darf, wird sich nicht ändern. Die Grenzen sind da genau abgesteckt.
Golem: Und neue Technologien wie Wasserkühlungen sind keine Option?
Golem: Gilt das neben den Gamern, die ihre Rechner oft zu LAN-Partys tragen, für alle Bereiche?
Gelsinger: Wir haben dazu Studien durchgeführt. Wenn die Kunden einen kompakteren PC zum gleichen Preis kaufen könnten, würden sie den kleineren Formfaktor bevorzugen. Aber sie sind nicht bereit, bei Desktop-PCs für das kleinere Gehäuse einen Aufpreis zu bezahlen.
Golem: Gerade in Deutschland scheinen aber immer mehr Kunden bereit zu sein, für kompakte PCs deutlich mehr zu bezahlen.
Gelsinger: Global betrachtet, und da haben wir sehr genau geforscht, ist da kein großer Spielraum. Wir wollen ja kleinere Formfaktoren, und die werden sich auch verkleinern. Wofür aber gerade Unternehmen mehr ausgeben würden, ist der "Common Client". Wenn man dort für beispielsweise ein Notebook und einen Desktop dasselbe Werkzeug, dieselben Treiber und dasselbe BIOS braucht, sinken die TCO-Kosten für die Geräte. Generell werden beim Mainstream-Einsatz von Computern die Formfaktoren kleiner und auch der Strombedarf geringer werden.
Golem: Intel hat sich voll und ganz der Dual-Core-Strategie verschrieben. Alles, vom Notebook bis zum Server, wird Dual-Cores haben...
Gelsinger: Absolut alles! Und danach dann: Multi-Cores!
Golem: Ist das nur ein vorübergehender Trend, wie die Slot-Bauweise der Prozessoren, die schnell verschwunden waren, als man den L2-Cache im Die integrieren konnte?
Gelsinger: Wir sehen das nicht so. Wir sehen den Trend vom Dual- zum Multi-, zum Many-Core-Prozessor verlaufen. Wie viele Cores dann einen Multi-Core-Prozessor oder eine Many-Core-Maschine ausmachen werden, wird sicher noch kontrovers diskutiert werden.
Golem: Von wem?
Gelsinger: Wenn man mit Microsoft oder den Linux-Leuten spricht, hört man, dass diese Entwickler noch nicht wissen, wie ein Betriebssystem vernünftig parallelisiert werden kann. Dabei stößt man nämlich automatisch auf Probleme mit Threads, die sich gegenseitig blockieren, und muss sehr genau einen stabilen Zustand des Systems beachten. Auch wenn man acht, zehn oder 20 Threads parallel verarbeiten könnte, skaliert das nicht besonders gut. Selbst wenn ich Ihnen morgen einen Rechner auf den Tisch stellen würde, der 128 Threads parallel ausführen könnte – welche Programme würden Sie schon darauf laufen lassen? Da gibt es also noch eine Riesendiskussion darüber, wie viele Kerne man wirklich braucht, wie viel Threads sie verarbeiten können sollen, und so weiter.
Gelsinger: Der Wechsel zu parallelen Rechnern steht für uns außer Frage. Wir gehen da nicht zurück. Es wird mehr als zwei Kerne und mehr als vier Kerne geben.
Golem: Und was ist dann mit all den älteren Betriebssystemen und den älteren Anwendungen? Vor allem Spiele machen derzeit kaum Gebrauch von mehreren Kernen. Da dieselbe Engine oft viele Jahre eingesetzt wird, kann sich daran so schnell etwas ändern?
Gelsinger: Ja, einige dieser Anwendungen werden nicht skalieren. Sehen wir uns die Struktur eines Spiels doch einmal etwas genauer an. Da hat man zum einen das Backend der Grafik-Engine, da wird sich nicht viel ändern. Dann haben wir die eigentliche Spielmechanik. Das ist vor allem eine Anwendung in einem Thread. Wie man die parallelisiert, haben sich die Leute noch nicht genau überlegt. Und dann hat man noch die Physik, die künstliche Intelligenz und das Frontend der Grafik-Engine – all das skaliert sehr gut!
Golem: Das sind also die einzigen Ansatzpunkte?
Gelsinger: Die Leute, mit denen wir gesprochen haben, wie zum Beispiel Tim Sweeney [A.d.Red: Chefprogrammierer bei Epic Games und Autor der Unreal-Engines] haben das bestätigt. Das Frontend und die Physik lassen sich parallelisieren. Auch ein Wechsel zum Raytracing erscheint möglich. Es gibt da eine Menge Begeisterung für die Parallelisierung. Bei der Spielmechanik sehen diese Entwickler aber noch keine Skalierbarkeit.
Golem: Ist da keine Lösung in Sicht?
Gelsinger: Darauf habe ich noch keine eindeutige Antwort, auch wenn wir da an einigen recht schlauen Sachen arbeiten. Wir haben zum Beispiel schon das "warm threading" gezeigt. Dabei benutzt man Hilfs-Threads, die auf dem zweiten Core laufen, um den Cache für den ersten Core freizuräumen. Dabei arbeiten wir eigentlich mit einer Thread-Voraussage, was sehr vielversprechend ist. Ein anderer Ansatz wäre der Wechsel zu echten Laufzeitumgebungen auch bei Spielen. Damit bekommt man nämlich ein Art eingebaute Parallelität. Das ist aber ein Problem bei allen bisherigen Anwendungen: Einige Teile davon skalieren mit paralleler Verarbeitung gut und andere überhaupt nicht. Wir kümmern uns aber vor allem um die neuen Anwendungen, die neuen Einsatzgebiete, die sich gut parallelisieren lassen.
Golem: Die Spieler setzen aber heute noch sehr viele alte Programme und alte Engines ein....
Gelsinger: Eigentlich nicht. Die wechseln sehr schnell zu neuen Programmen, bleiben aber bei denselben alten Softwarekernen für die Spielmechanik und das Grafik-Rendering.
Golem: Wie lange wird Intel dafür noch neue, schnellere Single-Core-Prozessoren auf den Markt bringen?
Gelsinger: Das haben wir noch nicht genau festgelegt. Aber wir haben schon gesagt, dass wir Ende nächsten Jahres 90 Prozent unserer Produkte mit Dual-Cores ausliefern werden. Es wird nicht allzu viele neue Steppings von bisherigen Prozessoren geben, auch wenn schon einige vorbreitet werden. Wir haben aber auch gesagt, dass wir an 15 Dual-Core-Produkten arbeiten, und diese Zahl liegt jetzt schon eher bei 20. Aber wir machen auch noch einige neue Prozessoren mit nur einem Kern. [von Nico Ernst]



