Abo
  • Services:

MIT: Neue Cache-Architektur für sparsamere und schnellere CPUs

Forscher des MIT und der Universität von Connecticut schlagen vor, die bisher recht hierarchische Architektur von Zwischenspeichern in Prozessoren aufzubrechen. Das Konzept ist für sehr viele Kerne ausgelegt und stammt unter anderem von einem ehemaligen Intel-Mitarbeiter.

Artikel veröffentlicht am ,
Die eines Core i7-4960X mit riesigem L3-Cache, L1 und L2 sitzen in den Cores.
Die eines Core i7-4960X mit riesigem L3-Cache, L1 und L2 sitzen in den Cores. (Bild: Intel)

Eine wissenschaftliche Arbeit sorgt derzeit für viel Diskussionsstoff in Technikmedien, die zwar schon länger vorliegt, aber durch einen Bericht von Ars Technica wieder Aufsehen erregt. In dem Papier (PDF) schlagen Srini Devadas vom MIT und Omer Khan von der Universität von Connecticut eine neue Verwaltung der Caches von Prozessoren vor. Omer war vor seiner wissenschaftliche Karriere als Entwickler erst bei Freescale, dann bei Intel als Chipentwickler tätig.

Stellenmarkt
  1. BWI GmbH, Meckenheim, München
  2. CG Car-Garantie Versicherungs-AG, Freiburg

Die beiden Forscher empfehlen, die Verwaltung der schnellen Zwischenspeicher - Caches - auf Mehrkernprozessoren stark zu verändern. Bisher sind diese Caches ihren Namen wie L1, L2 oder L3 entsprechend streng hierarisch geordnet: Die L1- und L2-Caches stehen in der Regel den einzelnen Kernen exklusiv zur Verfügung. Der L3-Cache, von Intel auch Last-Level-Cache (LLC) genannt, wird gemeinsam von den Cores genutzt.

Dabei werden die Caches mit aufsteigender Nummer immer langsamer, die letzte Stufe ist der Zugriff auf den Hauptspeicher. Er ist unter allen flüchtigen Speichern eines Systems der langsamste. Zudem sind die Caches mit aufsteigender Nummer immer größer. Nachteilig ist auch, dass sie auf dem Die viel Platz einnehmen; sie bestehen aus gleichförmig aufgebautem, statischem RAM. Die Chipdesigner passen die Größe dabei genau an die Erfordernisse der Architektur an.

Die unterschiedliche Größe und die Hierarchie führen nach Ansicht der Forscher dazu, dass das Überschreiten der Kapazität eines Caches zu einer Leistungsbremse wird: Passen die Daten nicht in den L1-Cache, werden sie an den L2-Cache ausgelagert. Ist auch dieser voll, kommt der viel größere L3-Cache zum Einsatz. Dieser ist aber wiederum so groß, dass er die Inhalte mehrerer L1- und L2-Caches speichern kann.

L3-Cache als Erweiterung des L1 direkt nutzen

Also wäre es nach Meinung der Wissenschaftler sinnvoll, den L3-Cache von vornherein wie Erweiterungen von L1 zu verwenden - also die erste Auslagerung in den L2 zu überspringen. Dabei sollen die L3-Bereiche nicht wie bisher dynamisch, sondern statisch belegt werden. Ziel ist es, das Umkopieren von Daten innerhalb der CPU zu minimieren. Das soll nicht nur Rechenleistung bringen, sondern auch Strom sparen, weil die Busse und Caches öfter abgeschaltet werden können.

Für die Praxis nennen die Chipentwickler auch konkrete Beispiele, eines davon: Zwei Kerne arbeiten an denselben Daten. Bei heutigen CPU-Designs können die Cores zwar in die Caches des Partners Einblick nehmen, aber irgendwann müssen die Daten synchronisiert werden. Effizenter wäre es, diesen Datenbereich gleich in den gemeinsam les- und schreibbaren L3 zu verlegen und die Cores darauf zugreifen zu lassen.

Ausprobiert haben die Forscher ihre Cache-Architektur bisher nur an einem spezialisierten Netzwerk-Chip, der aus 64 einfachen Kernen besteht. Dabei ergab sich durch die neue Technik aber eine Steigerung der Rechenleistung um 15 Prozent bei einer Energieersparnis von 25 Prozent. Sollten sich ähnliche Effekte auch bei x86- oder ARM-CPUs ergeben, könnte die neue Cache-Verwaltung aber auch ein Umdenken der klassischen Hierarchie bei anderen Chipentwicklern anstoßen.



Anzeige
Spiele-Angebote
  1. 53,99€ statt 69,99€
  2. 44,98€ + USK-18-Versand
  3. 39,99€
  4. 31,49€

Folgen Sie uns
       


Google Pixel 3 XL - Test

Das Pixel 3 XL ist eines von zwei neuen Smartphones von Google. Das Gerät soll dank Algorithmen besonders gute Fotos machen - in unserem Test kann Google dieses Versprechen aber nur bedingt halten.

Google Pixel 3 XL - Test Video aufrufen
Athlon 200GE im Test: Celeron und Pentium abgehängt
Athlon 200GE im Test
Celeron und Pentium abgehängt

Mit dem Athlon 200GE belebt AMD den alten CPU-Markennamen wieder: Der Chip gefällt durch seine Zen-Kerne und die integrierte Vega-Grafikeinheit, die Intel-Konkurrenz hat dem derzeit preislich wenig entgegenzusetzen.
Ein Test von Marc Sauter

  1. AMD Threadripper erhalten dynamischen NUMA-Modus
  2. HP Elitedesk 705 Workstation Edition Minitower mit AMD-CPU startet bei 680 Euro
  3. Ryzen 5 2600H und Ryzen 7 2800H 45-Watt-CPUs mit Vega-Grafik für Laptops sind da

Campusnetze: Das teure Versäumnis der Telekom
Campusnetze
Das teure Versäumnis der Telekom

Die Deutsche Telekom muss anderen Konzernen bei 5G-Campusnetzen entgegenkommen. Jahrzehntelang von Funklöchern auf dem Lande geplagt, wollen Siemens und die Automobilindustrie nun selbst Mobilfunknetze aufspannen. Auch der öffentliche Rundfunk will selbst 5G machen.
Eine Analyse von Achim Sawall

  1. Stadtnetzbetreiber 5G-Netz kann auch aus der Box kommen
  2. Achim Berg "In Sachen Gigabit ist Deutschland ein großer weißer Fleck"
  3. Telefónica Bündelung von Bandbreiten aus 4G und 5G ist doch möglich

Neuer Kindle Paperwhite im Hands On: Amazons wasserdichter E-Book-Reader mit planem Display
Neuer Kindle Paperwhite im Hands On
Amazons wasserdichter E-Book-Reader mit planem Display

Amazon bringt einen neuen Kindle Paperwhite auf den Markt und verbessert viel. Der E-Book-Reader steckt in einem wasserdichten Gehäuse, hat eine plane Displayseite, mehr Speicher und wir können damit Audible-Hörbücher hören. Noch nie gab es so viel Kindle-Leistung für so wenig Geld.
Ein Hands on von Ingo Pakalski


      •  /