Abo
  • Services:

MIT: Neue Cache-Architektur für sparsamere und schnellere CPUs

Forscher des MIT und der Universität von Connecticut schlagen vor, die bisher recht hierarchische Architektur von Zwischenspeichern in Prozessoren aufzubrechen. Das Konzept ist für sehr viele Kerne ausgelegt und stammt unter anderem von einem ehemaligen Intel-Mitarbeiter.

Artikel veröffentlicht am ,
Die eines Core i7-4960X mit riesigem L3-Cache, L1 und L2 sitzen in den Cores.
Die eines Core i7-4960X mit riesigem L3-Cache, L1 und L2 sitzen in den Cores. (Bild: Intel)

Eine wissenschaftliche Arbeit sorgt derzeit für viel Diskussionsstoff in Technikmedien, die zwar schon länger vorliegt, aber durch einen Bericht von Ars Technica wieder Aufsehen erregt. In dem Papier (PDF) schlagen Srini Devadas vom MIT und Omer Khan von der Universität von Connecticut eine neue Verwaltung der Caches von Prozessoren vor. Omer war vor seiner wissenschaftliche Karriere als Entwickler erst bei Freescale, dann bei Intel als Chipentwickler tätig.

Stellenmarkt
  1. DESY Deutsches Elektronen Synchrotron, Hamburg
  2. Schaeffler AG, Herzogenaurach

Die beiden Forscher empfehlen, die Verwaltung der schnellen Zwischenspeicher - Caches - auf Mehrkernprozessoren stark zu verändern. Bisher sind diese Caches ihren Namen wie L1, L2 oder L3 entsprechend streng hierarisch geordnet: Die L1- und L2-Caches stehen in der Regel den einzelnen Kernen exklusiv zur Verfügung. Der L3-Cache, von Intel auch Last-Level-Cache (LLC) genannt, wird gemeinsam von den Cores genutzt.

Dabei werden die Caches mit aufsteigender Nummer immer langsamer, die letzte Stufe ist der Zugriff auf den Hauptspeicher. Er ist unter allen flüchtigen Speichern eines Systems der langsamste. Zudem sind die Caches mit aufsteigender Nummer immer größer. Nachteilig ist auch, dass sie auf dem Die viel Platz einnehmen; sie bestehen aus gleichförmig aufgebautem, statischem RAM. Die Chipdesigner passen die Größe dabei genau an die Erfordernisse der Architektur an.

Die unterschiedliche Größe und die Hierarchie führen nach Ansicht der Forscher dazu, dass das Überschreiten der Kapazität eines Caches zu einer Leistungsbremse wird: Passen die Daten nicht in den L1-Cache, werden sie an den L2-Cache ausgelagert. Ist auch dieser voll, kommt der viel größere L3-Cache zum Einsatz. Dieser ist aber wiederum so groß, dass er die Inhalte mehrerer L1- und L2-Caches speichern kann.

L3-Cache als Erweiterung des L1 direkt nutzen

Also wäre es nach Meinung der Wissenschaftler sinnvoll, den L3-Cache von vornherein wie Erweiterungen von L1 zu verwenden - also die erste Auslagerung in den L2 zu überspringen. Dabei sollen die L3-Bereiche nicht wie bisher dynamisch, sondern statisch belegt werden. Ziel ist es, das Umkopieren von Daten innerhalb der CPU zu minimieren. Das soll nicht nur Rechenleistung bringen, sondern auch Strom sparen, weil die Busse und Caches öfter abgeschaltet werden können.

Für die Praxis nennen die Chipentwickler auch konkrete Beispiele, eines davon: Zwei Kerne arbeiten an denselben Daten. Bei heutigen CPU-Designs können die Cores zwar in die Caches des Partners Einblick nehmen, aber irgendwann müssen die Daten synchronisiert werden. Effizenter wäre es, diesen Datenbereich gleich in den gemeinsam les- und schreibbaren L3 zu verlegen und die Cores darauf zugreifen zu lassen.

Ausprobiert haben die Forscher ihre Cache-Architektur bisher nur an einem spezialisierten Netzwerk-Chip, der aus 64 einfachen Kernen besteht. Dabei ergab sich durch die neue Technik aber eine Steigerung der Rechenleistung um 15 Prozent bei einer Energieersparnis von 25 Prozent. Sollten sich ähnliche Effekte auch bei x86- oder ARM-CPUs ergeben, könnte die neue Cache-Verwaltung aber auch ein Umdenken der klassischen Hierarchie bei anderen Chipentwicklern anstoßen.



Anzeige
Top-Angebote
  1. 12,49€
  2. 219€ + Versand (Vergleichspreis 251€)
  3. 69€
  4. (u. a. Destiny 2 PS4 für 9,99€)

Folgen Sie uns
       


Octopath Traveler - Livestream

Im Livestream zu Octopath Traveler erklären wir den Alltag im JRPG von Square Enix und Nintendo und verfallen später in eine Diskussion über Motivationsphilosophien in Games und das Genre allgemein.

Octopath Traveler - Livestream Video aufrufen
Automatisiertes Fahren: Der schwierige Weg in den selbstfahrenden Stau
Automatisiertes Fahren
Der schwierige Weg in den selbstfahrenden Stau

Der Staupilot im neuen Audi A8 soll der erste Schritt auf dem Weg zum hochautomatisierten Fahren sein. Doch die Verhandlungen darüber, was solche Autos können müssen, sind sehr kompliziert. Und die Tests stellen Audi vor große Herausforderungen.
Ein Bericht von Friedhelm Greis

  1. Nach tödlichem Unfall Uber entlässt 100 Testfahrer für autonome Autos
  2. Autonomes Fahren Daimler und Bosch testen fahrerlose Flotte im Silicon Valley
  3. Kooperationen vereinbart Deutschland setzt beim Auto der Zukunft auf China

Raumfahrt: Großbritannien will wieder in den Weltraum
Raumfahrt
Großbritannien will wieder in den Weltraum

Die Briten wollen eigene Raketen bauen und von Großbritannien aus starten. Ein Teil des Geldes dafür kommt auch von Investoren und staatlichen Investitionsfonds aus Deutschland.
Von Frank Wunderlich-Pfeiffer

  1. Esa Sonnensystemforschung ohne Plutonium
  2. Jaxa Japanische Sonde Hayabusa 2 erreicht den Asteroiden Ryugu
  3. Mission Horizons @Astro_Alex fliegt wieder

Indiegames-Rundschau: Schiffbruch, Anime und viel Brummbrumm
Indiegames-Rundschau
Schiffbruch, Anime und viel Brummbrumm

Gas geben, den weißen Hai besiegen und endlich die eine verlorene Socke wiederfinden: Die sommerlichen Indiegames bieten für jeden etwas - besonders fürs Spielen zu zweit.
Von Rainer Sigl

  1. Indiegames-Rundschau Schwerelose Action statt höllischer Qualen
  2. Indiegames-Rundschau Kampfkrieger und Abenteuer in 1001 Nacht
  3. Indiegames-Rundschau Mutige Mäuse und tapfere Trabbis

    •  /