• IT-Karriere:
  • Services:

MIT: Neue Cache-Architektur für sparsamere und schnellere CPUs

Forscher des MIT und der Universität von Connecticut schlagen vor, die bisher recht hierarchische Architektur von Zwischenspeichern in Prozessoren aufzubrechen. Das Konzept ist für sehr viele Kerne ausgelegt und stammt unter anderem von einem ehemaligen Intel-Mitarbeiter.

Artikel veröffentlicht am ,
Die eines Core i7-4960X mit riesigem L3-Cache, L1 und L2 sitzen in den Cores.
Die eines Core i7-4960X mit riesigem L3-Cache, L1 und L2 sitzen in den Cores. (Bild: Intel)

Eine wissenschaftliche Arbeit sorgt derzeit für viel Diskussionsstoff in Technikmedien, die zwar schon länger vorliegt, aber durch einen Bericht von Ars Technica wieder Aufsehen erregt. In dem Papier (PDF) schlagen Srini Devadas vom MIT und Omer Khan von der Universität von Connecticut eine neue Verwaltung der Caches von Prozessoren vor. Omer war vor seiner wissenschaftliche Karriere als Entwickler erst bei Freescale, dann bei Intel als Chipentwickler tätig.

Stellenmarkt
  1. über Hays AG, Bonn, München
  2. Die Autobahn GmbH des Bundes, Weimar-Legefeld

Die beiden Forscher empfehlen, die Verwaltung der schnellen Zwischenspeicher - Caches - auf Mehrkernprozessoren stark zu verändern. Bisher sind diese Caches ihren Namen wie L1, L2 oder L3 entsprechend streng hierarisch geordnet: Die L1- und L2-Caches stehen in der Regel den einzelnen Kernen exklusiv zur Verfügung. Der L3-Cache, von Intel auch Last-Level-Cache (LLC) genannt, wird gemeinsam von den Cores genutzt.

Dabei werden die Caches mit aufsteigender Nummer immer langsamer, die letzte Stufe ist der Zugriff auf den Hauptspeicher. Er ist unter allen flüchtigen Speichern eines Systems der langsamste. Zudem sind die Caches mit aufsteigender Nummer immer größer. Nachteilig ist auch, dass sie auf dem Die viel Platz einnehmen; sie bestehen aus gleichförmig aufgebautem, statischem RAM. Die Chipdesigner passen die Größe dabei genau an die Erfordernisse der Architektur an.

Die unterschiedliche Größe und die Hierarchie führen nach Ansicht der Forscher dazu, dass das Überschreiten der Kapazität eines Caches zu einer Leistungsbremse wird: Passen die Daten nicht in den L1-Cache, werden sie an den L2-Cache ausgelagert. Ist auch dieser voll, kommt der viel größere L3-Cache zum Einsatz. Dieser ist aber wiederum so groß, dass er die Inhalte mehrerer L1- und L2-Caches speichern kann.

L3-Cache als Erweiterung des L1 direkt nutzen

Also wäre es nach Meinung der Wissenschaftler sinnvoll, den L3-Cache von vornherein wie Erweiterungen von L1 zu verwenden - also die erste Auslagerung in den L2 zu überspringen. Dabei sollen die L3-Bereiche nicht wie bisher dynamisch, sondern statisch belegt werden. Ziel ist es, das Umkopieren von Daten innerhalb der CPU zu minimieren. Das soll nicht nur Rechenleistung bringen, sondern auch Strom sparen, weil die Busse und Caches öfter abgeschaltet werden können.

Für die Praxis nennen die Chipentwickler auch konkrete Beispiele, eines davon: Zwei Kerne arbeiten an denselben Daten. Bei heutigen CPU-Designs können die Cores zwar in die Caches des Partners Einblick nehmen, aber irgendwann müssen die Daten synchronisiert werden. Effizenter wäre es, diesen Datenbereich gleich in den gemeinsam les- und schreibbaren L3 zu verlegen und die Cores darauf zugreifen zu lassen.

Ausprobiert haben die Forscher ihre Cache-Architektur bisher nur an einem spezialisierten Netzwerk-Chip, der aus 64 einfachen Kernen besteht. Dabei ergab sich durch die neue Technik aber eine Steigerung der Rechenleistung um 15 Prozent bei einer Energieersparnis von 25 Prozent. Sollten sich ähnliche Effekte auch bei x86- oder ARM-CPUs ergeben, könnte die neue Cache-Verwaltung aber auch ein Umdenken der klassischen Hierarchie bei anderen Chipentwicklern anstoßen.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Anzeige
Spiele-Angebote
  1. (u. a. eFootball PES 2021 für 7,99€, Assetto Corsa Competizione für 16,99€,
  2. 16,99€
  3. 48,99€

Folgen Sie uns
       


Outriders angespielt

Im Video stellt Golem.de das von People Can Fly entwickelte Actionspiel Outriders vor.

Outriders angespielt Video aufrufen
Programm für IT-Jobeinstieg: Hoffen auf den Klebeeffekt
Programm für IT-Jobeinstieg
Hoffen auf den Klebeeffekt

Aktuell ist der Jobeinstieg für junge Ingenieure und Informatiker schwer. Um ihnen zu helfen, hat das Land Baden-Württemberg eine interessante Idee: Es macht sich selbst zur Zeitarbeitsfirma.
Ein Bericht von Peter Ilg

  1. Arbeitszeit Das Sechs-Stunden-Experiment bei Sipgate
  2. Neuorientierung im IT-Job Endlich mal machen!
  3. IT-Unternehmen Die richtige Software für ein Projekt finden

Weclapp-CTO Ertan Özdil: Wir dürfen nicht in Schönheit und Perfektion untergehen!
Weclapp-CTO Ertan Özdil
"Wir dürfen nicht in Schönheit und Perfektion untergehen!"

Der CTO von Weclapp träumt von smarter Software, die menschliches Eingreifen in der nächsten ERP-Generation reduziert. Deutschen Perfektionismus hält Ertan Özdil aber für gefährlich.
Ein Interview von Maja Hoock


    Fiat 500 als E-Auto im Test: Kleinstwagen mit großem Potenzial
    Fiat 500 als E-Auto im Test
    Kleinstwagen mit großem Potenzial

    Fiat hat einen neuen 500er entwickelt. Der Kleine fährt elektrisch - und zwar richtig gut.
    Ein Test von Peter Ilg

    1. Vierradlenkung Elektrischer GMC Hummer SUV fährt im Krabbengang seitwärts
    2. MG Cyberster MG B Roadster mit Lasergürtel und Union Jack
    3. Elektroauto E-Auto-Prämie übersteigt in 2021 schon Vorjahressumme

      •  /