Original-URL des Artikels: https://www.golem.de/1005/74983.html    Veröffentlicht: 06.05.2010 21:47    Kurz-URL: https://glm.io/74983

Intels Resilient Computing

Schnellere Prozessoren durch mehr Rechenfehler

Auf einer Veranstaltung in Brüssel hat Intel den Prototyp eines RISC-Prozessors vorgestellt, der sich möglichst oft verrechnen darf - dabei wird er nämlich entweder schneller oder sparsamer. Eine Fehlerkorrektur sorgt trotzdem für eine korrekte Funktion der CPU.

Während des ersten europäischen "Research @ Intel Day" zeigte der Chiphersteller einen Versuchsaufbau für "Resilient Computing". Was sich nur unzureichend als "dehnfähige Berechnungen" übersetzen lässt, ist ein neuer Ansatz, um Prozessoren entweder schneller rechnen zu lassen oder ihre Leistungsaufnahme zu reduzieren.

Halbleiter haben die unangenehme Eigenschaft, auf hohe Spannungen - die höhere Takte erlauben - in nicht immer vorhersagbarer Weise zu reagieren. Oft kommt es dabei zu elektronischen Anomalien wie dem Übersprechen zwischen Leitungen oder Durchschlägen von Elektronen. Das kann unter anderem zu falschen Berechnungen führen. Bei geringen Spannungen wiederum kann ein Signal manchmal gar nicht da ankommen, wo es hin soll.

Wenn es aber gelingt, die Fehler auf elektrischer Ebene zu erkennen, kann man sich solche Effekte auch zunutze machen. Statt eine Schaltung immer im sicheren Bereich zu betreiben, in dem sie sich nicht verrechnet, lässt sich die Frequenz deutlich erhöhen.

Das ergibt mehr Fehler, wenn diese sich aber abfangen lassen, bevor die Ergebnisse in den Cache oder Speicher zurückgeschrieben werden, ergibt sich auch mehr Leistung. Auch ein Absenken der Spannung zum Stromsparen ist so möglich.

Um das Resilient Computing auszuprobieren, hat Intel einen Forschungschip namens Palisades gebaut. Er basiert laut Projektleiter Jim Tschanz aus Intels Circuits Lab in Oregon auf einem offenen RISC-Design. Dieses hat Tschanz' Team um Schaltungen erweitert, die die Zustände der CPU überwachen. Dazu zählen unter anderem Timer, welche die Signallaufzeiten messen. Liegen diese außerhalb des sicheren Rahmens, muss ein Fehler aufgetreten sein.

Mehr Performance oder weniger Strom

Dann wird die Pipeline geleert, der Takt gesenkt und nur der Befehl neu angestoßen, der zuletzt ausgeführt wurde. Der Prozessor passt sich also selbst an seine Rechenergebnisse an, weshalb Intel das Konzept auch als "self-tuning processor" bezeichnet. Tschanz erklärte Golem.de, dass die Technik auch Funktionen verwendet, die in der Power Control Unit der aktuellen Core-i-CPUs steckt.

Diese Schaltung aus über einer Million Transistoren stellt den Turbo-Boost zur Verfügung, indem sie den Takt abhängig von Leistungsaufnahme und Wärme automatisch regelt. Dabei erreicht der Turbo bisher bis zu 666 MHz mehr als der Basistakt der CPU, in künftigen Prozessoren soll es laut Tschanz noch viel größere Steigerungen geben. Diese sind dann auch von der Zahl der festgestellten Fehler abhängig.

Bei der Vorführung der Palisades-Testplattform in Brüssel lief der Prozessor als "bare metal" ohne eigenes Betriebssystem, er wurde nur auf Registerebene von einem anderen Windows-PC gesteuert. Dieser stellte auch die Anwendung dar: Kantenerkennung (edge detection) bei Digitalfotos. Indem die Fehlererkennung an- oder ausgeschaltet wurde, ließen sich dabei die Ergebnisse vergleichen.

Bis zu 8 Millionen Fehler
Bis zu 8 Millionen Fehler
Bei bis zu 1,4 Millionen Fehlern pro Sekunde waren die Bilder schnell kaum noch zu erkennen; fing Palisades sie ab, ergaben sich Darstellungen wie in guten Bildverarbeitungsprogrammen. Offenbar hatte Intel aber den Takt der CPU für die Demonstration gesenkt, in einem schon früher veröffentlichten Video des Chipherstellers durfte sich Palisades auch über 7 Millionen Mal verrechnen - und lieferte dabei immer noch korrekte Daten.

Laut Tschanz hat sein Team schon tausende von Algorithmen auf den Testchip losgelassen. Da Resilient Computing zu mehr Leistung oder geringerer Leistungsaufnahme dienen soll, verglichen die Forscher dabei stets eine Version von Palisades, die bei einer gegebenen Leistungsaufnahme ohne Fehlerkorrektur eine bestimmte Rechenleistung erzielt. Bei gleicher Performance ließ sich mit der Funktion die Leistungsaufnahme um 21 Prozent senken. Blieb die Leistungsaufnahme auf dem vorgegebenen Wert, konnte die Rechenleistung um 41 Prozent gesteigert werden.  (nie)


Verwandte Artikel:
IBM Q: IBMs Quantencomputer klingt wie ein dampfbetriebenes Uhrwerk   
(02.01.2018, https://glm.io/131927 )
Ultraschall: Mutmaßlicher Lauschangriff verursacht Gesundheitsprobleme   
(05.03.2018, https://glm.io/133138 )
3D NAND: Samsung investiert doppelt so viel in die Halbleitersparte   
(12.12.2017, https://glm.io/131627 )
Prozessor: Modder startet Coffee Lake auf H110-Board   
(06.03.2018, https://glm.io/133178 )
AMDs Embedded-Pläne: Ein bisschen Wunschdenken, ein bisschen Wirklichkeit   
(23.02.2018, https://glm.io/132925 )

© 1997–2020 Golem.de, https://www.golem.de/