Original-URL des Artikels: https://www.golem.de/0806/60497.html    Veröffentlicht: 19.06.2008 11:44    Kurz-URL: https://glm.io/60497

Intels Larrabee als Gefahr für GeForce und Co.

Intel will den Computergrafikmarkt von alten Architekturen befreien

Auf der Computergrafikkonferenz Siggraph 2008 wird Intel seinen Grafikchip Larrabee im Detail vorstellen. Larrabee soll nicht nur Intels Rückkehr in den Grafikkartenmarkt ebnen, sondern - so Cheftechniker Justin Rattner im Gespräch mit Golem.de - den Markt für Computergrafik umkrempeln.

Mit Larrabee geht Intel einen anderen Weg als der derzeitige Marktführer Nvidia. Larrabee soll den traditionellen Grafikchipaufbau hinter sich lassen und wird dabei auf viele universell programmierbare Kerne in einem Chip setzen. Mögliche Einsatzgebiete wären Echtzeit-Raytracing oder auch andere Rendermethoden - was Intel bereits mehrfach auf leistungsfähigen Multicore-Systemen ohne Larrabee präsentierte.

Intels Chief Technology Officer (CTO) Justin Rattner wollte zwar im Rahmen eines Interviews mit Golem.de noch keine Details zu Larrabee nennen. Er erklärte jedoch, welches Ziel Intel mit Larrabee verfolgt: "Wir versuchen hier ein Paradigma zu verändern, das Grafik und Visual Computing an eine recht starre und etwas veraltete Architektur gebunden hat. Wenn es um Rastergrafik geht, ist diese Architektur großartig. Für den, der sich nicht nur auf Rastergrafik beschränken will, ist das ein Problem, um das herum gearbeitet werden muss." In der Regel erfolge dieses Umgehen der Beschränkungen, indem die Szenendatenbank in mehreren Durchgängen gerendert wird, um die Effekte dorthin zu bekommen, wo sie gewünscht sind.

Larrabee soll nun frischen Wind in den an seine Grenzen stoßenden Markt für Grafikchips und Grafikkarten bringen. Rattner dazu: "In den kommenden Monaten wird klar werden, dass Larrabee die Verbindung zwischen der klassischen Grafikpipeline und den einsetzbaren Algorithmen aufbricht. Weil Larrabee im Grunde auf Intel-Architektur basiert, lassen sich viele Algorithmen für Visualisierungsaufgaben nutzen, die dramatisch umfangreicher sind als das, was heute möglich ist - und auch noch effizienter ausgeführt werden. Wir hoffen, dass Larrabee zu einem Paradigmenwechsel führen wird - und zu einer besseren, schnelleren, leistungsfähigeren Computervisualisierung."

Auf die Frage, ob Nvidia seine Architektur nun grundlegend verändern muss, um den Anschluss nicht zu verlieren, antwortete Rattner mit einem Schmunzeln. "Ich bin mir sicher, dass sie irgendeine Antwort finden werden - es sind intelligente Leute. Sie werden etwas Cleveres tun - aber wir werden eine wichtige Alternative anbieten und letztlich die Industrie entscheiden lassen, was der bessere Ansatz ist."

Einzige offizielle Folie zu Larrabee bisher (IDF Spring 2008)
Einzige offizielle Folie zu Larrabee bisher (IDF Spring 2008)
Was Larrabee genau bieten wird, lässt sich erst ab der Siggraph 2008 im kommenden August absehen, bestätigte Rattner Golem.de. Auf der Fachkonferenz für Computergrafik stellt Intel im Rahmen des Vortrags "Larrabee: A Many-Core x86 Architecture for Visual Computing" seine Hard- und Softwarearchitektur vor. In der Beschreibung heißt es, dass Larrabee mehrere CPU-Kerne mit breiten Vektorprozessoren, kohärenten Caches und Textureinheiten für Standard-Grafikrendering und GPU-Computing umfasst.

Dass Larrabee aus mehreren x86-Kernen besteht und damit auch Intels erster "Many-Core-Prozessor" wird, hatte der Chiphersteller im März 2007 auf dem IDF bestätigt. Auch, dass er auf einer Grafikkarte mit OpenGL- und DirectX-Treibern eingesetzt werden wird, erklärte Intel-Vize Pat Gelsinger auf dieser Veranstaltung. Bereits Ende 2006 waren erste Gerüchte über das Projekt aufgetaucht, dessen Details bei Intel immer noch streng geheim gehalten werden. Dabei tauchten immer wieder Entwicklerunterlagen auf, laut denen es zunächst 16 Kerne mit einer neuartigen Speicherarchitektur werden sollen. Auf dem IDF sprach Intel von "Teraflops an Performance", die man nun aber auch liefern muss: Die aktuellen Grafikarchitekturen GT-200 von Nvidia und RV770 von AMD erreichen pro GPU rund 1 Teraflops.

Unklar ist weiterhin, wann Intel Larrabee erstmals im Betrieb zeigt, und wann die ersten Produkte erscheinen sollen. Im Januar 2008 sagte Intel-CEO Paul Otellini in einer Telefonkonferenz, es gebe noch kein "first silicon", der Chip sei also noch gar nicht fertig. Wie Otellini weiter ausführte, würden die ersten Muster erst Ende 2008 erwartet, erst ein Jahr später rechnet Intel mit konkreten Produkten. Was man nun also auf der Siggraph zu Larrabee verraten will, bleibt weiter spannend.

Auf der Siggraph ist auch Nvidia mit mehreren Präsentationen zugegen - eine davon dreht sich um interaktives Raytracing mittels Nvidias GPU-Computing-Schnittstelle CUDA, eine weitere um die Vorzüge von CUDA selbst.  (ck)


Verwandte Artikel:
Knights Mill: Intel hat drei Xeon Phi für Deep Learning   
(18.12.2017, https://glm.io/131724 )
IDF: Nehalem-Workstation mit 32 Threads, Tukwila in Betrieb   
(02.04.2008, https://glm.io/58729 )
Nvidia will Raytracing-Start-up kaufen   
(23.05.2008, https://glm.io/59913 )
Inno3D P104-100: Hybrid aus GTX 1070 und GTX 1080 berechnet Kryptowährungen   
(14.12.2017, https://glm.io/131666 )
Intel startet Community für Grafik-Programmierer   
(10.06.2008, https://glm.io/60301 )

Links zum Artikel:
Intel: http://www.intel.de
SIGGRAPH (.org): http://www.siggraph.org
Siggraph: "Larrabee: A Many-Core x86 Architecture for Visual Computing": http://www.siggraph.org/s2008/attendees/program/item/?type=papers&id=34

© 1997–2020 Golem.de, https://www.golem.de/