Original-URL des Artikels: https://www.golem.de/0102/12624.html    Veröffentlicht: 27.02.2001 15:59    Kurz-URL: https://glm.io/12624

GeForce3 - 3D-Grafikqualität erreicht eine neue Stufe

Mehr mit Xbox als mit GeForce2 verwandt

Der Name von NVidias neuestem Grafikprozessor erinnert zwar an die Vorgänger GeForce256 und GeForce2, ist jedoch in Wirklichkeit mehr mit der XGPU der Microsoft-Spielekonsole Xbox verwandt - kein Wunder, beide basieren auf dem gleichen Kern. So verspricht die GeForce3 nicht nur bahnbrechende 3D-Grafikeffekte, sondern auch einen deutlicheren Leistungssprung als von GeForce256 (bzw. GeForce1) zur GeForce2.

Erste Karten ab März/April
Erste Karten ab März/April
Um vor allem eine höhere Leistung zu erreichen, musste NVidia sich einiges einfallen lassen, denn mit steigenden Auflösungen, immer höherer Komplexität der in Spielen zu findenden 3D-Modelle und -Szenerien sowie stets dynamischer werdenden 3D-Welten müssen immer mehr Daten über den - im Vergleich zu den Anforderungen eher unterdimensionierten - AGP-Bus in die Grafikkarte und vor allem zwischen Grafikprozessor und Grafikkarten-Speicher übertragen werden.

NVidia ist bereits mit dem GeForce2-Design an die Grenzen der Bandbreite für aktuelle DDR-SDRAMs gestoßen. Beim GeForce2-Topmodell, der GeForce2 Ultra, wählte man deshalb eine weitere Erhöhung des Speicher- und Grafikprozessortakts - das trieb zwar die Leistung in den bandbreitenintensiven höheren Auflösungen über 1024 x 786 Punkten hoch, allerdings auch den Preis - der liegt bei deutlich über 1.000,- DM.

Zoltar-Demo - Mit GeForce3 sollen 3D-Charaktere bald wesentlich lebendiger wirken
Zoltar-Demo - Mit GeForce3 sollen 3D-Charaktere bald wesentlich lebendiger wirken
Zwar sind GeForce3-Grafikkarten anfangs nicht günstiger, doch geht NVidia die Bandbreitenproblematik mit Hilfe einer intelligenteren Architektur an, die Daten nicht nur komprimiert durch den Speicherbus jagt, sondern die Datenmenge auch anderweitig reduziert. Damit kann NVidia zum einen Kosten mit günstigeren Speichern einsparen, in Zukunft auch billige SDRAM-Versionen anbieten und hat darüber hinaus die Möglichkeit, mit teurem Speicher die Leistung anzuheben.

GeForce3 - 57 Mio. Transistoren
GeForce3 - 57 Mio. Transistoren
Gleich drei Neuerungen hat NVidias "Lightspeed Memory Architecture" zu bieten:

Higher Order Surfaces ("Oberflächen höherer Ordnung")

GeForce3 unterstützt erstmals Curved Surfaces in Hardware und erlaubt es Spieleentwicklern, komplexere 3D-Objekte einzusetzen, die nicht lediglich durch höhere Polygon-Anzahl sondern mit Hilfe von komplexeren Funktionen bzw. Kurven erzeugt werden. NVidia setzt hierbei auf Polynomial Surfaces, deren grundlegende geometrische Gitternetz-Formen sowohl aus Drei- als auch Vierecken bestehen können. Damit werden insbesondere organische, geschwungene Formen möglich, die beispielsweise entsprechend ihrer Entfernung vom Betrachter stufenlos im Detail verändert werden können ("Adaptive Tesselation").

Lossless Z Compression

Der Z-Buffer repräsentiert die Tiefe oder Sichtbarkeits-Information für die Pixel, die nach dem Rendern gezeigt werden. Traditionelle Render-Architekturen lesen und schreiben Z-Daten für jedes gerenderte Pixel, was den Z-Buffer zu einem der größten Bandbreiten-Fresser eines Grafiksystems macht. Mit Hilfe einer verlustfreien 4:1-Datenkompression reduziert die GeForce3 den Z-Buffer-Datenverkehr um den Faktor vier. Die Kompression und Dekompression erfolgt dabei transparent und in Echtzeit.

Z Occlusion Culling

Traditionelle Grafikarchitekturen rendern jedes Pixel jedes Polygons, unabhängig davon, ob es auf dem Bildschirm wirklich sichtbar ist oder durch andere Polygone verdeckt wird. Damit wird zwar sichergestellt, dass die Darstellung korrekt ist, allerdings auch wertvolle Bandbreite und Rechenzeit verbraucht ("Overdraw"). Mit Hilfe seiner Occlusion-Culling-Technologie soll die GeForce3 frühzeitig ermitteln, ob ein Pixel wirklich zu sehen sein wird und entsprechend Bandbreite sparen. Zusätzlich können Entwickler mit Hilfe eines Occlusion Query ganze Regionen auf Sichtbarkeit prüfen und anschließend von Folgeberechnungen ausschließen - Beispielsweise werden so 3D-Charaktere, die sich hinter Wänden befinden, gar nicht erst berechnet. Je höher die Komplexität der 3D-Szenerie ist, umso deutlicher soll hierbei Bandbreite und Rechenzeit gespart werden.



Die mit Abstand deutlichste Neuerung ist jedoch nicht die Lightspeed Memory Architecture, sondern die nfiniteFX Engine - die erste programmierbare Transform & Lighting (T&L) Engine für den Consumer-Markt soll mit Hilfe ihrer Vertex (Koordinatenpunkt im Verlauf eines Polygons) und Pixel Shader zahlreiche Schatten- und Detaileffekte ermöglichen und bietet die für volle DirectX-8-Kompatibilität benötigten Features. Damit sollen Spieleentwickler die 3D-Grafik ihren Wünschen anpassen und ihr einen individuellen Look verpassen können.

Realistische Oberflächenstrukturen dank Pixel Shader und u.a. realistische Charakteranimation dank Vertex Shader
Realistische Oberflächenstrukturen dank Pixel Shader und u.a. realistische Charakteranimation dank Vertex Shader

Vertex Shader

Mit Hilfe von Vertex Shadern lassen sich 3D-Objekte direkt in der Grafikkarte verändern, was bandbreiten- und CPU-schonende Spezialeffekte möglich macht: 3D-Charaktere können so beispielsweise durch Gesichtsanimation, Muskelbewegungen und elastische Materialien deutlich lebendiger und Umgebungen dank dynamischer Elemente realistischer gemacht werden. Mit Hilfe der Vertex Shader können fest verdrahtete und mit der GeForce3 erstmals auch beliebig programmierbare 3D-Grafikfunktionen auf die einzelnen Ecken eines Polygons ("Vertex") angewandt werden. Ein Vertex Shader spuckt jeweils einen fertig transformierten und beleuchteten Vertex aus. Die GeForce3 erlaubt es, entweder einen programmierbaren Vertex Shader oder fest verdrahtetes T&L zu nutzen.

Pixel Shader

Die Pixel-Shader-Funktionen, die von den zwei Quad-Texturing-Pipelines der GeForce3 profitieren, sollen Materialien und Oberflächen erschaffen, die der Realität sehr nahe kommen und das platte Erscheinungsbild von 2D-Texturen beseitigen. Die programmierbaren Pixel Shader der GeForce3 hat NVidia auf den Namen PixelForge getauft. Während die festverdrahteten Pixel Shader der GeForce3 - wie auch die der GeForce2 - beispielsweise bereits die Möglichkeit bieten, Texturen mit Dot3 Bump Mapping zu versehen, geht PixelForge etwas weiter: Ähnlich den Plug-Ins des Grafikprogramms Photoshop lassen sich entsprechende Assembler-Programme einspielen, die beispielsweise prozedurale Texturen erzeugen, vorhandene Texturen mit Spezialeffekten versehen oder eigene Schattierungs-Algorithmen nutzen. So kann z.B. 3D-Grafiken ein Comic-Look oder 3D-Kreaturen Gesichtsbehaarung oder Narben verpasst werden.



Screenshot #1
Screenshot #1
Damit die 3D-Grafik schlussendlich auch optimal ausgegeben wird, hat sich NVidia bei der GeForce3 dem Thema Full Screen Anti-Aliasing (FSAA) stärker gewidmet als bei der GeForce2, deren FSAA-Leistung bereits beim zweifachen Supersampling deutlich einbrach und kaum für actionlastige Spiele ausreichte. Bei der GeForce3 hat NVidia deshalb nicht mehr auf bandbreitenfressendes Supersampling sondern auf ein Multisampling genanntes FSAA-Verfahren gesetzt. Gegenüber dem Supersampling ist es beim Multisampling beispielsweise nicht nötig, das eigentliche Bild intern in einer höheren Auflösung zu berechnen. Doch auch die GeForce3 leidet in der höchsten FSAA-Qualitätsstufe an einem Leistungseinbruch von etwa 40 Prozent. Das ist in Anbetracht der Leistung für aktuelle Spiele zwar kein Problem, doch je mehr die GeForce3 durch DirectX-8- oder OpenGL-Software ausgereizt wird, umso stärker wird die Leistungseinbuße auffallen.

Screenshot #2
Screenshot #2
Erste Kommentare aus der Spielebranche gab es zur GeForce3 auch schon - vor allem John Carmack von id Software, der vielzitierte Quake-Entwickler, der bereits letzte Woche auf der Mac World in Tokio die Fähigkeiten der GeForce3 demonstrierte, hat sich bereits lang und ausführlich geäußert. Sein Fazit: "Die GeForce3 ist, kurz gesagt, fantastisch. Ich habe seit dem Erscheinen der Voodoo2 nicht mehr so einen Eindruck der Leistungssteigerung gehabt, und es gibt unzählige neue Features, mit denen Programmierer spielen können", so Carmack. Als stärkstes neues Feature stuft Carmack die programmierbaren Vertex Shader ein und lobt deren einfache Programmierbarkeit. Seiner Meinung nach sollte sich jeder Grafikprogrammierer alsbald möglich eine GeForce3 organisieren, für Konsumenten sei die Wahl jedoch etwas schwieriger, da es bis jetzt keine Software gebe, die von den neuen Features der GeForce3 Gebrauch mache.

Screenshot #3
Screenshot #3
Das dürfte sich aber aus zwei Gründen bald ändern: 1) NVidia hat die GeForce3 - inkl. der programmierbaren T&L-Engine zu 100 Prozent an DirectX 8 angepasst. 2) Microsoft hat bereits Himmel und Hölle in Bewegung gesetzt, um Spieleentwickler für die Xbox zu begeistern. Damit sind zumindest offizielle Xbox-Entwickler bereits mit den Fähigkeiten des eng verwandten GeForce3-Grafikkerns vertraut.



Screenshot #4
Screenshot #4
Die ersten GeForce3-Grafikkarten werden voraussichtlich im März/April für PCs für deutlich über 1.000,- DM erhältlich sein. Vertreten sein werden die "üblichen Verdächtigen", so wird beispielsweise Guillemot/Hercules eine GeForce3-Grafikkarte mit 200 MHz Chiptakt und 64 MB DDR-SDRAM (230/460 MHz, 3,8ns) auf den Markt bringen. Diese soll bereits zur CeBIT vorgeführt und zum gleichen Zeitpunkt oder zumindest kurze Zeit später für 1.449,- DM erhältlich sein. Damit hat Apple-CEO Steve Jobs dann wohl etwas übertrieben, als er davon geredet hat, dass GeForce3-Grafikkarten zuerst für den PowerMac G4 zur Verfügung stehen werden.

Screenshot #5
Screenshot #5
Es ist davon auszugehen, dass NVidia - wie auch bei allen anderen GeForce-Versionen - in den nächsten Monaten preiswerte GeForce3-Varianten für weniger betuchte Kunden anbieten wird und auch die Preise drastisch sinken dürften. So hat NVidia erneut die Chance, die Konkurrenz in allen Desktop-Bereichen auf die Plätze zu verweisen. In der Zwischenzeit dürfen sich schon mal diejenigen freuen, die aus Kostengründen bis jetzt mit dem Kauf einer GeForce2 gewartet haben, denn die Preise dürften kräftig rutschen - vor allem bei den GeForce2-Ultra-Grafikkarten.

Weitere Screenshots
Weitere Screenshots
Kommentar:

Man darf also gespannt sein, wie die Konkurrenz reagieren wird, jedoch halten sich ATI, Matrox und PowerVR Technologies (Videologic) bisher bedeckt. Zumindest für die CeBIT scheinen sie noch nichts in der Hinterhand zu haben und so wird NVidia die Loorbeeren für den ersten voll DirectX-8-kompatiblen Grafikprozessor wohl alleine einheimsen. Inklusive der Marktanteile versteht sich.  (ck)


© 1997–2020 Golem.de, https://www.golem.de/