Zum Hauptinhalt Zur Navigation Zur Suche

Andy Ritger: Nvidia will HDR-Unterstützung unter Linux

Mit einem Standard-Linuxsystem können HDR -Anzeigen noch nicht genutzt werden. Dies will Nvidia mittelfristig ändern. Bis auf ein Grundverständnis, was dafür geschehen müsse, sind die Details aber noch völlig offen.
/ Sebastian Grüner
21 Kommentare undefined News folgen (öffnet im neuen Fenster)
Nvidias Shield kann HDR-Inhalte darstellen - dank Android. Ein Standard-Linux kann das noch nicht. (Bild: Nvidia)
Nvidias Shield kann HDR-Inhalte darstellen - dank Android. Ein Standard-Linux kann das noch nicht. Bild: Nvidia

Für Windows und Android unterstütze der Grafiktreiber von Nvidia bereits die Darstellung von HDR (High Dynamic Range), sagte Nvidia-Mitarbeiter Andy Ritger auf der X.org Developers Conference ( XDC(öffnet im neuen Fenster) ). Künftig solle dies auch in einem Standard-Linux unterstützt werden, wofür aber einige Änderungen am Grafikstack nötig seien. Diese stellte Ritger auf der XDC vor.

Um die HDR-Inhalte zu erstellen und damit eine größere Luminanz(öffnet im neuen Fenster) der Bilder darstellen zu können, nutzen 3D-Anwendungen – vor allem Spiele – Gleitkommazahlbuffer mit halber Präzision (16-Bit Floating Point, FP16) zum Rendern ihrer Inhalte. Deren Inhalte werden bisher aber per Tone-Mapping(öffnet im neuen Fenster) komprimiert, um sie in SDR darstellen zu können.

Dank moderner Monitoren mit HDR-Fähigkeiten könnten die Inhalte mit höherer Präzision eigentlich direkt weitergereicht werden. Doch genau das ist unter Linux derzeit noch nicht möglich, da wichtige Bestandteile dafür schlicht noch nicht verfügbar sind.

Unterstützung für Metadaten und FP16 fehlt

Dazu gehört einerseits die notwendige Unterstützung für FP16-Buffer in der Display-Architektur selbst. Hierzu müssten etwa Wayland-Compositoren von deren Existenz wissen und diese von den Clients akzeptieren. Darüber hinaus sollten HDR- und SDR-Inhalte beim Compositing in ein darzustellendes Bild überführt werden können. Mit dem X11-Fenstersystem wäre dies ungleich schwerer umzusetzen als mit Wayland.

Andererseits fehlen unter Linux noch APIs für den Umgang mit den Metadaten, die zusätzlich zu einem FP16-Buffer zur Darstellung benötigt werden. So sind Monitore technisch nicht in der Lage, den vollständigen Farbraum darzustellen. Allerdings können Monitore ihre Fähigkeiten der Grafikhardware per EDID(öffnet im neuen Fenster) mitteilen. Noch können diese Informationen aber nicht unter Linux abgefragt werden, um das dann immer noch notwendige Tone-Mapping durchzuführen. Ebenso fehlt einzelnen Anwendungen noch die Möglichkeit, Metadaten mit ihren Buffern zu verknüpfen.

Die Linux-Grafiktreiber müssten schließlich in der Lage sein, die FP16-Bilder zu erhalten, in ein Display-Signal umzuwandeln und dann samt Metadaten an den Monitor zu schicken.

Wie all das umgesetzt werden könnte, will Ritger in den kommenden Monaten anhand eigener Vorschläge vorstellen. Noch seien aber einige Fragen zur Umsetzung völlig offen. Er hofft deshalb auf die Zusammenarbeit mit der Community.


Relevante Themen