Abo
  • Services:

Linux: Nvidia ist bereit für einheitliche Wayland-Unterstützung

Die Unterstützung für Wayland in Nvidias proprietärem Linux-Treiber nutzt eine Eigenlösung, die die anderen Treiber nicht verwenden. Nvidia ist aber offenbar an einer einheitlichen Lösung interessiert. Google soll ebenso überzeugt werden.

Artikel veröffentlicht am ,
Nvidia geht weiter auf die Community der Linux-Grafikentwickler zu.
Nvidia geht weiter auf die Community der Linux-Grafikentwickler zu. (Bild: Martin Wolf/Golem.de)

Vor mehr als eineinhalb Jahren gaben die Linux-Entwickler von Nvidia erstmals offiziell bekannt, dass der proprietäre Grafikkartentreiber des Unternehmens die designierten X11-Nachfolger Wayland und Mir unterstützen soll. Seit Ende März dieses Jahres kann dies von Linux-Nutzer getestet werden, allerdings nur mit starken Einschränkungen, die Nvidia nun offenbar ebenfalls überwinden will.

Stellenmarkt
  1. Versicherungskammer Bayern, Saarbrücken, München
  2. netvico GmbH, Stuttgart

Das geht zumindest aus einer E-Mail des Nvidia-Angestellten James Jones auf der Mailingliste zur Wayland-Entwicklung hervor. Demnach sei das Unternehmen daran interessiert, an einer Diskussion mit möglichst vielen anderen Beteiligten teilzunehmen, um die Buffer-Verwaltung der Treiber und Geräte zu optimieren.

Vorgeschlagen worden ist diese Diskussion von dem Intel-Angestellten Martin Peres als Reaktion auf die seit Jahren existierenden unterschiedlichen Implementierungen für diese Aufgabe. So verwendet Googles Android etwa Gralloc, die freien Mesa-Grafiktreiber das Generic Buffer Management (GBM) und die Nvidia-Treiber die EGLStreams. Diese Lösungen haben ihre eigenen Vor- und Nachteile, vor allem sind sie aber nicht direkt kompatibel zueinander, weshalb etwa der Wayland-Compositor Weston nur mit Anpassungen auf dem proprietären Nvidia-Treiber läuft.

Idealerweise gibt es künftig eine Möglichkeit "die Buffer über alle Blöcke, Treiber und Hersteller hinweg zu teilen", ohne die Grundidee von Wayland aufgeben zu müssen, dass jeder Frame perfekt gezeichnet werde, zumindest soll dies laut Peres wenigstens diskutiert werden. Stattfinden soll die Diskussion auf der diesjährigen X.org Developers Conference (XDC) Ende September in Helsinki.



Anzeige
Spiele-Angebote
  1. 20,99€ - Release 07.11.
  2. 59,99€ mit Vorbesteller-Preisgarantie (Release 14.11.)
  3. ab 69,99€ mit Vorbesteller-Preisgarantie (Release 26.10.)
  4. 15,49€

RicoBrassers 25. Jul 2016

Aber natürlich rein softwareseitig - Auf dem Weg von der Grafikkarte zum Monitor kann z...


Folgen Sie uns
       


Analyse zum Apple-Event - Golem.de live

Die Golem.de-Redakteure Tobias Költzsch und Michael Wieczorek besprechen die drei neuen iPhones und die Neuerungen bei der Apple Watch 4.

Analyse zum Apple-Event - Golem.de live Video aufrufen
Pixel 3 XL im Test: Algorithmen können nicht alles
Pixel 3 XL im Test
Algorithmen können nicht alles

Google setzt beim Pixel 3 XL alles auf die Kamera, die dank neuer Algorithmen nicht nur automatisch blinzlerfreie Bilder ermitteln, sondern auch einen besonders scharfen Digitalzoom haben soll. Im Test haben wir allerdings festgestellt, dass auch die beste Software keine Dual- oder Dreifachkamera ersetzen kann.
Ein Test von Tobias Költzsch

  1. Dragonfly Google schweigt zu China-Plänen
  2. Nach Milliardenstrafe Google will Android-Verträge offenbar anpassen
  3. Google Android Studio 3.2 unterstützt Android 9 und App Bundles

Galaxy A9 im Hands on: Samsung bietet vier
Galaxy A9 im Hands on
Samsung bietet vier

Samsung erhöht die Anzahl der Kameras bei seinen Smartphones weiter: Das Galaxy A9 hat derer vier, zudem ist auch die restliche Ausstattung nicht schlecht. Aus verkaufspsychologischer Sicht könnte die Einstufung in die A-Mittelklasse bei einem Preis von 600 Euro ein Problem sein.
Ein Hands on von Tobias Költzsch

  1. Auftragsfertiger Samsung startet 7LPP-Herstellung mit EUV
  2. Galaxy A9 Samsung stellt Smartphone mit vier Hauptkameras vor
  3. Galaxy J4+ und J6+ Samsung stellt neue Smartphones im Einsteigerbereich vor

Künstliche Intelligenz: Wie Computer lernen
Künstliche Intelligenz
Wie Computer lernen

Künstliche Intelligenz, Machine Learning und neuronale Netze zählen zu den wichtigen Buzzwords dieses Jahres. Oft wird der Eindruck vermittelt, dass Computer bald wie Menschen denken können. Allerdings wird bei dem Thema viel durcheinandergeworfen. Wir sortieren.
Von Miroslav Stimac

  1. Innotrans KI-System identifiziert Schwarzfahrer
  2. USA Pentagon fordert KI-Strategie fürs Militär
  3. KI Deepmind-System diagnostiziert Augenkrankheiten

    •  /