Code in C und C++ dank Vulkan auf quasi jeder Grafikhardware laufen zu lassen, ist ein sehr ambitioniertes Ziel. Shader-Sprachen könnten so ersetzt werden.
Algorithmus des Monats Das Feature Sparsity verdoppelt bei Nvidia und AMD die Rechenleistung. Wir erklären, was es damit auf sich hat und warum es für KI interessant ist - obwohl es nicht neu ist.
Pat Gelsinger sieht sich als Retter, übt sich aber in Realitätsverlust und behauptet, Nvidia habe einfach nur Glück gehabt. Für den Konzern bedeutet das nichts Gutes.
Ein KI-Beschleuniger, in China entwickelt und hergestellt. Dazu eine Industrie-Allianz mit großen Unternehmen wie Lenovo. In den USA dürfte das auf wenig Gegenliebe stoßen.
Kaum ein Hersteller hat eine derartige Macht über die KI-Industrie, wie Nvidia. Doch die Konkurrenz schläft nicht und könnte bald ein Wörtchen mitreden.
Erst Gaming, dann Crypto, jetzt KI - Grafikkarten sind für Vielerlei zu gebrauchen. Im Podcast reden wir über die Hintergründe von Nvidias Marktdominanz.
Ein Intel-Tool unterstützt beim Umstieg von Cuda auf Sycl - Code wird so auf vielen Plattformen lauffähig. Ganz so einfach wie versprochen ist das aber nicht.
Nvidia stellt heute die Geforce RTX 4060 Ti vor. Im Test zeigt die GPU sehr hohe Effizienz in Full HD. Beim Speicher ist der Hersteller teilweise auf Kritik eingegangen.
GTC 2023 Die vormals als Quadro bekannten Chips bieten neben viel Grafikspeicher nun ebenfalls AV1-Encoding und ECC-Fehlerkorrektur. Die TDP ist großzügig konfigurierbar.
GTC 2023 500 Hopper H100 ersetzen 40.000 CPUs: Mit Culitho soll der Entwurf von Lithografie-Masken schneller und effizienter werden. Ein Hersteller verwendet es bereits.
Nvidia stellt mit Partnern auf der virtuell stattfindenden GTC die neuesten Entwicklungen aus dem KI-Bereich vor. Ganze Branchen könnten vor grundlegenden Änderungen ihrer Arbeitsabläufe stehen.
Python ist aktuell die am häufigsten verwendete Programmiersprache, hat jedoch den Ruf, langsam zu sein. Oft sind Schleifen die Ursache, gerade beim Machine Learning. Wir zeigen, wie es schneller geht.
Nvidias neue 80er-Karte ist sehr schnell, bleibt teilweise unter 300 Watt und ist entsprechend leise. Das alles lässt sich Team Green gut bezahlen. Wir schauen, ob es den Preis wert ist.
Linux-Kernel-Graphics-Maintainer Dave Airlie hat über den aktuellen Stand bei der Entwicklung von Open-Source-Treibern für Nvidias Grafikkarten informiert.
Exportbeschränkungen für Nvidia und Zulieferer der Halbleiterindustrie dürften nur der Anfang gewesen sein: Allgemeine Beschränkungen gegenüber China sollen folgen, die Auswirkungen werden weltweit spürbar sein.
Das Windows Subsystem für Linux bietet in Windows 11 theoretisch alles, was sich der Linux-Redakteur wünscht. Einige Fehler und Abstürze trüben jedoch den Eindruck.
Gemeinsam mit Partnern hat Nvidia eine Referenzplattform entworfen, um die eigenen Tesla-V100-Grafikmodule mit ARM-Prozessoren zu kombinieren. Passend dazu gibt es Cuda X als Software-Stack und Magnum I/O, um Netzwerk sowie Storage per GPU zu beschleunigen.
Der Grafikkartenhersteller Nvidia unterstützt künftig den Entwicklungsfonds der freien 3D-Grafiksuite Blender als Hauptsponsor. Damit sollen zwei Vollzeitentwickler finanziert werden können.
Entwickler müssen sich bei Xilinx' FPGAs nicht länger mit Hardware-Sprachen auseinandersetzen: Bei der Vitis Software Platform reichen C++ oder Python, um die Schaltungen zu programmieren.
Das Blender Institute hat den Cycles-Renderer gemeinsam mit Nvidia um Optix erweitert: Das Backend nutzt die RT-Cores von Turing-basierten Grafikkarten, um Raytracing flotter zu berechnen als bisher per Cuda-Schnittstelle.
Googles Deep Learning Containers sind in der Cloud gehostete Entwicklungsumgebungen, in der Nutzer ohne viel Einrichtungsaufwand ihre Machine-Learning-Software trainieren können. Die Container schöpfen Ressourcen direkt aus der Google-Cloud mit Intel-CPUs und Nvidia-GPUs. Amazon war aber zuerst da.
Bisher unterstützt Nvidia nur x86- und IBMs Power-Prozessoren, ab Ende 2019 soll die eigene Software wie Bibliotheken und Frameworks auch auf ARM-CPUs laufen. Erste Supercomputer befinden sich in Arbeit.