Zum Hauptinhalt Zur Navigation

Golem Plus Artikel
Einstieg in Cuda:
Wie sich mit Grafikkarten rechnen lässt

Cuda for fun and profit
Cuda macht Anwendungen schnell und Spaß beim Programmieren. Wir zeigen, wie das funktioniert.
/ Johannes Hiltscher
5 Kommentare News folgen (öffnet im neuen Fenster)
Egal, ob neu oder 15 Jahre alt, rechnen können sie mit Cuda alle: Grafikkarten von Nvidia. (Bild: Martin Böckmann/Golem.de)
Egal, ob neu oder 15 Jahre alt, rechnen können sie mit Cuda alle: Grafikkarten von Nvidia. Bild: Martin Böckmann/Golem.de

Grafikkarten erreichen dank ihres besonderen Aufbaus wesentlich höhere Rechenleistungen als Prozessoren - und rechnen zudem noch effizienter. Als 2003 erstmals Forscher auf die Idee kamen, die mittlerweile programmierbaren Recheneinheiten von GPUs für wissenschaftliche Berechnungen zu nutzen, lösten sie nicht weniger als eine Revolution aus. Nach Cluster-Computern veränderten günstige Consumer-GPUs das wissenschaftliche Rechnen nachhaltig. Nvidia griff dies 2006 weitsichtig mit der Programmierumgebung Cuda (steht für Compute Unified Device Architecture) und Verallgemeinerung der GPU-Recheneinheiten auf.

Knapp 19 Jahre später sind GPUs insbesondere dank KI, aber auch aus vielen Anwendungen als Beschleuniger nicht mehr wegzudenken. Programmieren können sie dennoch wenige, dabei ist das gar nicht so schwer und macht auch noch großen Spaß. Höchste Zeit also, die Programmierung von GPUs mit Cuda zu erklären. In diesem Artikel stellen wir zunächst die Grundlagen vor, bevor wir in weiteren Artikeln zeigen, wie Programme für die Ausführung auf einer Nvidia-GPU angepasst und optimiert werden.

Golem Plus Artikel