Einstieg in Cuda: Wie sich mit Grafikkarten rechnen lässt

Grafikkarten erreichen dank ihres besonderen Aufbaus wesentlich höhere Rechenleistungen als Prozessoren - und rechnen zudem noch effizienter. Als 2003 erstmals Forscher auf die Idee kamen, die mittlerweile programmierbaren Recheneinheiten von GPUs für wissenschaftliche Berechnungen zu nutzen, lösten sie nicht weniger als eine Revolution aus. Nach Cluster-Computern veränderten günstige Consumer-GPUs das wissenschaftliche Rechnen nachhaltig. Nvidia griff dies 2006 weitsichtig mit der Programmierumgebung Cuda (steht für Compute Unified Device Architecture) und Verallgemeinerung der GPU-Recheneinheiten auf.
Knapp 19 Jahre später sind GPUs insbesondere dank KI, aber auch aus vielen Anwendungen als Beschleuniger nicht mehr wegzudenken. Programmieren können sie dennoch wenige, dabei ist das gar nicht so schwer und macht auch noch großen Spaß. Höchste Zeit also, die Programmierung von GPUs mit Cuda zu erklären. In diesem Artikel stellen wir zunächst die Grundlagen vor, bevor wir in weiteren Artikeln zeigen, wie Programme für die Ausführung auf einer Nvidia-GPU angepasst und optimiert werden.