Zum Hauptinhalt Zur Navigation

Cuda 3.2: Nvidia beschleunigt GPGPU-Computing

Nvidia hat seine GPGPU-Bibliothek Cuda in der Version 3.2 veröffentlicht. Einzelne Berechnungsmethoden hat Nvidia dabei um ein Vielfaches beschleunigt.
/ Jens Ihlenfeld
26 Kommentare News folgen (öffnet im neuen Fenster)

Cuda erlaubt es, beliebige Berechnungen auf einer Nvidia-GPU auszuführen. Die Version 3.2 der Bibliothek soll dabei deutlich schneller sein als ihr Vorgänger. So soll Nividias Blas-Implementierung (Basic Linear Algebra Subprograms) namens Cublas auf Fermi-Chips Matrixmultiplikationen aller Datentypen 50 bis 300 Prozent schneller durchführen. Die Bibliothek Cufft für schnelle Fourier-Transformationen soll bei einzelnen Berechnungen sogar zwei- bis zehnmal schneller sein als ihr Vorgänger.

Mit Cusparse gebe es zudem eine neue Bibliothek zum Umgang mit dünnbesetzten Matrizen (Sparse Matrix), mit der dank GPU-Beschleunigung einige Operationen 5- bis 30-mal schneller abgewickelt werden könnten als mit Intels Math Kernel Library (MKL), so Nvidia. Ähnliches gelte für Curand, eine Bibliothek zur Erzeugung von Pseudo-Zufallszahlen. Hier gibt Nvidia an, dass Berechnungen zehn- bis 20-mal schneller abliefen als mit MKL.

Darüber hinaus hat Nvidia Encoder und Decoder für H.264 in das Cuda-Toolkit integriert, unterstützt Quadro- und Tesla-Produkte mit 6 GByte Speicher und den Modus Tesla Compute Cluster (TCC) auf Windows-Desktops.

Die Entwicklerwerkzeuge wurden um Multi-GPU-Debugging, einen erweiterten Cuda-Memcheck für alle Fermi-Architekturen und NVCC um Unterstützung für Intels C Compiler (ICC) in der Version 11.1 auf 64-Bit-Linux-Systemen erweitert. Mit Nvidia-SMI gibt es eine neue Schnittstelle zur Überwachung von Leistungswerten der GPU.

Cuda 3.2 steht unter developer.nvidia.com(öffnet im neuen Fenster) für Windows, Linux und Mac OS X zum Download bereit.


Relevante Themen