GTC 2023: Nvidia-Chef sieht "iPhone-Moment für KI" gekommen

Nvidia stellt mit Partnern auf der virtuell stattfindenden GTC die neuesten Entwicklungen aus dem KI-Bereich vor. Ganze Branchen könnten vor grundlegenden Änderungen ihrer Arbeitsabläufe stehen.

Artikel veröffentlicht am ,
Prozedurale KI ist seit ChatGPT besonders bekannt und auch für Nvidia weiterhin sehr wichtig.
Prozedurale KI ist seit ChatGPT besonders bekannt und auch für Nvidia weiterhin sehr wichtig. (Bild: Nvidia)

In einer virtuell stattfindenden Keynote hat Nvidia-CEO Jensen Huang die GTC (GPU Technology Conference) 2023 eröffnet. Auf der Entwicklerkonferenz präsentiert Nvidia gemeinsam mit Partnern aktuelle Entwicklungen, Werkzeuge und Hardware für die Arbeit an und mit künstlicher Intelligenz. Laut dem Nvidia-Chef ist die KI-Entwicklung dabei an einem Schlüsselpunkt angekommen.

Wie stark die Entwicklung in den 14 Jahren seit der ersten GTC vorangeschritten ist, verdeutlicht Jensen Huang am Beispiel der Alexnet-KI, die 2012 die Imagenet-Challenge gewann. Die Bilderkennungssoftware wurde damals auf der Geforce GTX 580 mit Cuda entwickelt. Für das Training von ChatGPT3 wurden im Vergleich dazu eine Million Mal mehr Fließkommaberechnungen benötigt – 323 Zetaflops an der Zahl.

Den Durchbruch von ChatGPT vergleicht Huang dabei mit dem iPhone-Moment. Innerhalb kurzer Zeit zog die KI über 100 Millionen Nutzer an und löste vielerorts lebhafte Diskussionen über die Zukunft mit KIs aus. Auch bisher nicht betroffene Industriezweige müssen zumindest eine präzise Einschätzung vornehmen, wie und unter welchen Umständen sich Arbeitsabläufe künftig ändern könnten. Die Hälfte der Fortune 500 Firmen nutzen laut Nvidia außerdem bereits DGX-AI-Supercomputer.

Cloud-Services sollen für einfache Integration sorgen

In Zusammenarbeit mit Microsoft soll Omniverse für ein breites Publikum an Firmen und Entwicklern als Nvidia Omniverse Cloud erreichbar werden. Dabei kommt nun die dritte Generation der OVX-Server mit Nvidia-L40-GPUs, Bluefield-3-DPUs und Spectrum-Netzwerk-Switches mit bis zu 400 GBit/s pro Port. Zu den während der Präsentation erwähnten Kunden zählt auch die Deutsche Bahn, die mit diesen Fähigkeiten komplexe Systeme wie ein großes Schienennetz digital abbilden, simulieren und erweitern kann.

Im Bereich der generativen KI hat Nvidia eine Reihe an Cloud-Services unter dem Namen Nvidia-AI-Foundations vorgestellt. Diese beinhalten Nvidia Nemo für die Erstellung von anpassbaren Text-to-Text-Modellen, Picasso für das Training von KI-Modellen mit nicht öffentlich verfügbaren Inhalten und Bionemo, das die KI-Beschleunigung von medizinischer Forschung vorantreiben soll.

Zusammen mit Medtronic, dem derzeit größten Anbieter von Medizintechnik, arbeitet Nvidia an einer Plattform für softwaregestützte Medizintechnik. Damit sollen roboterunterstützte Operationen, Bilderkennung beispielsweise in der Darmkrebserkennung und die Verarbeitung von Sensordaten in Echtzeit möglich sein.

In insgesamt rund 650 Präsentationen stellen die Partner gemeinsam mit Nvidia über die nächsten Tage ihre neuen Entwicklungen vor und tauschen sich untereinander aus. Laut Nvidias Angaben arbeiten aktuell weltweit etwa vier Millionen Entwickler an KI-Anwendungen mit Nvidia-Technologien, verteilt auf rund 40.000 Firmen, darunter 14.000 Start-ups.

Bitte aktivieren Sie Javascript.
Oder nutzen Sie das Golem-pur-Angebot
und lesen Golem.de
  • ohne Werbung
  • mit ausgeschaltetem Javascript
  • mit RSS-Volltext-Feed


Aktuell auf der Startseite von Golem.de
Gefangen im Zeitstrom, verloren im All
Die zehn besten Sci-Fi-Serien der 1960er

Sie sind die Klassiker, auf denen das ganze Genre aufbaut: die großen Science-Fiction-Serien der 1960er. Neben Star Trek gab es hier noch viel mehr.
Von Peter Osteried

Gefangen im Zeitstrom, verloren im All: Die zehn besten Sci-Fi-Serien der 1960er
Artikel
  1. Speicherleaks vermeiden: Ressourcen- und typensicheres Programmieren in C++
    Speicherleaks vermeiden
    Ressourcen- und typensicheres Programmieren in C++

    Bei C++ liegt alles in der Hand der Entwickler - und das kann gut und schlecht sein. Richtig angewendet, ist die Sprache aber alles andere als unsicher.
    Eine Anleitung von Adam Jaskowiec

  2. Grace Hopper Superchip: Nvidia zeigt den DGX GH200 AI-Supercomputer
    Grace Hopper Superchip
    Nvidia zeigt den DGX GH200 AI-Supercomputer

    Die Kombination aus Grace Hopper, Bluefield 3 und NVLink ergibt funktional eine riesige GPU mit der Rechenkapazität eines Supercomputers und 144 TByte Grafikspeicher.

  3. Halluzination: ChatGPT erfindet Gerichtsakten
    Halluzination
    ChatGPT erfindet Gerichtsakten

    Ein Anwalt wollte sich von ChatGPT bei der Recherche unterstützen lassen - das Ergebnis ist eine Blamage.

Du willst dich mit Golem.de beruflich verändern oder weiterbilden?
Zum Stellenmarkt
Zur Akademie
Zum Coaching
  • Schnäppchen, Rabatte und Top-Angebote
    Die besten Deals des Tages
    • Daily Deals • Microsoft Xbox Wireless Controller 40,70€ • Lexar Play 1 TB 99,60€ • DAMN!-Deals mit AMD-Bundle-Aktion • MindStar: AMD Ryzen 9 5950X 429€, MSI RTX 3060 Gaming Z Trio 12G 329€, GIGABYTE RTX 3060 Eagle OC 12G 299€, be quiet! Pure Base 500DX 89€ • Logitech bis -46% [Werbung]
    •  /