Zum Hauptinhalt Zur Navigation

Jensen Huang: Vertrauenswürdige KI ist noch Jahre entfernt

Laut dem Nvidia-CEO funktioniert KI erst dann richtig gut, wenn Menschen deren Ergebnisse nicht mehr hinterfragen müssen.
/ Mike Faust
19 Kommentare News folgen (öffnet im neuen Fenster)
Das aktuelle KI-Training mit großen Datensätzen reicht laut Huang nicht aus, um gute Ergebnisse zu erzielen. (Bild: Justin Sullivan/Getty Images)
Das aktuelle KI-Training mit großen Datensätzen reicht laut Huang nicht aus, um gute Ergebnisse zu erzielen. Bild: Justin Sullivan/Getty Images

Aktuelle KIs lieferten noch nicht die bestmöglichen Antworten, sagte der CEO von Nvidia, Jensen Huang, in einem Interview an der Hong Kong University of Science & Technology (HKUST). Wie Business Insider berichtet(öffnet im neuen Fenster) , sagte Huang in dem Gespräch, dass die Welt noch einige Jahre von einer KI entfernt sei, der man vertrauen könne.

"Die Antworten, die wir heute haben, sind nicht die besten, die wir geben können" , wird Huang zitiert. Bislang müssten Menschen bei KI-generierten Antworten immer hinterfragen, ob deren Antwort vernünftig oder unvernünftig ist.

Ziel sollte es laut Huang daher sein, einen Punkt zu erreichen, an dem man der Antwort einer KI weitestgehend vertrauen kann. Er glaubt aber, dass man noch einige Jahre von diesem Punkt entfernt sei und zunächst die Rechenleistung gesteigert werden müsse, bevor dieses Ziel erreicht werden könne.

Einfach alle Daten zu nehmen, ist nicht genug

Huang erläuterte außerdem, dass das Training von KIs auf Grundlage vielfältiger Datensätze nicht ausreicht, um bestimmte Aufgaben zu erfüllen. Er vergleicht dieses Training mit dem Besuch einer Schule:

"Einfach alle Daten der Welt zu nehmen und daraus automatisch Wissen zu entdecken, ist nicht genug. Genauso wie es ein sehr wichtiger Meilenstein ist, das College zu besuchen und einen Abschluss zu machen, aber es ist nicht genug."

Große KI-Sprachmodelle (LLM) haben immer noch grundsätzliche Probleme damit, Aufgaben inhaltlich zu verstehen. So beschrieben Apple-Forscher zum Beispiel das Verhalten von LLMs als ausgefeilten Musterabgleich, der nichts mit tatsächlichem Denken zu tun hat . Antworten werden zudem auf Grundlage der Trainingsdaten formuliert, was immer wieder zu unpassenden und anstößigen Ergebnissen führt.


Relevante Themen