Zum Hauptinhalt Zur Navigation Zur Suche

KI-Chatbot: Googles Bard soll für bessere Antworten Code ausführen

Um Fragen nach Berechnungen oder Logik besser zu beantworten, soll Googles KI-Bot Bard nun wieder wie ein Computer funktionieren.
/ Sebastian Grüner
1 Kommentare undefined News folgen (öffnet im neuen Fenster)
Googles Bard soll implizite Aufforderungen für Berechnungen verstehen können. (Bild: Jonathan Raa via Reuters Connect)
Googles Bard soll implizite Aufforderungen für Berechnungen verstehen können. Bild: Jonathan Raa via Reuters Connect

Die Herangehensweise moderner großer Sprachmodelle (LLM), die mit stochastischen Papageien verglichen werden, hat gravierende Nachteile bei klassischen Schlussfolgerungen und Logikfragen. Der KI-Chatbot Bard von Google soll diese Fragen(öffnet im neuen Fenster) nun einfach wieder mit typischen Berechnungen und üblichen Computeranweisungen beantworten können. Google nennt dies "implizite Codeausführung" . Bard soll dabei die entsprechenden Anweisungen automatisch erkennen und im Hintergrund ausführen.

Als Beispiel für Fragen, mit denen das System bisher Probleme hatte, die nun aber korrekt beantwortet werden sollen, nennt Google etwa folgendes: "Was sind die Primfaktoren von 15683615?" , "Berechnen Sie die Wachstumsrate meiner Ersparnisse" oder auch "Drehen Sie das Wort 'Lollipop' für mich um" . Eine Antwort, die durch die rein statistische Autovervollständigung eines Sprachmodells erzeugt wird, kann solche Fragen nachvollziehbarerweise oft nicht zufriedenstellend beantworten.

Google schreibt dazu, dass diese inhärente Fähigkeit der Modelle sie zwar für kreative Aufgaben befähige. Bei Schlussfolgerungen und Mathematik schwächelten die Modelle aber. Sich dafür nur auf das Modell zu verlassen, reiche also nicht. Google schreibt zu der neuen Technik: "Durch implizite Codeausführung identifiziert Bard Aufforderungen, die von logischem Code profitieren könnten, schreibt diesen quasi unter der Haube, führt ihn aus und verwendet das Ergebnis, um eine genauere Antwort zu generieren."

In Fragen, die letztlich auf Berechnungen abzielen, oder reinen Mathematikaufgaben habe das neue System die Korrektheit der Antworten in internen Tests um 30 Prozent verbessern können. Google weist dennoch darauf hin, dass Bard auch in diesem Anforderungsbereich weiter Fehler machen könne, das Ergebnis des ausgeführten Codes nicht für die Antwort beachte und schlicht gar keinen Code generiere, obwohl dies eventuell zielführend sei.


Relevante Themen