Zum Hauptinhalt Zur Navigation

Claude: Chatbot soll sich ganze Romane merken können

Das Sprachmodell von Anthropic soll dreimal mehr Informationen aufnehmen und verarbeiten können als die Konkurrenz von ChatGPT .
/ Sebastian Grüner
1 Kommentare News folgen (öffnet im neuen Fenster)
Sprachmodell Claude soll sich den Inhalt ganzer Romane merken können. (Bild: Justin Sullivan/Getty Images)
Sprachmodell Claude soll sich den Inhalt ganzer Romane merken können. Bild: Justin Sullivan/Getty Images

Moderne generative KI-Sprachmodelle können nicht nur schnelle und ausführliche Antworten auf vergleichsweise kurze Anfragen liefern. Sie können auch lange Texte oder Webseiten als Eingaben aufnehmen, um dann Zusammenfassungen zu liefern oder spezifische Fragen dazu zu beantworten. Der unter anderem von Google unterstützte KI-Anbieter Anthropic hat dieses sogenannte Kontextfenster für seinen Dienst Claude nun von 9.000 Token auf 100.000 Token angehoben, wie das Unternehmen mitteilt(öffnet im neuen Fenster) .

Das entspricht laut Anthropic etwa 75.000 Wörtern, wohl in englischer Sprache. Die Menge ist damit nicht nur groß genug, um ganze Romane verarbeiten zu können. Der Anbieter übertrifft damit auch bisherigen Spitzenwerte der Konkurrenz von OpenAI. Letztere bieten für das aktuelle Sprachmodell GPT-4 ein Kontextfenster von 32.000 Token an, wie Techcrunch berichtet(öffnet im neuen Fenster) .

Interessant und hilfreich dürfte das riesige Kontextfenster aber nicht nur für die Zusammenfassungen von langen Dokumenten oder Sammlungen sein, sondern auch deshalb, weil das System als Chatbot dann über längere Zeit nichts vergisst. Das könnte in Unternehmen von Vorteil sein, in denen viele Informationen, mit denen oft gearbeitet wird, vorhanden sind. Anthropic selbst schreibt, dass der Ansatz wohl besser funktionieren dürfte als eine Vektorsuche.

Der KI-Anbieter hat darüber hinaus eine Art "Verfassung" für Claude angekündigt, wie das Unternehmen dies selbst beschreibt. Darin sind grundlegende Regeln festgelegt, die bestimmen sollen, welche Ausgaben das Modell geben darf. Das soll helfen, "um toxische oder diskriminierende Ergebnisse zu vermeiden, einen Menschen nicht bei illegalen oder unethischen Aktivitäten zu unterstützten und generell ein KI-System schaffen, das hilfreich, ehrlich und harmlos ist" , heißt es in der Ankündigung(öffnet im neuen Fenster) .


Relevante Themen