KI-Performance: Ein Quantum Performance
Große Sprachmodelle benötigen enorme Hardwareressourcen, um schnell gute Antworten zu liefern. Mit cleveren Algorithmen kann man die Performance deutlich steigern.
Große Sprachmodelle sind seit der Veröffentlichung von ChatGPT Ende 2022 in aller Munde. Zwar gibt es Large Language Models (LLMs) schon länger, aber seit der Veröffentlichung von ChatGPT erfolgen gefühlt im Wochentakt Sprünge, die LLMs noch leistungsfähiger machen.
Erstaunlich ist, dass viele der nachfolgend gezeigten Entwicklungen ihren Ursprung im Open-Source-Bereich haben und somit jedem zur Verfügung stehen. Dabei ermöglichen sie auf eigener Hardware eine Performance, die GPT-3.5 im ersten ChatGPT ebenbürtig oder sogar überlegen sein kann.