Spreadsheet LLM: Neues Framework soll Tabellen für KIs besser nutzbar machen

Microsofts eigene Copilot-Features sind bereits in vielen Office-Programmen nutzbar. Der KI-Assistent kann etwa Texte umformatieren oder Bilder für eine Powerpoint-Präsentation generieren. Allerdings tut sich die Software mit Excel, einem der wichtigsten Microsoft-365-Programme, noch schwer. Dabei würde sich ein KI-System für die Tabellenkalkulation gut eignen – etwa, um Daten in Tabellen zusammenzufassen und von ihnen Grafiken zu erstellen. Dafür arbeitet Microsoft an einem neuen Framework: Spreadsheat LLM(öffnet im neuen Fenster) .
Dieses Projekt soll Tabellen nehmen und sie so formatieren können, dass sie für gängige Sprachmodelle besser lesbar sind, beschreibt Microsoft im Projekt-Paper. Tabellen sollen dabei in Datensequenzen umgewandelt werden. Allerdings können einige große Tabellen das Token-Limit verschiedener LLMs überschreiten, was ihre Genauigkeit drastisch verringert.
Microsoft arbeitet deshalb parallel an Spreadcompressor. Dieses Modul soll Tabellen so effizient enkodieren, dass die meisten Tabellen auch von LLMs gelesen werden können. Das Tool komprimiert Tabellen quasi zu Skeletttabellen, die nur die nötigsten Spalten und Reihen enthalten. Auch werden die numerischen Datentypen innerhalb der einzelnen Zellen komprimiert, indem solche Zellen mit gleich erscheinenden Datentypen zu Gruppen zusammengeschlossen werden. "Exakte numerische Werte sind für das Erkennen einer Tabellenstruktur weniger wichtig" , schreibt Microsoft.
Kompression für weniger Token-Nutzung
Spreadcompressor ist laut dem Paper bereits sehr effizient. So komprimierte Tabellen wenden bis zu 96 Prozent weniger Token für die Berechnung in einem Large Language Model auf. So können diverse Ressourcen eingespart werden. Das ist wichtig, wenn Microsoft ein solches System für alle Kunden in Excel bereitstellen will.
Im Ergebnis konnte das Forschungsteam einige Verbesserungen für die Verarbeitung von Tabellen feststellen. Das sei vor allem bei großen und komplexen Tabellen zu sehen. GPT-4 konnte im Test etwa 19 Prozent bessere Werte erzielen.
Allerdings gibt es noch viel zu tun. So werden mit der neuen Methode etwa noch keine Zellenfarben und fett markierte Ränder verarbeitet. Solche visuellen Elemente geben menschlichen Betrachtern zusätzlichen Kontext. Außerdem können aktuell nur Zahlen, nicht aber einzelne Begriffe unter einem Label zusammengefasst werden. So könnten Textstrings wie China, Deutschland und USA ein Label wie "Herkunftsland" erhalten. Daran arbeitet das Team derzeit noch.