Microsoft-KI: Copilot dient laut Microsoft-AGB nur zur Unterhaltung
In der Tech-Community sorgt derzeit ein Blick in das Kleingedruckte von Microsoft für Aufsehen. Obwohl die entsprechenden Dokumente(öffnet im neuen Fenster) für "Copilot for Individuals" bereits seit Ende 2025 in dieser Form vorliegen, rückt eine spezifische Passage erst jetzt verstärkt in den Fokus der Öffentlichkeit, berichtet unter anderem The Register(öffnet im neuen Fenster) . Microsoft stellt darin klar, dass der KI-Assistent nicht als verlässliche Informationsquelle zu betrachten ist.
Nur für Unterhaltungszwecke
In den Nutzungsbedingungen heißt es wörtlich, dass Copilot lediglich "für Unterhaltungszwecke" gedacht sei. Das System könne Fehler machen und funktioniere möglicherweise nicht wie beabsichtigt. Microsoft warnt explizit davor, sich bei wichtigen Ratschlägen auf das Tool zu verlassen; die Nutzung erfolge auf eigene Gefahr.
Diese defensive Haltung ist für Branchenkenner nicht völlig neu. Microsoft betont schon länger die Grenzen seiner KI-Lösungen. So wurden etwa bei Demonstrationen während einer Roadshow in London sämtliche Funktionen mit dem Hinweis versehen, dass die Ergebnisse menschliche Verifizierung erfordern und das Tool nicht vollumfänglich vertrauenswürdig sei. Dies gilt grundsätzlich für alle aktuellen KI-Assistenten, insbesondere bei kritischen Themen wie medizinischen Ratschlägen oder Finanzplanungen.
Kuriose Klauseln auch bei Anthropic
Die Diskussion um die Haftungsausschlüsse der KI-Entwickler beschränkt sich jedoch nicht nur auf Microsoft. Nutzer auf Hacker News machten darauf aufmerksam, dass auch der Konkurrent Anthropic für seine Modelle Claude Pro und Max spezielle Bedingungen für europäische Nutzer bereithält. Wer die Seite mit einer europäischen IP-Adresse aufruft, findet dort eine Klausel, die die kommerzielle Nutzung untersagt.
Demnach dürfen die Dienste in Europa nicht für geschäftliche Zwecke verwendet werden. Anthropic schließt zudem jegliche Haftung für entgangene Gewinne oder Geschäftsunterbrechungen aus. Kritiker merken an, dass es paradox erscheint, einen Pro-Tarif anzubieten, der rechtlich gesehen nicht professionell genutzt werden darf.
Die erneute Aufmerksamkeit für diese Dokumente dient als Erinnerung daran, dass Chatbots trotz des Marketing-Hypes um LLMs fehleranfällige Werkzeuge bleiben. Während die Privatkunden-Version von Copilot laut Microsoft der Unterhaltung dient, zeigt die Praxis, dass auch die Business-Variante Microsoft 365 Copilot mit Ungenauigkeiten zu kämpfen hat. Das dürfte diejenigen, die viel mit KI arbeiten, allerdings nicht überraschen.
- Anzeige Hier geht es zu Künstliche Intelligenz: Wissensverarbeitung bei Amazon Wenn Sie auf diesen Link klicken und darüber einkaufen, erhält Golem eine kleine Provision. Dies ändert nichts am Preis der Artikel.



