Zum Hauptinhalt Zur Navigation Zur Suche

Risiken durch Copilot mindern: Analyst schlägt KI-Verbot am Freitagnachmittag vor

In einem Vortrag erörtert ein Gartner-Analyst fünf Risiken beim Einsatz von Microsoft 365 Copilot und zeigt Wege, diese zu vermeiden.
/ Mike Faust
Kommentare undefined News folgen (öffnet im neuen Fenster)
Viele Risiken durch Microsfts Copilot lassen sich durch die richtige Konfiguration mindern. (Bild: Photo by Joe Raedle/Getty Images)
Viele Risiken durch Microsfts Copilot lassen sich durch die richtige Konfiguration mindern. Bild: Photo by Joe Raedle/Getty Images

Bei einem Vortrags mit dem Titel Minderung der fünf größten Risiken durch Microsoft 365 Copilot am 17. März hat der Gartner-Analyst Dennis Xu scherzhaft vorgeschlagen, Unternehmen könnten ein Verbot des KI-Tools Copilot an Freitagnachmittagen einführen.

Wie The Register berichtet(öffnet im neuen Fenster) , ging Xu damit auf das fünfte von ihm identifizierte Risiko ein, bei dem Copilot Ergebnisse liefere, die zwar faktisch korrekt, aber für Arbeitsumgebungen inakzeptabel seien.

Er erinnerte daran, dass KI-generierte Inhalte nicht ungeprüft verwendet werden sollten. Mitarbeiter würden besonders freitags dazu neigen, nur ihre Arbeit fertigstellen zu wollen, und sich nicht mehr die Mühe machen, die Fehler des Chatbots zu überprüfen. Daher sei es sinnvoll, für diese Zeit ein Chatbotverbot im Unternehmen einzuführen, so Xu.

Den Großteil seiner Redezeit widmete er allerdings dem Problem, dass Copilot Dokumente offenlegt, für die vom Ersteller keine angemessene Freigabeberechtigung festgelegt wurde. Letzteres sei ein bekanntes Problem, das durch Copilot noch verstärkt werde, sagte Xu. Grund sei, dass Microsoft zwei sich überschneidende Tools für die Zugriffskontrolle verwende und beide Tools anfällig für Benutzerfehler seien, die einen unbeabsichtigten Zugriff auf Dateien ermöglichten.

Unbeabsichtigte Prompt-Injektionen und schädliche Eingabeaufforderungen

Microsoft biete noch ein drittes Tool an, das eine übergeordnete Zugriffskontrollliste anwende und übermäßig geteilte Inhalte automatisch erkennen könne, so Xu. Damit ließe sich das Risiko übermäßiger Freigaben durch die Überwachung der Benutzerzugriffe auf eingeschränkte Inhalte reduzieren.

Das zweite von Xu analysierte Risiko betrifft die Remote-Ausführung von Code durch schädliche Eingabeaufforderungen. Dieses lässt sich reduzieren, indem in Copilot Anweisungsfilter angewendet und potenzielle Quellen schädlicher Eingabeaufforderungen wie z. B. E-Mails vom Zugriff ausgeschlossen werden.

Als drittes Risiko identifiziert Xu Copilot-Zugriffe auf vertrauliche Daten, die häufig bei der Verknüpfung des KI-Tools mit SaaS-Anwendungen von Drittanbietern auftreten und durch das standardmäßig aktivierte Web-Content-Plugin verursacht werden.

Beim vierten Risiko geht es um Unternehmen, die ihre Angestellten zum Experimentieren mit KI ermutigen, wodurch die Mitarbeiter unbeabsichtigte Prompt-Injektionen eingeben könnten, also Anweisungen an die KI, Schutzmechanismen zu umgehen.


Relevante Themen