Zum Hauptinhalt Zur Navigation

Föderiertes Unlearning: Unternehmensdaten sicher aus Trainigsdaten zurückziehen

Mit der neu entwickelten Methode muss ein KI -Training nicht wieder bei null beginnen, wenn ein Kooperationspartner seine Daten zurückzieht.
/ Mike Faust
12 Kommentare News folgen (öffnet im neuen Fenster)
Bisher war es kaum möglich, Daten aus KI-Modellen wieder zu entfernen. (Bild: Timon Schneider / SOPA Images via Reuters Connect)
Bisher war es kaum möglich, Daten aus KI-Modellen wieder zu entfernen. Bild: Timon Schneider / SOPA Images via Reuters Connect

Das Fraunhofer-Institut für Software- und Systemtechnik hat eine Methode entwickelt, mit der sich Daten präzise aus dezentralisierten KI-Modellen entfernen lassen sollen. In der zugehörigen Pressemitteilung(öffnet im neuen Fenster) heißt es, dass die als föderiertes Unlearning bezeichnete Methode keine Auswirkungen auf die Qualität der Ergebnisse des KI-Modells haben soll.

Beteiligen sich mehrere kooperierende Unternehmen mit ihren Daten am Training eines KI-Modells, kann dieses aufgrund der vielfältigeren Daten zuverlässigere Ergebnisse erzielen, erklärt das Institut. Die Unternehmen setzen dabei auf föderierte dezentrale Datensätze, um ihre Datenhoheit zu bewahren. Hierbei werden die Daten nicht auf einem zentralen Server gespeichert, sondern lokal in eine Kopie des KI-Modells eingespeist. Somit kann jedes Unternehmen Daten zur Verfügung stellen, ohne diese gegenüber anderen preisgeben zu müssen.

Will ein Unternehmen die Kooperation verlassen, sind dessen Daten allerdings so tief im KI-Modell verankert, dass es bisher kaum möglich war, diese zu entfernen, ohne die Qualität der Vorhersagen oder Simulationen des KI-Modells zu beeinträchtigen. Damit das nicht geschieht, wird beim föderierten Unlearning in der Historie des KI-Trainings schrittweise bis zu dem Punkt zurückgegangen, an dem das ausgestiegene Unternehmen dem Projekt beigetreten war.

Training muss nicht wieder bei null beginnen

Auf diese Weise wird das KI-Modell auf einen Zeitpunkt zurückgesetzt, an dem die zu entfernenden Daten mit Sicherheit noch nicht vorhanden waren. Anschließend kann das Training des KI-Modells von diesem Punkt an wieder aufgenommen werden, ohne bei null anfangen zu müssen.

Als mögliches Anwendungsbeispiel nennt das Institut Maschinen in der produzierenden Industrie. Diese werden unter Umständen von mehreren Unternehmen geteilt, die unterschiedliche Daten für KI-gestützte Simulationen zum Betrieb der Maschine beisteuern. Verlässt einer der Partner diese Kooperation, müsste das KI-Modell komplett neu trainiert werden, damit dessen Daten nicht weiter darin enthalten sind.

Unabhängig davon, wie wichtig die Daten des Partners waren, wäre die Qualität der KI-Simulation bis zum Abschluss des erneuten Trainings stark eingeschränkt. Dieser Qualitätsverlust werde mit dem Unlearning-Modell größtenteils aufgefangen.


Relevante Themen