Zurück zur Übersicht
Das Verfahren für sogenanntes federated unlearning soll es ermöglichen, Daten eines ausscheidenden Partners aus einem dezentral trainierten KI-Modell zu entfernen, ohne das System komplett neu aufzusetzen. Für Unternehmen in kooperativen KI-Projekten könnte das die Datenkontrolle deutlich vereinfachen.
Fraunhofer ISST und Fujitsu Research haben ein Verfahren für sogenanntes federated unlearning vorgestellt.
Damit lassen sich Daten eines ausscheidenden Partners gezielt aus einem dezentral trainierten KI-Modell entfernen. In vielen Fällen entfällt dadurch das aufwendige vollständige Neutraining des Systems.
Der Ansatz richtet sich vor allem an kooperative KI-Projekte, in denen Datenhoheit und Vertraulichkeit eine zentrale Rolle spielen. Für Unternehmen, die Modelle gemeinsam trainieren und später wieder sauber trennen müssen, ist das praktisch relevant.
Weiterlesen
Die Expertenkommission will deutlich mehr Geld für Rechenleistung, Infrastruktur und eine lockerere Regulierung. Politisch brisant ist vor allem der Schulterschluss von Industriepolitik, Verteidigung und Digitalrecht.
Das Modell kann Schwachstellen in IT-Systemen in großem Umfang identifizieren. Das Bundesamt für Sicherheit in der Informationstechnik sieht dringenden Handlungsbedarf bei der Absicherung von Infrastrukturen.
Der kanadische KI-Anbieter Cohere und das deutsche Unternehmen Aleph Alpha wollen laut einem Bericht zusammengehen. Der Schritt würde die Konsolidierung im europäischen KI-Markt weiter beschleunigen.
Der Bundestagsausschuss hat am 22. April 2026 einen Bericht der Bundesregierung zum Einsatz von KI-Agenten in der Bundesverwaltung beraten. Damit rückt der praktische Einsatz von KI in Behörden stärker in den parlamentarischen Fokus.