US-Bundesrichter stoppt vorläufig Pentagon-Einstufung von Anthropic als Lieferkettenrisiko
Ein US-Bundesrichter hat das Pentagon vorläufig daran gehindert, Anthropic als Lieferkettenrisiko einzustufen. Damit ist auch eine Anweisung zunächst blockiert, nach der Bundesbehörden Claude nicht nutzen sollten.
Ein US-Bundesrichter hat dem Pentagon vorläufig untersagt, Anthropic als Lieferkettenrisiko einzustufen. Die Entscheidung stoppt zunächst auch die Durchsetzung einer Anweisung, wonach Bundesbehörden Claude nicht verwenden sollten.
Der Fall betrifft damit nicht nur die Bewertung eines einzelnen KI-Anbieters, sondern auch unmittelbare Beschaffungs- und Nutzungsregeln im US-Bundesapparat. Im Streit stehen Sicherheitsbedenken des Verteidigungsministeriums und die Frage, wie weit Behörden bei Ausschlüssen von KI-Systemen gehen dürfen.
Der Rechtsstreit verdeutlicht, wie stark sich Konflikte um KI inzwischen in Vergabe-, Sicherheits- und Verwaltungsrecht verlagern. Für Anbieter und Behörden geht es dabei zugleich um Marktzugang, operative Nutzung und staatliche Kontrolle.