Zurück zur Übersicht
Das US-Verteidigungsministerium öffnet klassifizierte Systeme für KI-Modelle von Google, Microsoft, AWS, Nvidia, OpenAI, Reflection und SpaceX. Der Schritt zeigt, wie tief KI inzwischen in sicherheitskritische Arbeitsumgebungen vordringt.
Die KI-Modelle sollen in komplexen Einsatzlagen und in klassifizierten Umgebungen genutzt werden. Damit rückt KI weiter aus der Produktivitäts-Ecke heraus und näher an sicherheitskritische Entscheidungsprozesse.
Für die Anbieter ist das auch ein Signal an den Beschaffungsmarkt: Wer im Regierungs- und Sicherheitsumfeld Standards setzt, schreibt oft die nächsten Regeln gleich mit. Genau dort wird KI gerade unbequem real.
Weiterlesen
Das US-Verteidigungsministerium treibt den Einsatz von KI in sicherheitskritischen Netzen voran. Für Nvidia, Microsoft und AWS ist das ein klares Signal: Der Staat wird zum Großkunden für KI-Infrastruktur.
Nach einem AP-Bericht soll Microsoft keinen Umsatzanteil mehr an OpenAI zahlen. OpenAI kann künftig auch mit weiteren Cloud-Anbietern wie Amazon, Google und Oracle arbeiten, Microsoft bleibt primärer Partner.
Über Amazon Bedrock werden OpenAI-Modelle, Codex und Managed Agents in AWS-Umgebungen verfügbar. Der Schritt zielt auf Unternehmenskunden, die KI bevorzugt dort einkaufen, wo sie ohnehin ihre Cloud betreiben.
Microsoft bleibt der primäre Cloud-Partner von OpenAI, doch die Bindung wird an mehreren Stellen gelockert. Neue OpenAI-Produkte sollen weiter zuerst auf Azure erscheinen, können aber künftig auch über andere Cloud-Anbieter ausgeliefert werden.
Anthropic will Claude Mythos Preview gezielt für defensive Sicherheitsarbeit einsetzen. Der Schritt zeigt, wie KI-gestützte Analyse vom Experiment näher an reale Sicherheitsprozesse und damit auch an die Governance-Frage rückt.