Zurück zur Übersicht
Das Unternehmen sagt, das Ziel für US-KI-Infrastruktur sei bereits übertroffen worden. Die Zahlen zeigen, wie stark die Branche inzwischen an Strom, Flächen und Genehmigungen hängt.
OpenAI teilte mit, das eigene Ziel für 10 Gigawatt US-KI-Infrastruktur sei bereits übertroffen worden. In den vergangenen 90 Tagen seien nach Unternehmensangaben mehr als 3 Gigawatt zusätzliche Kapazität hinzugekommen.
Das Unternehmen kündigte an, den Ausbau der Compute-Kapazitäten in den kommenden Jahren weiter voranzutreiben. Die Meldung unterstreicht, dass der Engpass im KI-Markt derzeit weniger bei den Modellen liegt als bei Energie, Standorten und Rechenzentren.
Weiterlesen
Das Unternehmen spricht von mehr als 3 Gigawatt zusätzlicher Kapazität in den vergangenen 90 Tagen. Der Ausbau von Rechenzentren, Energie und Hardware rückt damit weiter ins Zentrum des KI-Wettbewerbs.
OpenAI integriert Frontier-Modelle wie GPT-5.4 direkt in Cloudflare Agent Cloud. Der Schritt verschiebt den Wettbewerb bei KI weiter von der Modellqualität hin zur Infrastruktur, die den produktiven Einsatz im Enterprise-Umfeld steuert.
Über Amazon Bedrock werden OpenAI-Modelle, Codex und Managed Agents in AWS-Umgebungen verfügbar. Der Schritt zielt auf Unternehmenskunden, die KI bevorzugt dort einkaufen, wo sie ohnehin ihre Cloud betreiben.
Das US-Verteidigungsministerium öffnet klassifizierte Systeme für KI-Modelle von Google, Microsoft, AWS, Nvidia, OpenAI, Reflection und SpaceX. Der Schritt zeigt, wie tief KI inzwischen in sicherheitskritische Arbeitsumgebungen vordringt.
Microsoft bleibt der primäre Cloud-Partner von OpenAI, doch die Bindung wird an mehreren Stellen gelockert. Neue OpenAI-Produkte sollen weiter zuerst auf Azure erscheinen, können aber künftig auch über andere Cloud-Anbieter ausgeliefert werden.