🥔 OpenAI meldet sich an der Spitze zurück
PLUS: 4 weitere Stories, wöchentliche Shorts & Tipps sowie KI-Ranking

Sponsored by
Guten Morgen 🌞
Eine Woche ist vergangen, und KI WEEKLY hält Dich auf dem neuesten Stand der KI-Welt.
KI-Tools der Woche
🤖 Claude Opus 4.7 - Anthropics führende KI mit agentischer Programmierung
📈 Gemini Enterprise Agent Platform - Unternehmenseigene Agenten erstellen, skalieren und verwalten
📚 Deep Research Max - DeepMinds Forschungsagent mit MCP und nativen Diagrammen
🀚 Qwen3.6-Plus - Alibabas neue KI mit einem Kontextfenster von 1 Million Tokens
🖥️ Perplexity Personal Computer - Agent-Orchestrator für Dateien, Apps und mehr
#Bonus: 📒 Notion - Jetzt mit der zweiten Generation von Notion AI: Dein smarter Partner für alles. 30 Tage kostenlos testen mit KI Weekly*
01
OpenAI setzt neuen Standard bei Bildgenerierung

Bildquelle: OpenAI
OpenAI hat mit ChatGPT Images 2.0 ein deutlich weiterentwickeltes Bildgenerationsmodell vorgestellt, das in den vergangenen Wochen bereits in Tests viral ging und vom Unternehmen selbst als das bisher leistungsfähigste Modell dieser Art bezeichnet wird.
Die Details:
Das Modell plant die Bildgenerierung vorab, analysiert die Anforderungen, bezieht bei Bedarf Informationen und Referenzen aus dem Internet mit ein und überprüft die Ergebnisse eigenständig auf Fehler, bevor sie ausgegeben werden.
In der Rangliste von Arena AI, einem etablierten Vergleichsportal für KI-Modelle, erreicht es mit großem Abstand den ersten Platz in der Kategorie „Text-zu-Bild-Modelle” und dominiert dabei alle relevanten Bewertungskategorien.
Zu den weiteren Funktionen zählen eine Auflösung von bis zu 2K, die gleichzeitige Erstellung von bis zu acht Bildern, flexible Seitenverhältnisse von 3:1 bis 1:3 und die zuverlässige Darstellung von Text in mehreren Sprachen.
OpenAI-CEO Sam Altman beschreibt den Fortschritt als vergleichbar mit dem Sprung von GPT-3 (zur Veröffentlichung von ChatGPT) zu GPT-5. Das Modell ist bereits in ChatGPT, Codex und über die API verfügbar.
Warum das wichtig ist: OpenAI hatte im Bereich der Bildgenerierung zuletzt an Sichtbarkeit verloren, mit diesem Release positioniert sich das Unternehmen jedoch wieder klar an der Spitze. Entscheidend ist weniger die reine Bildqualität als die neue Fähigkeit, visuelle Inhalte strukturiert zu durchdenken und zu überprüfen. Dadurch werden typische Fehlerquellen deutlich reduziert, da nicht mehr nur generiert, sondern zunehmend geplant und iteriert wird. Genau hier entstehen neue kreative Spielräume, die bisher so nicht zugänglich waren.
02
Anthropic: Größten KI-Produktivitätsgewinner sind am besorgtesten

Bildquelle: Anthropic
Anthropic hat eine Auswertung der Umfrage unter 81.000 Nutzern des KI-Systems Claude veröffentlicht. Das Ergebnis zeigt ein klares Muster: Wer besonders stark von KI profitiert, blickt auch kritischer auf die eigenen Jobperspektiven, vor allem am Anfang der Karriere.
Die Details:
Die Analyse verknüpft Nutzungsdaten des sogenannten „Economic Index“ von Anthropic, der aufzeigt, in welchen Berufen besonders intensiv mit Claude gearbeitet wird, mit den Einschätzungen von 80.508 Beschäftigten zur Veränderung ihrer Tätigkeiten durch KI.
Beschäftigte in Berufen mit besonders hoher Claude-Nutzung äußern rund dreimal häufiger Angst vor Jobverlust als jene mit geringer Nutzung. Insbesondere Softwareentwickler zeigen sich stark verunsichert.
Die Mehrheit der Befragten berichtet, dass die Effizienzgewinne zunächst bei ihnen selbst ankommen, etwa durch eine schnellere Erledigung von Aufgaben und gewonnene Zeit. Gleichzeitig führen sie aber zu erweiterten Verantwortlichkeiten und mehr Arbeit.
Vor allem Berufseinsteiger äußern die größten Sorgen bezüglich einer möglichen Verdrängung. Dies stützt frühere Analysen von Anthropic auf eine schwächere Einstellungsdynamik für Hochschulabsolventen in den USA.
Warum das wichtig ist: Ganz überraschend ist dieses Ergebnis nicht, eher im Gegenteil: Wer täglich erlebt, wie viel Arbeit sich automatisieren lässt, entwickelt zwangsläufig ein realistischeres Bild der eigenen Austauschbarkeit. Neu ist die Klarheit, mit der sich dieser Zusammenhang jetzt in den Daten zeigt. Produktivitätsgewinne stellen kein Sicherheitsfaktor dar, sondern schärfen das Bewusstsein für Risiken. Genau daraus entsteht die aktuelle Spannung am Arbeitsmarkt, für die es bislang kaum überzeugende Antworten gibt.
03
OpenAI meldet sich mit GPT-5.5 an der Spitze zurück

Bildquelle: OpenAI
OpenAI hat mit GPT-5.5, das intern unter dem Codenamen „Spud“ entwickelt wurde, ein lang erwartetes Upgrade vorgestellt. Es positioniert sich als neue Stufe der KI-Leistungsfähigkeit und überholt in zentralen Benchmarks die Konkurrenz, wodurch Anthropic wieder unter Druck gesetzt wird.
Die Details:
GPT-5.5 erreicht neue Bestwerte in einer Reihe von Tests zu Schlussfolgerung, agentischem Verhalten, Computerinteraktion und Programmierung und liegt in mehreren Bereichen auf Augenhöhe mit Claude Mythos.
Trotz der Leistungssteigerung bleibt die Geschwindigkeit auf dem Niveau von GPT-5.4, während die Effizienz steigt – unter anderem, weil OpenAI eigenen Angaben zufolge Codex und GPT-5.5 genutzt hat, um Teile der GPU-Infrastruktur neu zu programmieren.
Für die Nutzung über die API setzt OpenAI Preise von 5 Dollar pro Million Input-Tokens und 30 Dollar pro Million Output-Tokens an. Damit positioniert OpenAI das Modell als deutlich günstiger als vergleichbare, führende Coding-Modelle.
GPT-5.5 ist bereits in alle kostenpflichtige ChatGPT-Abonnements sowie in Codex integriert und steht dort in Varianten wie „Thinking” und „Pro” zur Verfügung.
Warum das wichtig ist: Nach einer Phase, in der vor allem Anthropic die Wahrnehmung im Markt geprägt hat, verschiebt sich das Kräfteverhältnis wieder in Richtung OpenAI. Entscheidend ist weniger ein einzelner Benchmark als die Geschwindigkeit, mit der neue Modelle ausgeliefert und in Produkte integriert werden. Fortschritt entsteht nicht nur durch bessere Modelle, sondern auch durch die Fähigkeit, sie schnell nutzbar zu machen und gleichzeitig die Kosten zu senken.
04
SpaceX setzt mit Cursor auf KI für Softwareentwicklung

Bildquelle: Cursor
SpaceX hat eine Partnerschaft mit dem Coding-Start-up Cursor angekündigt und sich zugleich eine Option auf die Übernahme des Unternehmens für 60 Milliarden Dollar noch in diesem Jahr gesichert. Damit wäre Elon Musk ein direkter Einstieg in den Wettbewerb um führende KI-Entwicklertools möglich.
Die Details:
CEO Michael Truell erklärte, dass die Weiterentwicklung der eigenen Composer-Modelle immer wieder an fehlenden Rechenkapazitäten gescheitert sei. SpaceX stellt mit seiner Infrastruktur Colossus nun die nötige Leistung bereit.
Die Partnerschaft garantiert Cursor zunächst 10 Milliarden Dollar, unabhängig davon, ob die vollständige Übernahme zustande kommt. Diese erfolgt nur, wenn Musk die Option bis Jahresende ausübt.
Bereits im vergangenen Monat wechselten zwei zentrale Köpfe von Cursor zu xAI. Musk merkte dazu an, das Startup sei ursprünglich nicht gut aufgebaut gewesen.
Vor dem Deal plante Cursor eine Finanzierungsrunde über zwei Milliarden Dollar bei einer Bewertung von 50 Milliarden Dollar. SpaceX hatte die Übernahme zunächst aufgrund von Komplikationen im Zusammenhang mit einem möglichen Börsengang zurückgestellt.
Warum das wichtig ist: Nach mehreren erfolglosen Versuchen, mit Grok ein konkurrenzfähiges Coding-Produkt zu entwickeln, ändert Musk hier klar die Strategie und setzt auf Zukauf statt Eigenentwicklung. Im Wettbewerb mit Lösungen wie Claude Code und Codex zählt vor allem Geschwindigkeit und genau die erkauft sich SpaceX mit diesem Schritt. Gleichzeitig zeigt der Deal, wie zentral Rechenleistung als Engpass bleibt und wie stark sich die Macht über die Infrastruktur verteilt.
05
Meta zeichnet Mitarbeiteraktivitäten zur KI-Entwicklung auf

Bildquelle: Dima Solomin
Meta führt derzeit eine sogenannte „Model Capability Initiative” durch. Dabei werden Screenshots, Tastatureingaben und Mausbewegungen von US-Mitarbeitern auf ihren Arbeitslaptops erfasst, ohne dass eine Möglichkeit zum Opt-out besteht. Das Ziel besteht darin, reale Nutzungsdaten für das Training von KI-Systemen zu gewinnen. Diese Vorgehensweise sorgt intern für deutliche Kritik.
Die Details:
Der Fokus der Datenerhebung liegt insbesondere auf Entwicklern, deren Aktivitäten in Anwendungen wie VSCode, Metamate, Google Chat und Gmail protokolliert werden.
Ein interner Bericht, der von Business Insider veröffentlicht wurde, zeigt, dass CTO Andrew Bosworth auf Bedenken mit dem Hinweis reagierte, dass es keine Möglichkeit gebe, sich der Erfassung zu entziehen.
Meta hat angekündigt 8.000 Mitarbeitende bis zum 20. Mai zu entlassen, wobei ihre Arbeitsprozesse bereits etwa einen Monat zuvor im Rahmen der Initiative aufgezeichnet werden.
In der internen Kommunikation wird die Maßnahme damit begründet, dass alle Mitarbeitenden durch ihre tägliche Arbeit dazu beitragen sollen, die Leistungsfähigkeit der Modelle zu verbessern.
Warum das wichtig ist: Was bislang vor allem aus der Robotik bekannt war – das systematische Aufzeichnen menschlicher Handlungen zur Optimierung von Maschinen – wird hier konsequent auf digitale Arbeit übertragen. Der entscheidende Unterschied liegt darin, dass nicht isolierte Testumgebungen genutzt werden, sondern reale Arbeitsprozesse, die einem hohen Effizienz- und Kostendruck unterliegen. In Kombination mit laufenden Entlassungen entsteht ein Spannungsfeld, das weit über technische Fragen hinausgeht und grundlegende Fragen zu Kontrolle, Zustimmung und Machtverhältnissen im Arbeitskontext aufwirft.
In aller Kürze
1️⃣ Anthropic weitet seinen Deal mit Amazon auf 5 GW Rechenleistung aus, im Gegenzug investiert der Konzern bis zu 25 Milliarden Dollar zusätzlich in Anthropic, gekoppelt an eine AWS-Zusage von über 100 Milliarden Dollar.
2️⃣ Google stellt seine 8. TPU-Generation vor, die speziell auf Agenten-Workloads zugeschnitten ist und Training und Inferenz erstmals auf zwei getrennte Chips verteilt.
3️⃣ Google gibt bekannt, dass inzwischen 75 % des internen Codes KI-generiert sind, mit deutlichen Fortschritten bei Sicherheit und Betrieb durch KI- und Agenten-Systeme.
4️⃣ OpenAI startet Chronicle, eine Codex-Preview, bei der Hintergrund-Agenten den Bildschirm mitlesen und dauerhafte Erinnerungen aufbauen – vorerst nur für Pro-Nutzer auf dem Mac.
5️⃣ Tinder und Zoom gehen eine Partnerschaft mit Sam Altmans World ein und bieten Nutzern „Proof of Humanity"-Abzeichen per Iris-Scan, um Bots und Deepfakes einzudämmen.
Tipps & Tricks
🧑🎨 Websites mit Claude Design erstellen

Claude Design ist Anthropics neues Design-Tool, mit dem du in wenigen Minuten komplette Landingpage-Entwürfe generieren kannst. In dieser Anleitung erstellst du vier Mockup-Varianten für deine Website, inklusive direktem Feedback-Workflow und optionalem Live-Deployment über Claude Code.
Schritt für Schritt
Öffne claude.ai/design, wähle die Wireframe-Option und klicke auf „Create". Beschreibe kurz: Wer ist die Zielgruppe, was bietest du an, und welche Aktion soll der Besucher ausführen?
Suche nach Vorbildern, an denen du dich orientieren willst. Bewährt haben sich Suchanfragen wie „beste Landingpages für [deine Nische]" sowie Screenshots aus dem Checkout-Bereich von Seiten mit extrem hohem Transaktionsvolumen, etwa Amazon, eBay oder PayPal.
Füge die Screenshots deinem Briefing hinzu und bitte Claude, vier Varianten des Mockups zu erstellen. Beantworte eventuelle Rückfragen und nach 2 bis 5 Minuten liegen die Ergebnisse vor.
Klicke auf einzelne Elemente und ergänze Notizen wie „Formuliere diesen CTA ergebnisorientierter" oder „Ergänze ein Testimonial". Claude übernimmt die Änderungen und verfeinert den Entwurf automatisch.
🚀 Profi-Tipp: Klicke auf Share > Handoff to Claude Code > Send to Claude Code Web, so übergibst du den finalen Entwurf direkt an Claude Code, welcher die Website für dich baut und online stellt.
🤓 Einen eigenen kostenlosen Coding-Agenten lokal auf dem Laptop betreiben

Mit Ollama kannst du ein Coding-LLM direkt auf deinem Rechner ausführen und es kostenlos in Tools wie Claude Code oder Codex einbinden. Diese Anleitung zeigt dir, wie du das passende Modell auswählst, installierst und sinnvoll einsetzt.
Schritt für Schritt
Mache einen Screenshot deiner Systemdaten (RAM, CPU, GPU, VRAM), lade ihn in Claude oder ChatGPT hoch und frage, welches Ollama-Coder-Modell auf deiner Maschine realistisch läuft. Als Faustregel: 8 GB RAM reichen für kleinere Modelle, ab 16–32 GB wird es komfortabler.
Stöbere auf ollama.com/library durch die Coder-Modelle, etabliert sind etwa
qwen2.5-coder,deepseek-coder-v2odercodellama. Kopiere den Startbefehl, zum Beispiel:ollama run qwen2.5-coder:7b.Öffne ein Terminal in deinem Projektverzeichnis, füge den Befehl ein und warte, bis das Modell heruntergeladen ist. Danach läuft es lokal und kann von Coding-Tools angesprochen werden.
Standardmäßig nutzt Ollama nur 4K Kontext, für echte Coding-Aufgaben zu wenig. Gehe in den Einstellungen auf „Context" und stelle auf 32K oder mehr. Wenn Claude Code Aufgaben ablehnt oder Tool Calls verschluckt, probiere alternativ OpenCode – das harmoniert oft besser mit lokalen Modellen.
🚀 Profi-Tipp: Lokale KI ersetzt kein bezahltes Claude Code oder Codex. Nutze sie zum Üben, für einfaches Debugging oder als günstigen Subagenten unter einem kostenpflichtigen Haupt-Agenten – so sparst du Tokens bei Routineaufgaben und behältst die starke Qualität für die wirklich kniffligen Stellen.
Jede Woche noch mehr praktische KI-Tipps? Mit KI Weekly Plus bekommst Du in jeder Ausgabe zwei Tipps und Tricks statt nur einem.
KI-Events
28.04.2026 - KI kann Kunst - Wie Künstliche Intelligenz kreative Prozesse verändert | Berlin
05.05 - 06.05.2026 - OMR Festival 2026 | Hamburg
05.05 - 06.05.2026 - Rise of AI Konferenz 2026 | Berlin
06.05 - 07.05.2026 - Big Data & AI World | Frankfurt
28.05.2026 - Applied AI Conf | Berlin
Du möchtest ein Event bewerben? Kontaktiere uns hier.
Nur bei mit einem Sternchen (*) gekennzeichneten Links handelt es sich um Affiliate-Links. Wir erhalten für jeden Kauf eine Provision. Dies hat keinen Einfluss darauf, wie wir ein Tool oder einen Anbieter bewerten.
