Zurück zur Übersicht
OpenAI hat drei neue Modelle für Echtzeit-Sprache, Übersetzung und Transkription in seine API aufgenommen. Der Ausbau richtet sich an Entwickler von Sprachassistenten, Voice-Interfaces und Live-Übersetzung.
OpenAI hat seine API um drei neue Audio-Modelle erweitert: GPT-Realtime-2, GPT-Realtime-Translate und GPT-Realtime-Whisper.
GPT-Realtime-2 ist für Echtzeit-Sprachanwendungen mit stärkerem Reasoning ausgelegt. GPT-Realtime-Translate dient der Live-Übersetzung, GPT-Realtime-Whisper der Streaming-Transkription. OpenAI positioniert das Update damit klar für Anwendungen, die Sprache in Echtzeit verstehen, übersetzen und beantworten müssen.
Weiterlesen
Werbekunden können Anzeigen über einen neuen Ads-Manager selbst buchen. Zum Angebot gehören Klickpreis-Gebote und Messwerkzeuge.
Das Unternehmen rollt das Modell ab heute an alle Nutzer aus und ersetzt damit das bisherige Standardmodell. Der Wechsel ist vor allem deshalb relevant, weil der Default in ChatGPT prägt, wie Millionen Menschen KI wahrnehmen und nutzen.
AWS hat OpenAI-Modelle, Codex und Managed Agents erstmals über Amazon Bedrock für eine Limited Preview freigeschaltet. Für Unternehmen senkt das die Hürde, diese KI-Angebote in bestehenden AWS-Umgebungen mit Unternehmensfunktionen wie IAM, PrivateLink, Guardrails, Verschlüsselung und CloudTrail zu testen und später zu nutzen.
Über Amazon Bedrock werden OpenAI-Modelle, Codex und Managed Agents in AWS-Umgebungen verfügbar. Der Schritt zielt auf Unternehmenskunden, die KI bevorzugt dort einkaufen, wo sie ohnehin ihre Cloud betreiben.