Suchen

OpenAI DeployCo startet mit 4 Milliarden, Claude Platform auf AWS verfügbar, Grok Voice Think Fast 1.0

OpenAI DeployCo startet mit 4 Milliarden, Claude Platform auf AWS verfügbar, Grok Voice Think Fast 1.0

ai-powered-markdown-translator

Aus dem Französischen ins Deutsche mit gpt-5.4-mini übersetzter Artikel.

Projekt auf GitHub ansehen ↗

Der 11. Mai 2026 markiert einen ereignisreichen Tag: OpenAI startet eine Enterprise-Deployments-Tochter mit einer anfänglichen Investition von USD 4 Milliarden, Anthropic macht Claude Platform on AWS für alle AWS-Kunden verfügbar, und xAI stellt Grok Voice Think Fast 1.0 für den sprachbasierten Kundensupport in Echtzeit vor. Bei den Tools erreicht GitHub Copilot einen neuen Meilenstein mit der Verwaltung von Secrets auf Organisationsebene, Gemini führt Personal Intelligence für personalisierte Reiseplanung ein, und NVIDIA veröffentlicht OpenShell v0.0.37.


OpenAI Deployment Company — Enterprise-Tochter mit USD 4 Milliarden

11. Mai — OpenAI startet die OpenAI Deployment Company (Spitzname „DeployCo“), eine dedizierte Einheit, die Organisationen dabei helfen soll, KI-Systeme direkt in ihre kritischen Abläufe zu integrieren und bereitzustellen. Das ist nicht einfach ein weiteres Cloud-Angebot: DeployCo schickt Forward Deployed Engineers direkt zu den Kunden, um hochwertige KI-Möglichkeiten zu identifizieren, Workflows neu zu gestalten und in Produktion zu bringen.

Struktur und Partner:

KategoriePartner
Lead investorTPG
Co-GründerAdvent, Bain Capital, Brookfield
GründungspartnerB Capital, BBVA, Emergence Capital, Goldman Sachs, SoftBank Corp., Warburg Pincus, WCAS, Goanna
Beratung / IntegrationBain & Company, Capgemini, McKinsey & Company

Übernahme von Tomoro: OpenAI integriert bereits zum Start Tomoro, eine Beratungsfirma für angewandte KI, zu deren Kunden Tesco, Virgin Atlantic und Supercell zählen. Die Übernahme bringt rund 150 erfahrene Ingenieure ein (Forward Deployed Engineers und Deployment Specialists). Der Abschluss steht unter dem Vorbehalt regulatorischer Genehmigungen.

Kernzahlen: USD 4 Milliarden Anfangsinvestition, mehr als 2.000 von den Partnern unterstützte Unternehmen, mehr als eine Million Unternehmen, die bereits OpenAI-Produkte und APIs nutzen. DeployCo befindet sich mehrheitlich im Besitz und unter der Kontrolle von OpenAI.

“AI is becoming capable of doing increasingly meaningful work inside organizations. The challenge now is helping companies integrate these systems into the infrastructure and workflows that power their businesses. DeployCo is designed to help organizations bridge that gap and turn AI capability into real operational impact.”

🇩🇪 „KI wird zunehmend in der Lage, innerhalb von Organisationen immer bedeutsamere Arbeit zu leisten. Die Herausforderung besteht nun darin, Unternehmen dabei zu helfen, diese Systeme in die Infrastruktur und die Workflows zu integrieren, die ihr Geschäft am Laufen halten. DeployCo ist darauf ausgelegt, Organisationen dabei zu helfen, diese Lücke zu überbrücken und die Leistungsfähigkeit der KI in echten operativen Nutzen zu verwandeln.“ — Denise Dresser, Chief Revenue Officer bei OpenAI

🔗 Offizielle OpenAI-Ankündigung


Claude Platform on AWS — allgemeine Verfügbarkeit

11. Mai — Anthropic macht Claude Platform on AWS offiziell für alle AWS-Kunden verfügbar. Dieses Angebot ist von Claude auf Amazon Bedrock getrennt: Es bietet direkten Zugriff auf die vollständige native Claude-API, mit Authentifizierung über AWS IAM, Protokollierung über CloudTrail und konsolidierter Abrechnung über das AWS-Konto.

Enthaltene Funktionen:

FunktionStatusBeschreibung
Claude Managed AgentsBetaErstellung und Bereitstellung von Agents im großen Maßstab
Advisor strategyBetaKonsultation eines Beratermodells zur Erweiterung von Agents
Web search + web fetchGAZugriff auf Echtzeitdaten
Code executionGAPython, Visualisierungen, Datenanalyse
Files APIBetaHochladen persistenter Dokumente zwischen Unterhaltungen
SkillsBetaVermittlung von Best Practices an Claude
MCP connectorBetaVerbindung zu jedem entfernten MCP-Server ohne Client-Code
Prompt cachingGAKostenreduktion bei wiederverwendetem Kontext
CitationsGAVerankerung der Antworten in Quelldokumenten
Batch processingGAAsynchrone Workloads mit hohem Volumen

Verfügbare Modelle sind Claude Opus 4.7, Sonnet 4.6 und Haiku 4.5. Neue Modelle werden gleichzeitig auf Claude Platform on AWS und über die direkte Anthropic-API bereitgestellt.

Unterschied zu Amazon Bedrock: Bedrock läuft innerhalb des AWS-Geltungsbereichs mit AWS als Datenverarbeiter — geeignet für Unternehmen mit strengen Anforderungen an die Datenresidenz. Claude Platform on AWS bietet Zugriff auf alle nativen Funktionen der Claude-API aus der AWS-Infrastruktur heraus, wobei AWS nur als Zugriffsschicht fungiert.

Verfügbarkeit: In den meisten kommerziellen AWS-Regionen, mit globaler und US-Compliance (einschließlich GovCloud).

🔗 Claude Platform on AWS Blog


Grok Voice Think Fast 1.0 — Echtzeit-Sprachagent für den Kundensupport

8. Mai — xAI startet Grok Voice Think Fast 1.0, einen Sprachagenten für den produktiven Kundensupport. Die Positionierung ist klar: ein Sprachagent „für die reale Welt“, der in der Lage ist, Gespräche in Echtzeit mit Endnutzern zu führen — nicht nur interne Demos. Die Ankündigung erreichte innerhalb von 3 Tagen auf X 70 Millionen Aufrufe und signalisiert erhebliches Marktinteresse.

Die Ankündigung beschreibt einen Agenten, der klassische Kundensupport-Szenarien per Sprache bewältigt: Produktfragen, Problemlösung, Eskalation. Die „Think Fast“-Positionierung deutet auf eine auf geringe Latenz optimierte Architektur hin — ein kritischer Faktor für sprachbasierte Produktionssysteme, bei denen jede Pause von mehr als 500 ms die Nutzererfahrung verschlechtert.

Marktkontext: Die Ankündigung von Grok Voice Think Fast 1.0 reiht sich in einen Wettlauf um Sprachagenten für den Kundensupport ein. OpenAI hatte am 7. Mai GPT-Realtime-2 gestartet (im Artikel vom 10. Mai behandelt). ElevenLabs setzt Sprachagenten bei Mahindra für einen Fahrzeugstart ein (siehe Kurzmeldungen). Jeder große Akteur positioniert nun ein Enterprise-Angebot für Sprachagenten.

Verfügbarkeit: Über die xAI-APIs zugänglich. Preisgestaltung in der Ankündigung nicht genannt.

🔗 Tweet @xai


Gemini Personal Intelligence — maßgeschneiderte Reisepläne

11. Mai — Gemini startet Personal Intelligence, eine Funktion, die die Gemini-App mit den persönlichen Daten des Nutzers verbindet, um vollständig personalisierte Reisepläne zu erstellen. Verfügbare Datenquellen: Gmail (Reiseverlauf, Buchungsbestätigungen), Google Photos (besuchte Orte), Google Search (Suchpräferenzen) und YouTube (angesehene Inhalte).

Funktionsweise:

AspektDetail
HauptanwendungsfallPersonalisierte Reiseplanung
DatenquellenGmail, Google Photos, Google Search, YouTube
NutzerkontrolleAuswahl verbundener Apps, jederzeitige Verwaltung der Einstellungen
VerfügbarkeitGemini-App (iOS/Android)

Der Nutzer wählt aus, welche Apps verbunden werden sollen, und kann seine Personalisierungspräferenzen jederzeit ändern. Die Funktion ist Teil der Roadmap hin zu Google I/O 2026 (19. Mai), wo breitere Ankündigungen zu Geminis agentischen Fähigkeiten erwartet werden. Personal Intelligence baut auf Gemini Agent auf (gestartet mit Gemini 3 im November 2025), indem sie die Personalisierung über die bestehenden Google-Daten des Nutzers zugänglich macht.

🔗 Tweet @GeminiApp


GitHub Copilot cloud agent — Secrets und Variablen auf Organisationsebene

8. Mai — GitHub erreicht für Enterprise-Teams einen bedeutenden Meilenstein: Copilot cloud agent verfügt jetzt über einen eigenen dedizierten Bereich „Agents“ für Secrets und Variablen, getrennt von den Bereichen „Actions“, „Codespaces“ und „Dependabot“. Die wichtigste Neuerung ist die Konfiguration auf Organisationsebene — eine Premiere für Copilot cloud agent.

Was sich konkret ändert:

VorherNachher
Secrets Repo für Repo konfiguriertZentralisierte Konfiguration auf Organisationsebene
Duplikation in jedem RepositoryEin organisationsweites Secret, auf das alle ausgewählten Repositories zugreifen können
Fragmentierte VerwaltungDedizierter Bereich „Agents“ in den Repository- und Organisationseinstellungen

Das erleichtert den großflächigen Einsatz gemeinsam genutzter Konfigurationen: private Paketregister, gemeinsame MCP-Server, geteilte API-Tokens. Die feingranulare Kontrolle bleibt erhalten: Für jedes Secret oder jede Variable wählt der Administrator aus, welche Repositories darauf zugreifen dürfen.

🔗 GitHub Changelog — Secrets und Variablen für Copilot cloud agent


Entwickler-Tools — Updates

GitHub Mobile — Repositories direkt aus der App erstellen

11. Mai — GitHub Mobile ermöglicht jetzt das Erstellen von Repositories direkt unter iOS und Android. Unter iOS ist die Schaltfläche + über die Startseite oder das Profil erreichbar. Unter Android über die Startseite oder den Bereich Repositories im Profil. Der Nutzer kann den Namen, die Sichtbarkeit (öffentlich/privat), eine Beschreibung festlegen, ein Template auswählen und mit einem README, einem .gitignore oder einer Lizenz initialisieren.

🔗 GitHub Changelog — Repositories auf Mobilgeräten erstellen

Manus Website Builder — Funktion „Eine Kopie erstellen“

11. Mai — Manus Website Builder führt die Duplizierung von WebDev-Projekten in einer unabhängigen Sitzung ein. Folgendes wird bei einer Kopie übertragen: der vollständige Quellcode, das Datenbankschema, Secrets und Werte sowie eine Zusammenfassung des Gesprächsverlaufs. Folgendes wird nicht übertragen: die Datenbankdaten, Einstellungen für die benutzerdefinierte Domain, die GitHub-Verbindung und der vollständige Chatverlauf.

Das kopierte Projekt startet im unveröffentlichten Zustand. Typische Anwendungsfälle: risikofreies Redesign, Wiederverwendung als Template, getrennte Tests von Zahlungsabläufen, marktbezogene Varianten.

🔗 Manus Blog — WebDev-Kopie erstellen

Codex + OpenAI Developers MCP Server

11. Mai — Codex integriert den OpenAI Developers MCP Server und beschleunigt damit den Aufbau von KI-Anwendungen und Agents direkt über die OpenAI-APIs. Eine Videodemonstration begleitet die Ankündigung und zeigt den beschleunigten Entwicklungsworkflow.

🔗 Tweet @OpenAIDevs


NVIDIA OpenShell v0.0.37 — Open-Source-Compute-Framework

11. Mai — NVIDIA veröffentlicht OpenShell v0.0.37, ein Open-Source-Framework für verteiltes Compute. Diese Version bringt pluggable Compute-Treiber für Docker, Podman, Kubernetes und MicroVM — sodass sich KI-Workloads in unterschiedlichen Laufzeitumgebungen (runtime) ausführen lassen, ohne den Anwendungscode zu ändern.

Weitere Neuerungen: OIDC- und RBAC-Gateway-Authentifizierung, Helm-Chart mit Kubernetes-Namespaces pro Benutzer, Debian-/RPM-/Homebrew-Pakete für eine vereinfachte Installation. Breaking Change: Das Gateway muss vor dem Upgrade auf v0.0.37 neu erstellt werden.

🔗 Tweet @NVIDIAAI


Grok 20+ neue Connectors

11. Mai — Grok erweitert seine Integrationsfähigkeiten um 20+ neue Connectors: Dokumente, Kalender, E-Mail, Code und weitere Datenquellen. Diese Erweiterung folgt auf die ursprünglichen Connectors (E-Mails, Slides, Calendar, Notion), die am 8. Mai angekündigt wurden. Das erklärte Ziel ist es, mehr Aufgaben direkt aus der Grok-Oberfläche zu automatisieren, ohne auf Drittanbieter-Tools zurückzugreifen.

🔗 Tweet @grok


Claude’s Constitution — als Hörbuch

11. Mai — Claude’s Constitution, das Dokument, das die Werte und Verhaltensweisen des Modells definiert, ist nun als Hörbuch (audiobook) verfügbar. Die Aufnahme wird von zwei der Hauptautoren gelesen: Amanda Askell und Joe Carlsmith, beide Forscher bei Anthropic.

Das Hörbuch enthält die vollständige Lesung des Dokuments, ein Interview (Q&A) über den Schreibprozess, die Philosophie hinter dem Dokument und eine Reflexion darüber, wie sich die Constitution weiterentwickeln könnte, während die Modelle leistungsfähiger werden. Die Constitution bleibt als Text auf anthropic.com/constitution unter der Creative-Commons-Lizenz CC0 1.0 verfügbar.

🔗 Tweet @AnthropicAI


Kurzmeldungen

  • Gemini — Papiernotizen digitalisieren — Google veröffentlicht ein Tutorial zur Digitalisierung handschriftlicher Notizen mit Gemini, um automatisch Lernleitfäden oder Spickzettel zu erzeugen. Seiten fotografieren, in Gemini hochladen und einen strukturierten Leitfaden anfordern. 🔗 Google Blog

  • ElevenLabs × Mahindra — Mahindra (100+ Länder) hat von ElevenLabs angetriebene Sprachagenten eingesetzt, um sein Akquisitionsprogramm beim Launch eines neuen SUV zu skalieren. 🔗 Tweet @ElevenLabs

  • OpenAI Campus Network — OpenAI öffnet ein Interessenformular für Hochschul-Studentenclubs im Rahmen seines Campus Network, um die akademische Präsenz auszubauen. 🔗 openai.com


Was das bedeutet

Zwei gegensätzliche Enterprise-Strategien. OpenAI DeployCo und Claude Platform on AWS stehen für zwei Visionen des KI-Deployments im Unternehmen. OpenAI schickt menschliche Teams direkt zu den Kunden, um kritische Workflows neu zu gestalten — ein durch KI verstärktes, kapitalintensives und beziehungsorientiertes Beratungsmodell. Anthropic setzt auf Cloud-Infrastruktur, indem es AWS-Entwicklern nativen Zugriff auf die vollständige Claude-API aus ihrer bestehenden Umgebung heraus gibt. Die eine Strategie verkürzt die Time-to-Value durch Teams vor Ort, die andere durch die Integration in bereits vorhandene Werkzeuge. Beide Ansätze können beim selben Enterprise-Kunden nebeneinander bestehen.

Echtzeit-Sprachagenten gehen in Produktion. Grok Voice Think Fast 1.0 und GPT-Realtime-2 (gestartet am 7. Mai) zeigen, dass die großen Anbieter den Sprung vom Pilotprojekt zum produktiven Einsatz im sprachbasierten Kundensupport schaffen. ElevenLabs bei Mahindra illustriert diesen Übergang konkret: KI-Sprachagenten, die bei einem echten Fahrzeuglaunch in 100+ Ländern eingesetzt werden. Der nächste Wettbewerb entscheidet sich an wahrgenommener Latenz, der Fähigkeit zur Eskalation an einen Menschen und dem Umgang mit Randfällen.

Das Agenten-Tooling standardisiert sich rund um MCP. In derselben Woche kündigt Anthropic den nativen MCP connector in Claude Platform on AWS an, während OpenAI einen MCP Server in Codex integriert, um die Entwicklung von Anwendungen zu beschleunigen. GitHub Copilot cloud agent zentralisiert Secrets auf Organisationsebene, um die großflächige Konfiguration von Agents zu vereinfachen. MCP etabliert sich schrittweise als Interoperabilitätsschicht der Agents — ein Trend, den diese drei gleichzeitigen Ankündigungen bestätigen.

Persönliche KI stützt sich auf vorhandene Daten. Gemini Personal Intelligence erfindet kein neues Modell: Sie verbindet das Vorhandene (Gmail, Photos, Search, YouTube), um Reisevorschläge zu personalisieren. Das ist eine klare strategische Richtung — die nützlichste KI ist nicht diejenige, die allgemein am meisten weiß, sondern diejenige, die den einzelnen Nutzer wirklich kennt. Google I/O 2026 (19. Mai) dürfte diesen Trend weiter verstärken.


Quellen