Suchen

Claude Security in öffentlicher Beta, Manus Cloud Computer, NVIDIA OpenShell, xAI Voice Cloning

Die Woche vom 29. April bis 2. Mai 2026 markiert mehrere wichtige Meilensteine: Claude Security verlässt die Vorabversion und geht in eine öffentliche Enterprise-Beta, Manus startet eine immer aktive Ubuntu-Cloud-Maschine ohne technische Vorkenntnisse, und NVIDIA stellt eine Sicherheits-Sandbox für KI-Agenten als Open Source bereit. Auf der multimodalen Seite bietet xAI das Sprachklonen per API an und erzielt dabei ein Rekord-Engagement von 19,7 Millionen Aufrufen.


Claude Security in öffentlicher Beta — Code-Audit durch Claude Opus 4.7

30. April — Anthropic öffnet Claude Security in öffentlicher Beta für Claude-Enterprise-Kunden. Das Produkt, früher unter dem Namen Claude Code Security bekannt, analysiert Codebasen auf Schwachstellen, indem es wie ein menschlicher Sicherheitsforscher denkt — und nicht durch einfache Übereinstimmung statischer Muster.

“Claude Security is now in public beta for Claude Enterprise customers. Claude scans your codebase for vulnerabilities, validates each finding to cut false positives, and suggests patches you can review and approve.”

🇩🇪 Claude Security ist jetzt in öffentlicher Beta für Claude-Enterprise-Kunden. Claude analysiert eure Codebase auf Schwachstellen, validiert jeden Fund, um Fehlalarme zu reduzieren, und schlägt Patches vor, die ihr prüfen und genehmigen könnt.@claudeai auf X

Das Tool nutzt Claude Opus 4.7, um parallele Multi-Agent-Scans des Codes durchzuführen, jedes Ergebnis zu validieren, um Fehlalarme zu reduzieren — einer der Hauptkritikpunkte an klassischen Scannern — und konkrete Korrekturen vorzuschlagen, die Teams prüfen und genehmigen können. Seit der Vorabversion im Februar 2026 haben Hunderte von Organisationen das Tool an Produktionscode getestet und berichten von Scan-zu-Patch-Zyklen innerhalb weniger Stunden.

Zu den Neuerungen der öffentlichen Beta gehören die Planung regelmäßiger Scans (für eine kontinuierliche Abdeckung, nicht nur punktuelle Audits) sowie die Möglichkeit, ein bestimmtes Verzeichnis im Repository gezielt auszuwählen.

AspektDetail
VerfügbarkeitÖffentliche Beta, nur Claude Enterprise
ModellClaude Opus 4.7
Zugriffclaude.ai/security oder Seitenleiste claude.ai
PreviewSeit Februar 2026 — Hunderte von Organisationen
Neue FunktionenGeplante Scans, Zielauswahl nach Verzeichnis
Integrierte PartnerCrowdStrike, Palo Alto Networks, SentinelOne, TrendAI, Wiz

Anthropic integriert Opus 4.7 außerdem in Partner-Sicherheitsplattformen: CrowdStrike (Falcon platform, Project Quiltworks), Palo Alto Networks, SentinelOne (Wayfinder AI), TrendAI und Wiz (Red Agent). Enterprise-Administratoren können Claude Security über die Administrationskonsole aktivieren.

🔗 Offizieller Claude-Security-Blog


Manus Cloud Computer — eine Ubuntu-Maschine ohne Programmieren, rund um die Uhr

30. April — Manus startet Cloud Computer, eine dedizierte, stets eingeschaltete Cloud-VM, die grundlegend verändert, was Nicht-Entwickler bauen und automatisieren können.

Bisher erforderte der dauerhafte 24/7-Betrieb eines Programms das Mieten von Servern, das Konfigurieren eines Betriebssystems und das Schreiben von Code — eine Hürde, die Entwicklern vorbehalten war. Cloud Computer beseitigt diese Hürde, indem ein Ziel in natürlicher Sprache beschrieben werden kann: Manus schreibt den Code und konfiguriert die Umgebung.

“Introducing Cloud Computer for Manus. Your always on machine in the cloud, so anything you build keeps running.”

🇩🇪 Vorstellung von Cloud Computer für Manus. Eure immer aktive Maschine in der Cloud, damit alles, was ihr baut, weiterläuft.@ManusAI auf X

Die 24/7-Persistenz steht im Kontrast zur temporären Manus-Sandbox, die nach jeder Sitzung geschlossen wird. Cloud Computer behält ein gemeinsames Ubuntu-Dateisystem zwischen den Sitzungen bei und ermöglicht es Manus, auf früherer Arbeit aufzubauen.

Manus-UmgebungAnwendungsfall
Temporary SandboxAnalysen, Dokumente, einmalige Web-Apps
Manus DesktopKontrolle von Dateien und Anwendungen auf dem lokalen Rechner
Cloud Computer24/7-Bots, persistente Datenbanken, geplante Scraper

Dokumentierte konkrete Anwendungsfälle: Slack-, Discord- oder WhatsApp-Bots, die kontinuierlich laufen, MySQL-Datenbanken mit automatischen Wochenberichten, Preisüberwachungs-Scraper, Self-Hosting von Open-Source-Tools (Home Assistant, Metabase, WordPress, Plausible). Drei Pläne (Basic, Standard, Advanced) erlauben die Wahl von CPU-, Speicher- und Storage-Ressourcen je nach Bedarf. Zugriff per SSH oder Web-Terminal über das Manus-Dashboard möglich.

🔗 Manus-Cloud-Computer-Blog


NVIDIA OpenShell — Open-Source-Sandbox für KI-Agenten im Unternehmen

2. Mai — NVIDIA kündigt OpenShell an, eine Open-Source-Sandbox-Umgebung, die darauf ausgelegt ist, in Unternehmen eingesetzte KI-Agenten abzusichern. Vorgestellt von Jensen Huang, CEO von NVIDIA, in einem am 2. Mai 2026 veröffentlichten Video, kontrolliert das Tool präzise, worauf Agenten zugreifen, was sie teilen und was sie senden können.

Mit der Entscheidung für Open Source setzt NVIDIA auf Transparenz und Auditierbarkeit: Jedes Unternehmen kann den Code prüfen, an seine Bedürfnisse anpassen und ihm vertrauen. Diese Positionierung reagiert direkt auf die Sorgen von Sicherheitsteams, die die Enterprise-Einführung von LLMs aus Angst vor Datenexfiltration oder unerwünschten Aktionen bremsen.

OpenShell ist Teil der breiteren NVIDIA-Strategie zur Absicherung agentischer Inferenz, als Ergänzung zu Dynamo (KV-aware Routing) und NIM (optimierte Blackwell-APIs). Das Problem, das es adressiert, ist genau das, was die Einführung autonomer Agenten in sensiblen Umgebungen verzögert: die Unmöglichkeit für IT-Teams, den Aktionsbereich der Agenten zu überwachen und einzuschränken.

AspektDetail
TypOpen-Source-Sandbox
Vorgestellt vonJensen Huang (CEO NVIDIA)
FunktionKontrolle von Zugriff / Teilen / Senden der KI-Agenten
PositionierungErgänzend zu Dynamo und NIM
Engagement13K+ Aufrufe in wenigen Stunden

🔗 NVIDIA-OpenShell-Ankündigung


xAI Voice Cloning via API — personalisierte Stimme in weniger als 2 Minuten

2. Mai — xAI startet das Sprachklonen (voice cloning) über seine öffentliche API. Entwickler können nun in weniger als zwei Minuten eine personalisierte Stimme erstellen oder aus einer Auswahl vordefinierter Stimmen wählen.

“Voice Cloning is now live via the xAI API! Create a custom voice in less than 2 minutes or select from our preset voices.”

🇩🇪 Sprachklonen ist jetzt über die xAI-API verfügbar! Erstellt in weniger als 2 Minuten eine personalisierte Stimme oder wählt aus unseren vordefinierten Stimmen.@xai auf X

Die Ankündigung erzielte innerhalb weniger Stunden ein außergewöhnliches Engagement von 19,7 Millionen Aufrufen und ist damit eine der viralsten Ankündigungen der Woche im KI-Ökosystem. Diese Funktion fügt sich in xAIs Strategie ein, über die API fortgeschrittene multimodale Fähigkeiten anzubieten, nach dem Start von Grok Voice Think Fast 1.0 in der Vorwoche.

MetrikWert
Aufrufe19,7 Mio.
Reposts820
Likes5 641
Lesezeichen2 481
ErstellungszeitWeniger als 2 Minuten

Die Anwendungsfälle reichen von der Erstellung von Audioinhalten über personalisierte Assistenten bis hin zu interaktiven Anwendungen. Die Verfügbarkeit per API ebnet den Weg für die Integration in Drittprodukte.

🔗 xAI-Grok-Custom-Voices-Blog


Claude Code — Lehren aus dem Prompt Caching

30. April — Das Claude-Code-Team veröffentlicht einen technischen Artikel von Thariq Shihipar (Claude-Code-Technical Staff) über seine Prompt-Caching-Praktiken. Die Kernbotschaft: Für einen langfristig laufenden Agenten ist Prompt Caching keine optionale Optimierung — es ist die Grundarchitektur.

Die Prompt-Struktur ist vom stabilsten zum dynamischsten Teil organisiert: Tools und System-Prompt (globaler Cache, zwischen Sitzungen geteilt), Projektkontext (projektbezogener Cache), Sitzungs-Kontext und dann dynamische Konversation. Jede Änderung im stabilen Teil macht alles danach ungültig — was das Team wie einen internen Vorfall behandelt.

Drei dokumentierte Muster: (1) Werkzeuge niemals mitten in einer Sitzung ändern — Claude Code verwendet EnterPlanMode/ExitPlanMode als vom Modell aufrufbare Werkzeuge; (2) die Dutzenden MCP-Tools werden als defer_loading: true-Stubs geladen, statt aus dem Prompt entfernt zu werden; (3) die Kontextkomprimierung nutzt einen Fork mit identischem Präfix wie der Parent, um die Cache-Hits zu maximieren.

🔗 Artikel zu Claude Code Prompt Caching


Claude API Skill in CodeRabbit, JetBrains, Resolve AI und Warp

29. April — Anthropic erweitert die Skill claude-api auf vier neue Entwicklungsumgebungen: CodeRabbit, JetBrains (und seinen Agenten Junie), Resolve AI und Warp. Die Skill war bereits in Claude Code verfügbar.

ToolIntegration
Claude CodeBereits verfügbar
CodeRabbitNeu
JetBrains / JunieNeu
Resolve AINeu
WarpNeu

Ihre Rolle: Entwicklern einen in ihr gewohntes Tool integrierten Claude-API-Experten zu geben, der die Regeln des Prompt Caching, Agenten-Patterns, die Konfiguration von Claude Managed Agents und Modellmigrationen kennt. Die Skill bleibt bei jeder API-Weiterentwicklung automatisch aktuell. Sie ist Open Source auf GitHub (anthropics/skills).

🔗 Claude-API-Skill-Blog


Code with Claude — Entwicklerkonferenz in der Woche vom 5. Mai

1. Mai — Anthropic kündigt die Rückkehr seiner Entwicklerkonferenz Code with Claude für die Woche vom 5. Mai 2026 an. Die Veranstaltung richtet sich an alle Erfahrungsstufen mit Claude Code — Einsteiger und erfahrene Entwickler — und wird per Livestream übertragen. Anmeldungen sind bei claude.com/code-with-claude möglich.

Die Ankündigung löste innerhalb weniger Stunden mehr als 630.000 Aufrufe aus, ein Zeichen für anhaltendes Interesse in der Entwickler-Community. Die Konferenz folgt auf eine erste Ausgabe, die das Claude-Code-Ökosystem geprägt hatte, wobei von Teilnehmenden ein mögliches physisches Tokio als Ort für bestimmte Sessions erwähnt wurde.

🔗 Anmeldung zu Code with Claude


Anthropic — Studie zur persönlichen Beratung durch Claude (1 Mio. Gespräche)

30. April — Anthropic veröffentlicht eine Studie, die analysiert, wie Nutzer Claude um persönliche Beratung bitten, basierend auf der Analyse von einer Million Gesprächen. Die Analyse wird mit Clio durchgeführt, dem intern entwickelten, datenschutzschonenden Insights-Tool. Diese Studie ist Teil einer Initiative, die gesellschaftlichen Auswirkungen von Claude zu verstehen, um das künftige Modelltraining zu informieren — und damit den Kreis zwischen realer Nutzung und verantwortungsvoller KI-Entwicklung zu schließen.

🔗 Anthropic-Ankündigung


BioMysteryBench — Bioinformatik-Benchmark von Anthropic

30. April — Anthropic veröffentlicht BioMysteryBench, einen neuen Benchmark zur Bewertung der bioinformatischen Forschungsfähigkeiten von Claude. Das Eval umfasst 99 Probleme, die auf echten biologischen Daten basieren und bei denen Claude den Datentyp erraten und kreative Lösungen entwerfen muss — eine Simulation der Arbeit eines Forschers mit unbekannten Daten. Ziel ist es zu messen, ob Claude bei realen, offenen Forschungsaufgaben mit menschlichen Expertinnen und Experten in der Bioinformatik konkurrieren kann, statt nur Standard-Benchmarks zu absolvieren.

🔗 BioMysteryBench-Ankündigung


Google DeepMind AI co-clinician — multimodale medizinische Agenten

30. April — Google DeepMind kündigt eine neue Forschungsinitiative namens AI co-clinician (KI-Co-Kliniker) an. Ziel ist es zu untersuchen, wie multimodale Agenten medizinisches Fachpersonal bei ihrer täglichen Arbeit besser unterstützen könnten.

Um die Patientensicherheit zu gewährleisten, basiert das System auf einer Dual-Agent-Architektur (dual agent): Ein Hauptagent führt die Analysen durch, während ein zweiter integrierter Agent die Entscheidungen vor jeder Aktion überprüft und validiert. Diese Überwachungsarchitektur soll die menschliche Aufsicht im Zentrum des Systems halten, eine Voraussetzung für die medizinische Einführung. Die Ankündigung erzielte innerhalb weniger Stunden mehr als 314.000 Aufrufe.

🔗 Ankündigung von Google DeepMind AI co-clinician


NotebookLM Notebooks in der Gemini-App — mobile Verfügbarkeit für Free und Paid

30. April — NotebookLM kündigt an, dass seine Notebooks jetzt mobil in der Gemini-App für alle Free- und Paid-Nutzer verfügbar sind. Die Ausweitung auf weitere europäische Länder ist in Kürze geplant. Diese mobile Verfügbarkeit folgt auf die erste Integration vom 8. April 2026 auf dem Desktop und markiert einen bedeutenden Schritt: Nutzer können nun ihre Projekte organisieren, auf ihre persönlichen Notebooks zugreifen und NotebookLM unterwegs über die Smartphone-Gemini-App verwenden.

🔗 NotebookLM-Mobile-Ankündigung


Gemini CLI v0.40.0 — Offline-Suche mit ripgrep, 4-stufiges Gedächtnis, lokales Gemma

28. April — Version v0.40.0 des Gemini CLI führt mehrere Verbesserungen für Entwickler ein.

FunktionDetail
Versionv0.40.0
Offline-Sucheripgrep im Bundle enthalten
GedächtnisNeues hierarchisches 4-Stufen-System
Lokale ModelleBefehl gemini gemma vereinfacht
ThemesVon GitHub inspirierte barrierearme Themes
MCP-RessourcenMCP-Ressourcen-Tools eingeführt

Gemini CLI integriert jetzt ripgrep im Bundle und ermöglicht dadurch lokale Code-Suche ohne Netzwerkverbindung. Das Gedächtnissystem wechselt zu einer promptgesteuerten Vier-Ebenen-Architektur. Die Konfiguration und Nutzung lokaler Gemma-Modelle wird durch den dedizierten Befehl gemini gemma vereinfacht.

🔗 Gemini-CLI-Änderungsprotokoll


GitHub Copilot in Visual Studio — April 2026 Update

30. April — GitHub veröffentlicht das April-Update von Copilot für Visual Studio, mit Fokus auf agentische Workflows.

FunktionBeschreibung
Cloud-Agent aus der IDECloud-Agent-Sitzungen starten, ohne Visual Studio zu verlassen
Portable benutzerdefinierte AgentsBenutzerweite Definitionen in %USERPROFILE%/.github/agents/
Erweiterte Agent-SkillsEntdeckung über .claude/skills/ und .agents/skills/
Debugger-AgentReproduziert, instrumentiert, diagnostiziert und behebt von einem Issue aus
C++ Code Editing ToolsAllgemeine Verfügbarkeit (get_symbol_call_hierarchy, usw.)

Der Cloud-Agent ermöglicht es, im Agent-Auswahlmenü „Cloud“ zu wählen, eine Aufgabe zu beschreiben, und Copilot erstellt automatisch ein GitHub-Issue und eine Pull Request auf der entfernten Infrastruktur, während der Entwickler weiterarbeitet. Der Debugger-Agent validiert Korrekturen gegen das tatsächliche Laufzeitverhalten.

🔗 GitHub Copilot Visual Studio Changelog April 2026


Genspark × Microsoft — globale strategische Partnerschaft auf Azure

30. April — Genspark kündigt Microsoft als globalen strategischen Partner an. Auf Azure aufgebaut, zielt diese Partnerschaft darauf ab, die KI-Agenten von Genspark direkt in die alltäglichen Microsoft-Tools zu integrieren — insbesondere PowerPoint und andere Microsoft-365-Anwendungen. Das erklärte Ziel ist es, die KI-Ausführung direkt in bestehende Werkzeuge einzubetten, ohne die Nutzer zu zwingen, ihre Arbeitsgewohnheiten zu ändern. Diese Ankündigung folgt dicht auf die am 29. April bekannt gegebene Salesforce-Partnerschaft und stellt eine bedeutende Expansion von Genspark in das Microsoft-Ökosystem dar.

🔗 Genspark × Microsoft Ankündigung


NVIDIA NeMo-RL + vLLM Speculative Decoding — 1,8× RL-Durchsatz

1. Mai — NVIDIA Research veröffentlicht ein Paper zur Beschleunigung des Reinforcement-Learning-Post-Trainings (reinforcement learning post-training). Das zentrale Problem: Die Generierungsphase (rollout) erzeugt einen Engpass, der den gesamten RL-Zyklus verlangsamt.

Die Lösung kombiniert NeMo-RL und vLLM mit spekulativem Dekodieren (speculative decoding) — eine Technik, die Kandidaten-Tokens parallel erzeugt, ohne Qualitätsverlust.

MetrikWert
Gemessener Durchsatz (8B-Modelle)1,8×
End-to-End-Projektion2,5×
CodeOpen Source auf NVIDIA-NeMo/RL

🔗 NVIDIA NeMo-RL Ankündigung


Runway — Mobile App auf Android und iOS

2. Mai — Runway kündigt den Start seiner mobilen App auf Android an, als Ergänzung zur bereits verfügbaren iOS-App. Die KI-Videogenerierungsplattform ist damit nun auf beiden großen mobilen Plattformen verfügbar und ermöglicht die Erstellung von Inhalten von jedem Gerät aus.

Diese mobile Verfügbarkeit erweitert die Zugänglichkeit von Runway erheblich, das bisher hauptsächlich über den Webbrowser genutzt wurde. Der Slogan der Ankündigung — „Make anything. From anywhere. On any device.“ — bringt den Kern auf den Punkt: die KI-Videoerstellung aus dem Büro zu holen und in die Tasche der Kreativen zu bringen. Die Android-App ist im Google Play Store erhältlich.

🔗 Runway Android Ankündigung


ElevenCreative Flows — Echtzeit-Zusammenarbeit und Basic Seats

1. Mai — ElevenLabs aktiviert die Echtzeit-Zusammenarbeit in ElevenCreative Flows, seiner von KI unterstützten Plattform zur Erstellung von Audio- und Videoinhalten. Mehrere Teammitglieder (Creators, Marketer, Stakeholder) können nun gleichzeitig an denselben Projekten arbeiten. Die Basic Seats ermöglichen Rezensenten und Managern den Zugriff auf Projekte ohne vollständiges ElevenCreative-Abonnement. Die Ankündigung erzielte 769.000 Aufrufe, ein Zeichen für großes Interesse an dieser kollaborativen Funktion.

🔗 ElevenCreative Flows Ankündigung


Grok Imagine — Agent-Modus auf unendlicher Leinwand

1. Mai — Grok Imagine startet seinen Agent-Modus (Agent Mode) auf einer unendlichen Leinwand für den Desktop. Diese einheitliche Oberfläche ermöglicht es, den gesamten kreativen Workflow zu durchlaufen — Ideenfindung, Schreiben, Bilderzeugung, Bearbeitung und Videoerstellung —, ohne jemals grok.com/imagine zu verlassen.

Die unendliche Leinwand (infinite canvas) stellt eine Weiterentwicklung im Design von KI-Kreativtools dar: Statt mehrere spezialisierte Werkzeuge nacheinander zu verwenden, läuft der gesamte kreative Prozess kontinuierlich in einem einzigen Arbeitsbereich ab, der nur auf dem Desktop verfügbar ist.

MetrikWert
Aufrufe7,9 M
Likes3.825
VerfügbarkeitNur Desktop

🔗 Grok Imagine Agent Mode Ankündigung


Qwen-Scope — Open-Source-Suite sparsamer Autoencoder

30. April — Qwen veröffentlicht Qwen-Scope, eine Open-Source-Suite sparsamer Autoencoder (sparse autoencoders, SAE), die der Interpretierbarkeit und Steuerung von Modellen der Qwen-Familie gewidmet ist. SAE zerlegen die internen Aktivierungen eines Modells in verständliche Merkmale, die Qwen-Scope in praktische Werkzeuge für vier Bereiche verwandelt:

BereichAnwendung
InferenzAusgaben steuern, ohne Prompt Engineering
DatenZielgerichtete Daten klassifizieren und zusammenfassen
TrainingProbleme an der Quelle identifizieren (Code-Switching, Wiederholungen)
BewertungAktivierungsmuster analysieren, um die richtigen Benchmarks zu wählen

Code, Gewichte und technischer Bericht sind auf HuggingFace und ModelScope verfügbar.

🔗 Qwen-Scope Ankündigung


Codex CLI v0.128.0 — persistente Ziele, Keymaps, MultiAgentV2

30. April — Version 0.128.0 von Codex CLI bringt mehrere substanzielle Verbesserungen.

Die wichtigste Neuerung ist der Befehl /goal, mit dem sich persistente Ziele (persisted goals) definieren lassen, die von den app-server APIs verwaltet werden. Ein Ziel kann direkt aus der TUI-Oberfläche erstellt, pausiert, fortgesetzt oder gelöscht werden.

FunktionBeschreibung
/goal persistentVon app-server APIs verwaltete Ziele mit TUI-Steuerung
codex updateIn-place-Aktualisierung
Konfigurierbare KeymapsAnpassbare TUI-Tastenkürzel
Erweiterte MultiAgentV2Thread-Limits, Wartezeit-Steuerung, Tiefe von Sub-Agents
Externe Agents importierenImportierte Agent-Sitzungen im Hintergrund

Installation: npm install -g @openai/codex@0.128.0

🔗 Codex CLI Changelog


OpenAI Advanced Account Security — verstärkter Opt-in-Schutz

30. April — OpenAI führt Advanced Account Security ein, einen Satz verstärkter Opt-in-Schutzmaßnahmen für ChatGPT- und Codex-Konten. Diese Einstellung richtet sich an Nutzer mit hohem Risiko digitaler Angriffe: Journalisten, gewählte Amtsträger, politische Dissidenten, Forscher.

Nach der Aktivierung werden Passwörter-Logins deaktiviert (nur Passkeys oder physische FIDO-konforme Sicherheitsschlüssel werden akzeptiert), Wiederherstellung per E-Mail und SMS wird entfernt, Sitzungen werden verkürzt, und Unterhaltungen werden automatisch vom Modelltraining ausgeschlossen. Eine Partnerschaft mit Yubico bietet YubiKeys zu Vorzugspreisen über die Sicherheitseinstellungen an. Ab dem 1. Juni 2026 müssen Mitglieder des Programms Trusted Access for Cyber diesen Schutz aktivieren.

🔗 OpenAI Advanced Account Security


GPT-5.5 — Bilanz nach einer Woche: API-Umsatz x2, Codex verdoppelt seinen Umsatz

1. Mai — OpenAI zieht eine Bilanz zu GPT-5.5 eine Woche nach dem Start: Die API-Umsätze wachsen mit einer mehr als doppelt so hohen Rate wie bei jedem vorherigen Launch.

MetrikWert
API-Umsatz vs. frühere LaunchesWachstum >2× schneller
Codex-Umsatz in 7 Tagenx2
OpenAI-Qualifikation”Stärkster Launch unserer Geschichte”

Codex hat seinen Umsatz in weniger als sieben Tagen verdoppelt — ein Zeichen für anhaltende Enterprise-Nachfrage nach agentischen Entwicklungstools (agentic coding tools). Diese Zahlen bestätigen die Dynamik rund um GPT-5.5, das am 23. April gestartet wurde.

🔗 OpenAI GPT-5.5 Bilanz Ankündigung


Perplexity Computer at Work — Teams, professionelle Finanzen, 70+ Workflows

30. April — Perplexity veröffentlicht einen Blogartikel, der die Expansion seines Automatisierungsagenten Computer auf neue Oberflächen beschreibt.

ErweiterungDetail
Microsoft TeamsNach Slack (Anfang April gestartet)
Verfügbare WorkflowsBibliothek mit 70+ Enterprise-Workflows
Computer for Professional FinanceMarktfinanzen, Due Diligence, Private Equity
IdentitätssicherheitNeue angekündigte Partnerschaft

Computer war zunächst in Slack verfügbar. Perplexity erweitert ihn auf Microsoft Teams und ermöglicht damit die Automatisierung von Aufgaben direkt im Messaging-Tool. Die als Nächstes angekündigten Oberflächen sind Dokumente und Tabellenkalkulationen. Für professionelle Finanzen zielt das Angebot auf Private-Equity-Teams, Finanzanalysten und Due-Diligence-Teams.

🔗 Perplexity Computer at Work Blog


Kurzmeldungen

  • Hackathon Claude Code Opus 4.7 — Gewinner bekanntgegeben — Mitorganisiert mit Cerebral Valley geht der Preis „Best Use of Claude Managed Agents“ an ARIA, einen Wartungsagenten, entwickelt vom französischen Team Idriss Benguezzou und Adam Hnaien. 🔗 Ankündigung

  • Anthropic Fellows — Introspection Adapters — Anthropic-Fellows-Forscher veröffentlichen Arbeiten zu „introspection adapters“: Adaptern, die es einem LLM ermöglichen, selbst potenziell im Training gelernte unerwünschte Verhaltensweisen zu melden. 🔗 Ankündigung

  • Enterprise-Bereitstellungsleitfaden für Claude Cowork — Anthropic veröffentlicht einen neuen Praxisleitfaden zur Bereitstellung von Claude Cowork in großem Maßstab in Organisationen. 🔗 Leitfaden

  • Abkündigung von GPT-5.2 und GPT-5.2-Codex in Copilot am 1. Juni 2026 — GitHub kündigt die Abkündigung von GPT-5.2 (ersetzt durch GPT-5.5) und GPT-5.2-Codex (ersetzt durch GPT-5.3-Codex) in allen Copilot-Erfahrungen an, außer GPT-5.2-Codex in Copilot Code Review. 🔗 Changelog

  • Midjourney V8.1 — Update für Qualität und Schärfe — Midjourney veröffentlicht ein Update, das die Bildqualität und Schärfe des V8.1-Modells verbessert. 🔗 Ankündigung

  • Qwen + Fireworks AI Partnerschaft — Offizielle Partnerschaft zwischen Qwen und Fireworks AI, um Qwen-Modelle mit geringerer Latenz und niedrigeren Inferenzkosten für Enterprise-Teams bereitzustellen. 🔗 Ankündigung

  • Mistral AI in den TIME100 Most Influential Companies 2026 — Mistral landet in den Top 10 der KI-Kategorie im TIME100-Ranking der einflussreichsten Unternehmen der Welt. 🔗 Ankündigung

  • Z.ai „Scaling Pain“ — GLM-5-Debugging in Produktion — Z.ai veröffentlicht einen technischen Erfahrungsbericht über die Reproduktion seltener korrupter Ausgaben, Durchsatzengpässe im Prefill und den GPU-Speicherverbrauch von GLM-5 im großen Maßstab. 🔗 Blog · Ankündigung

  • Codex — Workflow-Import aus ChatGPT — Einstellungen, Plugins, Agents und Projektkonfigurationen können mit wenigen Klicks in Codex importiert werden, mit Fallback von ChatGPT bei Rate Limits. 🔗 Ankündigung

  • Codex for Work — Rollen und alltägliche Anwendungen — Neue arbeitsorientierte Codex-Erfahrung: Rollenauswahl, Verbindung genutzter Anwendungen, Prompt-Vorschläge für Dokumente, Präsentationen und Tabellenkalkulationen. 🔗 Ankündigung

  • Codex Pets — interaktives Maskottchen — Der Befehl /pet in Codex weckt ein interaktives virtuelles Maskottchen. 1,57 Millionen Aufrufe, angepinnter Tweet auf @OpenAIDevs. 🔗 Ankündigung


Was das bedeutet

Die Konvergenz der Ankündigungen dieser Woche zeichnet einen klaren Trend: Enterprise-Sicherheit wird zum wichtigsten Differenzierungsfaktor der KI-Akteure. Claude Security und OpenAI Advanced Account Security richten sich beide an Organisationen und Nutzer mit hohem Risiko — zwei sich ergänzende Ansätze, einer auf Code-Ebene, der andere auf Konto-Ebene. NVIDIA OpenShell bringt eine dritte Ebene ein, indem es den Aktionsraum autonomer Agents kontrolliert. Die Enterprise-KI tritt in eine Reifephase ein, in der Vertrauen und Auditierbarkeit wichtiger werden als der Wettlauf um Benchmarks.

Die Demokratisierung der agentischen Infrastruktur schreitet konkret voran. Manus Cloud Computer und Perplexity Computer at Work zielen beide auf Nicht-Entwickler, die in der Lage sind, Dienste dauerhaft laufen zu lassen — der eine über eine persistente Ubuntu-Maschine, der andere über Enterprise-Workflows in Teams und Slack. Diese beiden Produkte reduzieren die technische Reibung auf komplementäre Weise: Cloud Computer für diejenigen, die bauen, Computer for Work für diejenigen, die Geschäftsprozesse automatisieren.

Die synthetische Stimme tritt in eine neue Phase der Zugänglichkeit ein. xAIs Voice Cloning per API in weniger als 2 Minuten, mit 19,7 Millionen Aufrufen an Engagement, zeigt die Marktneigung für multimodale Fähigkeiten, die direkt in Drittprodukte integrierbar sind. Grok Imagine Agent Mode und ElevenCreative Flows folgen derselben Logik: die Reibung zwischen Idee und Audio-Video-Inhaltserstellung zu verringern.

Die Zahlen zum GPT-5.5-Launch (API-Umsatz x2, Codex verdoppelt den Umsatz in 7 Tagen) bestätigen, dass die Enterprise-Nachfrage nach Code-Agents nun eine messbare kommerzielle Realität ist und nicht länger nur ein Versprechen. Diese Dynamik rechtfertigt die parallelen Investitionen in RL-Infrastruktur (NeMo-RL speculative decoding bei NVIDIA) und Interpretierbarkeitswerkzeuge (Qwen-Scope), die sich den Engpässen des Post-Trainings im großen Maßstab widmen.


Quellen

Dieses Dokument wurde von der Version fr in die Sprache de mit dem Modell gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://github.com/jls42/ai-powered-markdown-translator