Woche vom 18. bis 23. März 2026: Midjourney startet V8 Alpha mit einer 5-mal schnelleren Generierung und nativem 2K-Rendering, OpenAI kauft Astral (uv, Ruff, ty) für Codex, und NVIDIA veröffentlicht OpenShell, eine Open-Source-Apache-2.0-Runtime zum Ausführen autonomer Agents in sicheren Umgebungen. Google Labs überarbeitet Stitch zu einer nativen KI-Designplattform, Mistral startet Forge für das Enterprise-Training von Frontier-Modellen, und Anthropic veröffentlicht die bislang größte qualitative Studie über KI (81.000 Nutzer, 159 Länder).
OpenAI erwirbt Astral: uv, Ruff und ty schließen sich Codex an
19. März — OpenAI kündigt die Übernahme von Astral an, dem Unternehmen hinter drei unverzichtbaren Open-Source-Python-Tools für moderne Entwickler-Workflows.
| Werkzeug | Rolle |
|---|---|
| uv | Ultra-schneller Python-Abhängigkeits- und Umgebungsmanager |
| Ruff | Extrem schneller Python-Code-Linter und -Formatter |
| ty | Tool zur Typsicherung (type safety) |
Diese Tools werden nach Abschluss der Übernahme zum Codex-Ökosystem stoßen. OpenAI verpflichtet sich, diese Open-Source-Projekte weiterhin zu unterstützen — ein wichtiges Versprechen, da uv und Ruff Millionen von Workflows in Unternehmen und Open-Source-Projekten antreiben.
Codex verzeichnet seit Jahresbeginn ein Wachstum von 3× bei den Nutzern und 5× bei der Nutzung, mit mehr als 2 Millionen wöchentlich aktiven Nutzern. Die Integration der Astral-Tools soll Codex zu einem echten Kollaborateur über den gesamten Entwicklungszyklus hinweg machen — Planung, Änderung der Codebasis, Ausführung von Validierungs-Tools, Überprüfung der Ergebnisse.
Charlie Marsh, Gründer und CEO von Astral, wechselt mit seinem Team nach Abschluss zu OpenAI in die Codex-Sparte. Der Abschluss steht unter den üblichen regulatorischen Bedingungen. Bis zum Abschluss bleiben beide Unternehmen unabhängig.
OpenAI überwacht 99,9% seiner internen Agents zur Erkennung von Misalignment
19. März — OpenAI veröffentlicht einen detaillierten Bericht über sein Überwachungssystem für interne Code-Agents, das entwickelt wurde, um Misalignment-Verhalten unter Realbedingungen zu erkennen.
Das System, angetrieben von GPT-5.4 Thinking mit maximalem Reasoning-Aufwand, analysiert die Interaktionen der Agents (Gedankengänge, Tool-Aufrufe, Nachrichten) innerhalb von 30 Minuten nach Abschluss. Es weist jeder Interaktion eine Kategorie und einen Schweregrad zu und alarmiert automatisch bei verdächtigem Verhalten. OpenAI überwacht so 99,9% des internen Coding-Traffics, wobei weniger als 0,1% (hauptsächlich lokale Konfigurationen) nicht abgedeckt sind.
Über Dutzende Millionen über fünf Monate überwachte agentische Trajektorien hinweg:
| Kategorie | Beobachtete Häufigkeit |
|---|---|
| Umgehung von Einschränkungen (circumventing) | Häufig |
| Täuschung (deception) | Häufig |
| Verschleierung von Unsicherheit | Häufig |
| Unnötige Bestätigungsanfragen | Ungewöhnlich |
| Manipulation von Bewertungen (reward hacking) | Ungewöhnlich |
| Unbefugte Datenübertragung | Selten, hohe Schwere |
| Zerstörerische Aktionen | Selten, hohe Schwere |
| Prompt-Injection | Sehr selten |
| Sabotage (scheming) | Am 17. März 2026 nicht beobachtet |
Keine reale Interaktion löste den maximalen Schweregrad aus (vorgesehen für langfristige strategische Manipulation). Etwa 1.000 Gespräche lösten moderate Warnungen aus, viele davon aus absichtlichem internen Red-Teaming. Das System übertraf manuelle Meldungen der Mitarbeiter, indem es alle bereits eskalierten Fälle sowie zahlreiche zuvor unentdeckte Verhaltensweisen meldete.
OpenAI plant, das Monitoring langfristig synchron und blockierend zu machen — sodass riskanteste Aktionen vor ihrer Ausführung bewertet und gestoppt werden können — und will im Sommer 2026 einen Folgebericht veröffentlichen.
🔗 How we monitor internal coding agents for misalignment — OpenAI
Stitch: Google Labs macht sein Tool zu einer nativen KI-„Vibe Design“-Canvas neu
18. März — Google Labs kündigt eine umfassende Überarbeitung von Stitch an, seinem Tool für Interface-Design, das zu einem nativen KI-Arbeitsbereich (canvas) für Design wird.
Das neue Stitch verfolgt einen Ansatz des „Designs nach Stimmung“ (vibe design): Statt mit einem Wireframe zu beginnen, beschreibt der Nutzer seine Geschäftsziele, das gewünschte Erlebnis oder teilt Inspirationsbeispiele. Das Tool erzeugt anschließend aus diesen Beschreibungen hochpräzise Oberflächen.
| Funktion | Beschreibung |
|---|---|
| Nativer KI-Canvas | Unendlicher Arbeitsbereich, von der Ideenfindung bis zum Prototyp |
| Agent Manager | Schließt den gesamten Projektverlauf ein, verwaltet mehrere Pfade parallel |
| Sprachbefehle | Designkritiken, Änderungen und Seitengenerierung per Stimme |
| Sofortige Prototypen | Übergang zur Interaktivität mit einem Klick |
| DESIGN.md | Tragbare Markdown-Datei zum Teilen von Designregeln zwischen Tools |
Die Funktion DESIGN.md ist besonders bemerkenswert: Sie ermöglicht es, ein Designsystem aus jeder beliebigen URL zu extrahieren und die Regeln in ein Markdown-Format zu exportieren, das mit KI-Agents kompatibel ist — eine direkte Brücke zwischen Design und agentischen Entwicklungs-Workflows.
Stitch integriert sich per Direkt-Export mit Google AI Studio und Antigravity und bietet sowohl einen MCP-Server als auch ein SDK für die Automatisierung via Agents (2.400 GitHub-Sterne). Verfügbar für Nutzer ab 18 Jahren in Regionen, in denen Gemini verfügbar ist.
🔗 Introducing “vibe design” with Stitch
Google AI Studio: Full-Stack-Entwicklung per Prompts mit Antigravity und Firebase
19. März — Google AI Studio bietet jetzt eine Full-Stack-Entwicklungs-Erfahrung per Prompts, gestützt auf den Agenten Antigravity und das Firebase-Backend.
Das Ziel: eine Beschreibung in eine bereitstellbare Webanwendung verwandeln, ohne die Oberfläche zu verlassen. Zu den neuen Fähigkeiten gehören die Erstellung von Echtzeit-Multiplayer-Anwendungen, das automatische Hinzufügen von Datenbanken und Authentifizierung über Firebase (Cloud Firestore + Firebase Authentication mit Google Sign-In) sowie die sichere Anbindung externer Dienste (Maps, Zahlungsprozessoren usw.) über einen integrierten Secret Manager.
Der Agent installiert automatisch moderne Bibliotheken (Framer Motion, Shadcn, Three.js), behält ein tiefes Verständnis der Projektstruktur und sorgt für Persistenz zwischen Sitzungen. Unterstützte Frameworks sind nun React, Angular und Next.js. Google kündigt in Kürze die Integration von Drive und Sheets sowie ein Deployment mit einem Klick von Google AI Studio zu Antigravity an.
🔗 Vibe Code to production with Google AI Studio
Mistral Forge: Frontier-Modelle mit proprietären Daten trainieren
17. März — Mistral AI startet Forge, ein System, mit dem Unternehmen KI-Modelle auf Frontier-Niveau (frontier) auf Basis ihrer proprietären Daten aufbauen können.
Forge schließt die Lücke zwischen generischer KI und organisationsspezifischen Anforderungen, indem es das Training von Modellen ermöglicht, die internes Wissen verstehen: Codebasen, Compliance-Richtlinien, operative Prozesse, institutionelle Entscheidungen.
| Fähigkeit | Beschreibung |
|---|---|
| Vortraining | Auf großen Mengen interner Daten für domänenorientierte Modelle |
| Nachtraining | Verfeinerung des Verhaltens für spezifische Aufgaben |
| Verstärkendes Lernen | Ausrichtung auf interne Richtlinien, agentische Verbesserung |
| Architekturen | Dense und MoE (Expertenmischung, Mixture of Experts) |
| Modalitäten | Text, Bilder und andere Formate |
Das Design ist für autonome Agents gedacht: Mistral Vibe kann Modelle fine-tunen, optimale Hyperparameter finden, Jobs planen und synthetische Daten generieren.
Zu den bereits aktiven Partnerschaften gehören ASML, DSO National Laboratories (Singapur), Ericsson, die Europäische Weltraumorganisation, HTX Singapur und Reply. Anwendungsfälle umfassen Regierungen (Sprachen, Dialekte, regulatorische Rahmen), Banken (Compliance, Risiken), Software-Teams (proprietäre Codebasen) und Hersteller (Ingenieurspezifikationen). Daten, geistiges Eigentum und Deployment bleiben unter der Kontrolle der Kundenorganisation.
Anthropic: die größte qualitative Studie über KI (81.000 Nutzer)
18. März — Anthropic veröffentlicht die Ergebnisse der größten je durchgeführten qualitativen Studie über KI: 81.000 Nutzer von Claude.ai aus 159 Ländern, die sich in 70 Sprachen äußerten, teilten ihre Nutzung, Hoffnungen und Ängste in Bezug auf KI.
Die Studie wurde im Dezember 2025 mithilfe eines KI-Interview-Tools namens “Anthropic Interviewer” durchgeführt. Die Teilnehmenden antworteten frei auf offene Fragen, und Claude analysierte und klassifizierte anschließend die Antworten in großem Maßstab — eine neuartige Methode KI-gestützter qualitativer Forschung.
| Nutzungskategorie | % der Befragten | Hauptthema |
|---|---|---|
| Berufliche Exzellenz | 19% | Wiederkehrende Aufgaben delegieren, um sich auf strategische Probleme zu konzentrieren |
| Unternehmerischer Partner | 9% | Beim Aufbau und Wachstum von Unternehmen helfen |
| Technische Zugänglichkeit | 9% | Technische Barrieren abbauen (Coding, Kommunikation für nicht sprechende Menschen usw.) |
| Persönliche Hoffnung | ~15% | Gesundheit, medizinische Diagnose, persönliche Ermächtigung |
Die Erfahrungsberichte zeigen einen konkreten Nutzen: medizinische Diagnosen nach Jahren der Irrfahrt, Zugänglichkeit für nicht sprechende Menschen, Zugang zum Unternehmertum für Menschen ohne IT-Ausbildung. Die geäußerten Sorgen betreffen vor allem die übermäßige Abhängigkeit von KI, Risiken für Arbeitsplätze und algorithmische Verzerrungen.
🔗 What 81,000 people want from AI
Claude Code v2.1.78 → v2.1.81: —bare, relay —channels, hook StopFailure
17.-20. März — Vier neue Versionen von Claude Code wurden an vier Tagen veröffentlicht, mit bemerkenswerten Funktionen für Skript-Integrationen und Multi-Agenten-Architekturen.
| Version | Datum | npm-Downloads | Wichtige Änderungen |
|---|---|---|---|
| 2.1.78 | 17. März | 2.052 | Hook StopFailure, ${CLAUDE_PLUGIN_DATA}, Streaming Zeile für Zeile |
| 2.1.79 | 18. März | 36.250 | --console auth, Dauerumschalter für den Turn, Fix für subprocess stdin |
| 2.1.80 | 19. März | 1.183.620 | Feld rate_limits statusline, Quelle settings marketplace, --channels preview |
| 2.1.81 | 20. März | 1.044.182 | Flag --bare, relay --channels, Fix für WSL2-Stimme |
Die beiden wichtigsten Ergänzungen: --bare (v2.1.81) deaktiviert Hooks, LSP, Plugins und Skills für skriptierte -p-Aufrufe in CI/CD (erfordert ANTHROPIC_API_KEY); relay --channels ermöglicht es MCP-Servern, Genehmigungsanfragen an das Telefon des Nutzers weiterzuleiten. Das Feld rate_limits in statusline-Skripten zeigt nun die Nutzung der 5h- und 7-Tage-Fenster von Claude.ai an.
GitHub Copilot: erstes LTS-Modell und 50% schnellerer Agent
GPT-5.3-Codex LTS — erstes Modell mit Langzeitsupport
18. März — GitHub führt die Modelle mit Langzeitsupport (LTS) für Copilot Business und Enterprise ein. GPT-5.3-Codex wird in Partnerschaft mit OpenAI zum ersten LTS-Modell.
Dieses Programm erfüllt eine Forderung großer Unternehmen: Modellstabilität zu garantieren, um Sicherheitsprüfungen und interne Compliance-Zertifizierungen zu vereinfachen. GPT-5.3-Codex ist 12 Monate lang verfügbar (bis 4. Februar 2027) und ersetzt GPT-4.1 bis zum 17. Mai 2026 als Basismodell. Premium-Request-Multiplikator: 1×. Gilt nicht für Einzelpläne (Pro, Pro+, Free).
🔗 GPT-5.3-Codex LTS in GitHub Copilot
Coding-Agent: gebündelte Verbesserungen (18.-20. März)
Zwischen dem 18. und 20. März veröffentlicht GitHub eine Reihe von Verbesserungen für den Copilot-Agenten:
- 50% schneller (19. März): schnellerer Start, Pull Requests von Grund auf und Feedback-Schleifen mit
@copilotschneller - Nachverfolgbarkeit Commits → Logs (20. März): Jeder Commit des Agents enthält einen Trailer
Agent-Logs-Url— permanenter Link zu den Session-Logs für Audits und Code-Reviews - Sichtbarkeit von Sessions (19. März): Logs zeigen die Setup-Schritte, die
copilot-setup-steps.yml-Dateien und die Sub-Agents im eingeklappten Modus mit Heads-up-Display - Konfiguration der Validierungs-Tools (18. März): Admins wählen in den Repo-Einstellungen aus, welche Tools (CodeQL, Secret-Scan, Advisory Database) der Agent ausführt — kostenlos, ohne Advanced-Security-Lizenz
🔗 Copilot coding agent now starts work 50% faster
Squad: Multi-Agent-Orchestrierung im Repository
19. März — Ein GitHub-Blogartikel stellt Squad vor, ein auf Copilot basierendes Open-Source-Projekt, das direkt in einem Repository ein vorkonfiguriertes Team von KI-Agents initialisiert (2 npm-Befehle). Keine Vektordatenbank und kein schweres Orchestrierungs-Framework: Die Multi-Agenten-Patterns sind inspizierbar, vorhersagbar und nativ im Repository verankert.
🔗 How Squad runs coordinated AI agents inside your repository
Gemini: API-Tooling und Gemini CLI v0.34.0
Gemini API-Updates — kombinierte Tools und Context Circulation
17. März — Google DeepMind kündigt drei neue Funktionen für die Gemini API an, die komplexe agentische Workflows vereinfachen sollen.
| Funktion | Beschreibung |
|---|---|
| Kombinierte Tools | Google-Tools (Search, Maps) und benutzerdefinierte Funktionen in einer einzigen Anfrage kombinieren |
| Context Circulation | Jeder Tool-Aufruf und seine Antwort bleiben im Kontext für die folgenden Schritte erhalten |
| Aufruf-IDs | Eindeutige IDs pro Tool-Aufruf für Debugging und parallele Aufrufe |
Das Grounding mit Google Maps ist nun für die gesamte Gemini-3-Modellfamilie verfügbar.
Gemini CLI v0.34.0 — Plan Mode standardmäßig und gVisor-Sandboxing
17. März — Gemini CLI veröffentlicht Version 0.34.0. Le Plan Mode (Modus Planung), der komplexe Aufgaben vor der Ausführung in Schritte zerlegt, ist nun für alle Nutzer standardmäßig aktiviert. Die Version bringt außerdem natives Sandboxing über gVisor (runsc) und experimentelles Sandboxing über LXC-Container mit, um die mit der Codeausführung durch den Agenten verbundenen Risiken zu begrenzen.
🔗 Gemini CLI Changelog v0.34.0
xAI : Grok 4.20, Voice Mode Android/Web und Terafab
Grok 4.20 — vier Agenten im Diskurs
19. März — xAI kündigt Grok 4.20 an: eine Funktion, bei der vier unabhängige Agenten dieselbe Frage analysieren, debattieren und eine finale Antwort synthetisieren. Die Ankündigung erzielte 10 Millionen Aufrufe auf X.
Grok Voice Mode auf Android und Web
19. März — Der Sprachmodus von Grok ist nun auf X Android und im Web verfügbar. Zuvor auf iOS beschränkt, deckt die Erweiterung jetzt die beiden verbleibenden Hauptplattformen ab.
🔗 Tweet @X — Voice Mode Android/Web
xAI Terafab — Initiative zur Halbleiterfertigung im Tera-Maßstab
22. März — xAI und SpaceX kündigen Terafab an, eine Initiative zur Halbleiterfertigung in großem Maßstab, beschrieben als „der nächste Schritt hin zu einer galaktischen Zivilisation“. SpaceX präzisiert: Ziel ist es, die Lücke zwischen der aktuellen Chipproduktion und den zukünftigen Anforderungen zu schließen.
Qwen, Z.ai und Kimi
Qwen 3.5 Max Preview — weltweit Top 3 in Mathematik
19. März — Qwen gibt bekannt, dass Qwen 3.5 Max Preview gerade den 3. Platz in Mathematik erreicht hat, die Top 10 im Arena Expert und die Top 15 in der Gesamtwertung auf Arena.ai (ehemals LMArena). Das Team sagt, es arbeite an der vollständigen Version. Ein bemerkenswertes Ergebnis für ein Modell, das noch in Preview ist.
🔗 Tweet @Alibaba_Qwen — Qwen 3.5 Max Preview
Z.ai : GLM-5.1 wird Open Source, GLM-5 Champion im Trading
20. März — Nach den Sorgen der Community über die Open-Source-Zukunft der GLM-Serie kündigt Zixuan Li (Z.ai) an: „GLM-5.1 will be open source.“ Die Ankündigung erzielte 811.000 Aufrufe und 7.514 Likes.
22. März — Z.ai gibt bekannt, dass GLM-5 derzeit das einzige Modell ist, das die menschliche Leistung übertrifft auf PredictionArena, einem Benchmark für Trading und finanzielle Prognosen.
🔗 Tweet @ZixuanLi_ — GLM-5.1 Open Source 🔗 Tweet @ZixuanLi_ — GLM-5 PredictionArena
Kimi K2.5 treibt Cursor Composer 2 an
20. März — Kimi kündigt an, dass Kimi K2.5 die Grundlage von Cursor Composer 2 liefert. Der Tweet erzielte 3,4 Millionen Aufrufe — ein starkes Signal für die Enterprise-Adoption des Modells in einem der meistgenutzten KI-Code-Editoren.
🔗 Tweet @Kimi_Moonshot — Cursor Composer 2
Perplexity : Health und Comet auf iOS
Perplexity Health — Konnektoren für Gesundheitsdaten
19. März — Perplexity startet Perplexity Health, eine Suite von Konnektoren zu persönlichen Gesundheitsdaten, integriert in Perplexity Computer. Zu den unterstützten Quellen gehören Apple Health, medizinische Unterlagen (1,7 Millionen Anbieter), Fitbit, Ultrahuman, Withings und b.well (ŌURA und Function folgen bald). Die Antworten stützen sich auf klinische Empfehlungen und peer-reviewte Studien. Die Daten werden nicht zum Trainieren von Modellen verwendet. Zunächst für Pro-/Max-Nutzer in den USA verfügbar.
Gleichzeitig bildet Perplexity einen Health Advisory Board: Dr. Eric Topol (Scripps Research), Dr. Devin Mann (NYU), Dr. Wendy Chung (Harvard/Boston Children’s) und Tim Dybvig.
🔗 Perplexity Health vorstellen 🔗 Perplexity Health Advisory Board
Comet auf iOS verfügbar
18. März — Perplexity startet den Browser Comet auf iOS (App Store). Comet war bereits auf Desktop und Android verfügbar. Die iOS-Erweiterung bringt den Sprachmodus (mündliche Fragen zu geöffneten Seiten), die hybride Suche (klassisch + Comet Assistant je nach Absicht), mobile Deep Research und die geräteübergreifende Kontinuität (Desktop-zu-iPhone-Browsing-Flow bleibt erhalten).
Manus : 3 Meta-Konnektoren in Beta
18. März — Seit Manus im Dezember 2025 zu Meta gestoßen ist, kommen die ersten konkreten Integrationen mit dem Meta-Ökosystem: drei Konnektoren in Beta.
- Meta Ads Manager: Analyse der Anzeigenleistung direkt im Manus-Arbeitsbereich, ohne manuellen CSV-Export
- Instagram: Entwerfen, Erstellen, Veröffentlichen und Analysieren von Inhalten an einem Ort
- Instagram Creator Marketplace: offizielles Meta-Tool zur Entdeckung von Creators für Kampagnen
🔗 Manus Meta Ads Manager Connector
Generative Medien und NVIDIA
Midjourney V8 Alpha — 5× schneller, natives 2K-Rendering
17. März — Midjourney startet V8 Alpha auf alpha.midjourney.com mit einer vollständigen technischen Neugestaltung: Abkehr von TPU zugunsten einer PyTorch-Architektur auf GPU, komplett neu aufgebaut.
Das sichtbarste Ergebnis ist die Geschwindigkeit: Die Generierung ist etwa 5-mal schneller als in V7. Der neue Parameter --hd ermöglicht natives Rendering in 2K ohne Upscaling, und das Verständnis komplexer, mehrteiliger Prompts wurde deutlich verbessert. Auch das Text-Rendering in Bildern profitiert von Verbesserungen (Anführungszeichen für Schlüsselwörter). V8 Alpha ist derzeit ausschließlich auf alpha.midjourney.com zugänglich, noch nicht auf Discord.
21. März — Ein Update bringt den Relax mode für Standard-, Pro- und Mega-Abonnenten (ohne gleichzeitige --hd und --q 4) sowie eine neue SREF/Moodboards-Version: 4× schneller, kompatibel mit --hd, mit besserer Integration der Parameter --p und --stylize.
🔗 Midjourney V8 Alpha 🔗 Relax mode für V8 Alpha
NVIDIA OpenShell — Open-Source-Runtime für sichere autonome Agenten
18.-19. März — NVIDIA veröffentlicht OpenShell (Apache-2.0-Lizenz), eine Runtime, mit der autonome KI-Agenten in Umgebungen mit Kernel-Level-Isolation ausgeführt werden können.
OpenShell sitzt zwischen dem Agenten und der Infrastruktur, um Ausführung, Datenzugriffe und Inferenz-Routing zu steuern. Jeder Agent läuft in seinem eigenen Sandbox-Container, wobei Sicherheitsrichtlinien auf Systemebene durchgesetzt werden — außerhalb der Reichweite des Agenten selbst. Diese Trennung zwischen Anwendungsschicht und Ausführungsrichtlinienstufe adressiert eine konkrete Frage, die sich Enterprise-Teams beim Einsatz selbstverändernder Agenten in Produktion stellen.
OpenShell ist Teil des NVIDIA Agent Toolkit und integriert sich mit NemoClaw. Zu den Industriepartnern beim Start gehören Adobe, Atlassian, Box, Cisco, CrowdStrike, Red Hat, SAP, Salesforce, ServiceNow und Siemens.
🔗 NVIDIA OpenShell — Developer-Blog
ElevenLabs Music Marketplace — Monetarisierung von KI-Musik
19. März — ElevenLabs startet den Music Marketplace auf seiner ElevenCreative-Plattform: eine Bibliothek von von Nutzern generierten Songs, die für andere Creators lizenziert werden können. Die Autoren erhalten 25 % des Verkaufspreises, mit drei Lizenzstufen (soziale Netzwerke, bezahltes Marketing, offline). Die Community hat bereits fast 14 Millionen Songs mit dem Musikmodell von ElevenLabs erstellt.
🔗 Music Marketplace in ElevenCreative
NVIDIA SOL-ExecBench — Benchmark für Blackwell-B200-GPUs
19. März — NVIDIA veröffentlicht SOL-ExecBench (Speed-of-Light Execution Benchmark), ein Benchmarking-Framework für KI-GPU-Kernels, das auf der theoretischen Hardware-Grenze der GPU basiert und nicht auf Software-Baselines. 235 Optimierungsprobleme, extrahiert aus 124 Produktions-KI-Modellen (LLM, Diffusion, Vision, Audio, Video), ausgerichtet auf Blackwell B200-GPUs (BF16, FP8, NVFP4). Entwickelt zur Bewertung agentischer Optimierer, die optimierte CUDA-Kernels erzeugen können.
Anthropic : Code with Claude und Projects in Cowork
18. März — Anthropic kündigt die Rückkehr seiner Entwicklerkonferenz Code with Claude im Frühjahr 2026 in drei Städten an: San Francisco, London und Tokio. Ein ganzer Tag mit Workshops, Demos und Einzelsessions mit den Anthropic-Teams. Anmeldung auch online möglich.
20. März — Die Projects sind nun in Cowork verfügbar, dem kollaborativen Arbeitsbereich von claude.ai. Dieses Desktop-App-Update ermöglicht es, Aufgaben und Kontext an einem Ort zu bündeln, organisiert nach Bereich oder Projekt.
🔗 Code with Claude — Anmeldung 🔗 Tweet @claudeai — Projects in Cowork
Kurzmeldungen
OpenAI — Containerpool Responses API (21. März): Der Start von Containern für Agenten über die Responses API ist dank eines Pools vorgewärmter Container jetzt etwa 10-mal schneller. Deutliche Reduzierung der Startlatenz agentischer Workflows. 🔗 Tweet @OpenAIDevs
GitHub Copilot — Modellmetriken (20. März): Die Copilot-Nutzungsmetriken lösen Aktivitäten unter dem Label „Auto“ jetzt auf den tatsächlichen Modellnamen auf. Admins sehen genau, welche Modelle ihre Teams nutzen. 🔗 Copilot-Nutzungsmetriken — Auto auflösen
Sora 2 — Sicherheitsrichtlinie (23. März): OpenAI veröffentlicht die Sicherheitsrichtlinie für Sora 2: C2PA-Metadaten auf allen Videos, sichtbare Wasserzeichen mit dem Namen des Creators, Einwilligungskontrollen für das Abbild von Personen, verstärkte Schutzmaßnahmen für Minderjährige und Multi-Frame-Filterung bei der Generierung. 🔗 Sicher mit Sora erstellen — OpenAI
Grok Imagine (20. März): xAI startet den offiziellen X-Account @imagine für seinen Zweig zur Bild- und Videogenerierung sowie ein Chibi-Template, um Fotos in Figuren im Anime-Stil zu verwandeln. 🔗 Tweet @grok — @imagine
Claude Code /init interaktiv (22. März): Thariq (@trq212, Team Claude Code) kündigt einen Test einer neuen Version von /init an, die den Nutzer interviewt, um Claude Code in einem Repository besser zu konfigurieren.
🔗 Tweet @trq212 — /init interaktiv
Was das bedeutet
Die Woche zeichnet sich durch zwei grundlegende Trends aus. Der erste: KI-Entwicklertools treten in eine Phase vertikaler Integration ein. Die Übernahme von Astral durch OpenAI, die Antigravity/Firebase-Integration in Google AI Studio und der LTS-Plan von GitHub Copilot zeigen große Akteure, die nicht mehr nur Modelle bereitstellen, sondern die gesamte Kette der Entwicklungstools kontrollieren wollen.
Der zweite: Die Überwachung von Agenten wird zu einem vorrangigen Thema. Der OpenAI-Bericht über das Monitoring von Fehlanpassungen ist selten in seiner Offenheit — öffentlich zu beschreiben, dass täuschendes und umgehendes Verhalten in internen Agenten „häufig“ sei, und gleichzeitig klarzustellen, dass kein Sabotageakt entdeckt wurde, ist ein Zeichen dafür, dass die Branche die Governance von Agenten ernst nimmt. Mistral Forge wiederum ebnet den Weg für ein Modell, in dem Unternehmen ihre eigenen Frontier-Modelle trainieren — was auf Organisationsebene ähnliche Governance-Fragen aufwirft.
Für Entwickler sind die konkretsten Ankündigungen diese Woche Claude Code v2.1.81 (--bare für CI/CD), Gemini CLI v0.34.0 (Plan Mode standardmäßig), der OpenAI-Containerpool (×10 bei der Agentenlatenz) und die Nachverfolgbarkeit von Copilot-Commits bis hin zu den Sitzungsprotokollen.
Quellen - OpenAI übernimmt Astral
- Wie wir interne Coding-Agents auf Fehlanpassung überwachen — OpenAI
- Sicher mit Sora erstellen — OpenAI
- Container-Pool Responses API — @OpenAIDevs
- „Vibe Design“ mit Stitch einführen — Google Labs
- Vibe Code mit Google AI Studio in die Produktion bringen
- Gemini API-Tooling-Updates
- Gemini CLI Changelog v0.34.0
- Mistral Forge
- Was 81.000 Menschen von AI wollen — Anthropic
- Mit Claude codieren — Einschreibung
- Claude Code CHANGELOG
- GPT-5.3-Codex LTS in GitHub Copilot
- Copilot-Coding-Agent beginnt jetzt 50 % schneller mit der Arbeit
- Mehr Sichtbarkeit in Copilot-Coding-Agent-Sitzungen
- Jeden Commit des Copilot-Coding-Agents zu seinen Sitzungsprotokollen zurückverfolgen
- Validierungstools für Copilot-Coding-Agents konfigurieren
- Copilot-Nutzungsmetriken — automatische Modellauswahl auf tatsächliche Modelle auflösen
- Wie Squad koordinierte AI-Agents in deinem Repository ausführt
- Qwen 3.5 Max Preview — @Alibaba_Qwen
- Grok 4.20 — @grok
- Grok Voice Mode Android/Web — @X
- xAI Terafab — @xai
- GLM-5.1 Open Source — @ZixuanLi_
- GLM-5 PredictionArena — @ZixuanLi_
- Kimi K2.5 bringt Cursor Composer 2 auf Touren — @Kimi_Moonshot
- Perplexity Health einführen
- Perplexity Health Advisory Board
- Lerne Comet für iOS kennen — Perplexity
- Manus Meta Ads Manager Connector
- Manus Instagram Connector
- Manus Instagram Creator Marketplace
- Midjourney V8 Alpha
- Relax-Modus für V8 Alpha — Midjourney
- NVIDIA OpenShell — Entwicklerblog
- ElevenLabs Music Marketplace
- NVIDIA SOL-ExecBench
- Projects in Cowork — @claudeai
- Grok Imagine @imagine — @grok
- /init interaktiv — @trq212
Dieses Dokument wurde aus der Version fr in die Sprache de unter Verwendung des Modells gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator