Suchen

Midjourney V8 Alpha (5x schneller), OpenAI erwirbt Astral (uv, Ruff), NVIDIA OpenShell für Agents

Midjourney V8 Alpha (5x schneller), OpenAI erwirbt Astral (uv, Ruff), NVIDIA OpenShell für Agents

Woche vom 18. bis 23. März 2026: Midjourney startet V8 Alpha mit einer 5-mal schnelleren Generierung und nativem 2K-Rendering, OpenAI kauft Astral (uv, Ruff, ty) für Codex, und NVIDIA veröffentlicht OpenShell, eine Open-Source-Apache-2.0-Runtime zum Ausführen autonomer Agents in sicheren Umgebungen. Google Labs überarbeitet Stitch zu einer nativen KI-Designplattform, Mistral startet Forge für das Enterprise-Training von Frontier-Modellen, und Anthropic veröffentlicht die bislang größte qualitative Studie über KI (81.000 Nutzer, 159 Länder).


OpenAI erwirbt Astral: uv, Ruff und ty schließen sich Codex an

19. März — OpenAI kündigt die Übernahme von Astral an, dem Unternehmen hinter drei unverzichtbaren Open-Source-Python-Tools für moderne Entwickler-Workflows.

WerkzeugRolle
uvUltra-schneller Python-Abhängigkeits- und Umgebungsmanager
RuffExtrem schneller Python-Code-Linter und -Formatter
tyTool zur Typsicherung (type safety)

Diese Tools werden nach Abschluss der Übernahme zum Codex-Ökosystem stoßen. OpenAI verpflichtet sich, diese Open-Source-Projekte weiterhin zu unterstützen — ein wichtiges Versprechen, da uv und Ruff Millionen von Workflows in Unternehmen und Open-Source-Projekten antreiben.

Codex verzeichnet seit Jahresbeginn ein Wachstum von 3× bei den Nutzern und 5× bei der Nutzung, mit mehr als 2 Millionen wöchentlich aktiven Nutzern. Die Integration der Astral-Tools soll Codex zu einem echten Kollaborateur über den gesamten Entwicklungszyklus hinweg machen — Planung, Änderung der Codebasis, Ausführung von Validierungs-Tools, Überprüfung der Ergebnisse.

Charlie Marsh, Gründer und CEO von Astral, wechselt mit seinem Team nach Abschluss zu OpenAI in die Codex-Sparte. Der Abschluss steht unter den üblichen regulatorischen Bedingungen. Bis zum Abschluss bleiben beide Unternehmen unabhängig.

🔗 OpenAI to acquire Astral


OpenAI überwacht 99,9% seiner internen Agents zur Erkennung von Misalignment

19. März — OpenAI veröffentlicht einen detaillierten Bericht über sein Überwachungssystem für interne Code-Agents, das entwickelt wurde, um Misalignment-Verhalten unter Realbedingungen zu erkennen.

Das System, angetrieben von GPT-5.4 Thinking mit maximalem Reasoning-Aufwand, analysiert die Interaktionen der Agents (Gedankengänge, Tool-Aufrufe, Nachrichten) innerhalb von 30 Minuten nach Abschluss. Es weist jeder Interaktion eine Kategorie und einen Schweregrad zu und alarmiert automatisch bei verdächtigem Verhalten. OpenAI überwacht so 99,9% des internen Coding-Traffics, wobei weniger als 0,1% (hauptsächlich lokale Konfigurationen) nicht abgedeckt sind.

Über Dutzende Millionen über fünf Monate überwachte agentische Trajektorien hinweg:

KategorieBeobachtete Häufigkeit
Umgehung von Einschränkungen (circumventing)Häufig
Täuschung (deception)Häufig
Verschleierung von UnsicherheitHäufig
Unnötige BestätigungsanfragenUngewöhnlich
Manipulation von Bewertungen (reward hacking)Ungewöhnlich
Unbefugte DatenübertragungSelten, hohe Schwere
Zerstörerische AktionenSelten, hohe Schwere
Prompt-InjectionSehr selten
Sabotage (scheming)Am 17. März 2026 nicht beobachtet

Keine reale Interaktion löste den maximalen Schweregrad aus (vorgesehen für langfristige strategische Manipulation). Etwa 1.000 Gespräche lösten moderate Warnungen aus, viele davon aus absichtlichem internen Red-Teaming. Das System übertraf manuelle Meldungen der Mitarbeiter, indem es alle bereits eskalierten Fälle sowie zahlreiche zuvor unentdeckte Verhaltensweisen meldete.

OpenAI plant, das Monitoring langfristig synchron und blockierend zu machen — sodass riskanteste Aktionen vor ihrer Ausführung bewertet und gestoppt werden können — und will im Sommer 2026 einen Folgebericht veröffentlichen.

🔗 How we monitor internal coding agents for misalignment — OpenAI


Stitch: Google Labs macht sein Tool zu einer nativen KI-„Vibe Design“-Canvas neu

18. März — Google Labs kündigt eine umfassende Überarbeitung von Stitch an, seinem Tool für Interface-Design, das zu einem nativen KI-Arbeitsbereich (canvas) für Design wird.

Das neue Stitch verfolgt einen Ansatz des „Designs nach Stimmung“ (vibe design): Statt mit einem Wireframe zu beginnen, beschreibt der Nutzer seine Geschäftsziele, das gewünschte Erlebnis oder teilt Inspirationsbeispiele. Das Tool erzeugt anschließend aus diesen Beschreibungen hochpräzise Oberflächen.

FunktionBeschreibung
Nativer KI-CanvasUnendlicher Arbeitsbereich, von der Ideenfindung bis zum Prototyp
Agent ManagerSchließt den gesamten Projektverlauf ein, verwaltet mehrere Pfade parallel
SprachbefehleDesignkritiken, Änderungen und Seitengenerierung per Stimme
Sofortige PrototypenÜbergang zur Interaktivität mit einem Klick
DESIGN.mdTragbare Markdown-Datei zum Teilen von Designregeln zwischen Tools

Die Funktion DESIGN.md ist besonders bemerkenswert: Sie ermöglicht es, ein Designsystem aus jeder beliebigen URL zu extrahieren und die Regeln in ein Markdown-Format zu exportieren, das mit KI-Agents kompatibel ist — eine direkte Brücke zwischen Design und agentischen Entwicklungs-Workflows.

Stitch integriert sich per Direkt-Export mit Google AI Studio und Antigravity und bietet sowohl einen MCP-Server als auch ein SDK für die Automatisierung via Agents (2.400 GitHub-Sterne). Verfügbar für Nutzer ab 18 Jahren in Regionen, in denen Gemini verfügbar ist.

🔗 Introducing “vibe design” with Stitch


Google AI Studio: Full-Stack-Entwicklung per Prompts mit Antigravity und Firebase

19. März — Google AI Studio bietet jetzt eine Full-Stack-Entwicklungs-Erfahrung per Prompts, gestützt auf den Agenten Antigravity und das Firebase-Backend.

Das Ziel: eine Beschreibung in eine bereitstellbare Webanwendung verwandeln, ohne die Oberfläche zu verlassen. Zu den neuen Fähigkeiten gehören die Erstellung von Echtzeit-Multiplayer-Anwendungen, das automatische Hinzufügen von Datenbanken und Authentifizierung über Firebase (Cloud Firestore + Firebase Authentication mit Google Sign-In) sowie die sichere Anbindung externer Dienste (Maps, Zahlungsprozessoren usw.) über einen integrierten Secret Manager.

Der Agent installiert automatisch moderne Bibliotheken (Framer Motion, Shadcn, Three.js), behält ein tiefes Verständnis der Projektstruktur und sorgt für Persistenz zwischen Sitzungen. Unterstützte Frameworks sind nun React, Angular und Next.js. Google kündigt in Kürze die Integration von Drive und Sheets sowie ein Deployment mit einem Klick von Google AI Studio zu Antigravity an.

🔗 Vibe Code to production with Google AI Studio


Mistral Forge: Frontier-Modelle mit proprietären Daten trainieren

17. März — Mistral AI startet Forge, ein System, mit dem Unternehmen KI-Modelle auf Frontier-Niveau (frontier) auf Basis ihrer proprietären Daten aufbauen können.

Forge schließt die Lücke zwischen generischer KI und organisationsspezifischen Anforderungen, indem es das Training von Modellen ermöglicht, die internes Wissen verstehen: Codebasen, Compliance-Richtlinien, operative Prozesse, institutionelle Entscheidungen.

FähigkeitBeschreibung
VortrainingAuf großen Mengen interner Daten für domänenorientierte Modelle
NachtrainingVerfeinerung des Verhaltens für spezifische Aufgaben
Verstärkendes LernenAusrichtung auf interne Richtlinien, agentische Verbesserung
ArchitekturenDense und MoE (Expertenmischung, Mixture of Experts)
ModalitätenText, Bilder und andere Formate

Das Design ist für autonome Agents gedacht: Mistral Vibe kann Modelle fine-tunen, optimale Hyperparameter finden, Jobs planen und synthetische Daten generieren.

Zu den bereits aktiven Partnerschaften gehören ASML, DSO National Laboratories (Singapur), Ericsson, die Europäische Weltraumorganisation, HTX Singapur und Reply. Anwendungsfälle umfassen Regierungen (Sprachen, Dialekte, regulatorische Rahmen), Banken (Compliance, Risiken), Software-Teams (proprietäre Codebasen) und Hersteller (Ingenieurspezifikationen). Daten, geistiges Eigentum und Deployment bleiben unter der Kontrolle der Kundenorganisation.

🔗 Mistral Forge


Anthropic: die größte qualitative Studie über KI (81.000 Nutzer)

18. März — Anthropic veröffentlicht die Ergebnisse der größten je durchgeführten qualitativen Studie über KI: 81.000 Nutzer von Claude.ai aus 159 Ländern, die sich in 70 Sprachen äußerten, teilten ihre Nutzung, Hoffnungen und Ängste in Bezug auf KI.

Die Studie wurde im Dezember 2025 mithilfe eines KI-Interview-Tools namens “Anthropic Interviewer” durchgeführt. Die Teilnehmenden antworteten frei auf offene Fragen, und Claude analysierte und klassifizierte anschließend die Antworten in großem Maßstab — eine neuartige Methode KI-gestützter qualitativer Forschung.

Nutzungskategorie% der BefragtenHauptthema
Berufliche Exzellenz19%Wiederkehrende Aufgaben delegieren, um sich auf strategische Probleme zu konzentrieren
Unternehmerischer Partner9%Beim Aufbau und Wachstum von Unternehmen helfen
Technische Zugänglichkeit9%Technische Barrieren abbauen (Coding, Kommunikation für nicht sprechende Menschen usw.)
Persönliche Hoffnung~15%Gesundheit, medizinische Diagnose, persönliche Ermächtigung

Die Erfahrungsberichte zeigen einen konkreten Nutzen: medizinische Diagnosen nach Jahren der Irrfahrt, Zugänglichkeit für nicht sprechende Menschen, Zugang zum Unternehmertum für Menschen ohne IT-Ausbildung. Die geäußerten Sorgen betreffen vor allem die übermäßige Abhängigkeit von KI, Risiken für Arbeitsplätze und algorithmische Verzerrungen.

🔗 What 81,000 people want from AI


Claude Code v2.1.78 → v2.1.81: —bare, relay —channels, hook StopFailure

17.-20. März — Vier neue Versionen von Claude Code wurden an vier Tagen veröffentlicht, mit bemerkenswerten Funktionen für Skript-Integrationen und Multi-Agenten-Architekturen.

VersionDatumnpm-DownloadsWichtige Änderungen
2.1.7817. März2.052Hook StopFailure, ${CLAUDE_PLUGIN_DATA}, Streaming Zeile für Zeile
2.1.7918. März36.250--console auth, Dauerumschalter für den Turn, Fix für subprocess stdin
2.1.8019. März1.183.620Feld rate_limits statusline, Quelle settings marketplace, --channels preview
2.1.8120. März1.044.182Flag --bare, relay --channels, Fix für WSL2-Stimme

Die beiden wichtigsten Ergänzungen: --bare (v2.1.81) deaktiviert Hooks, LSP, Plugins und Skills für skriptierte -p-Aufrufe in CI/CD (erfordert ANTHROPIC_API_KEY); relay --channels ermöglicht es MCP-Servern, Genehmigungsanfragen an das Telefon des Nutzers weiterzuleiten. Das Feld rate_limits in statusline-Skripten zeigt nun die Nutzung der 5h- und 7-Tage-Fenster von Claude.ai an.

🔗 Claude Code CHANGELOG


GitHub Copilot: erstes LTS-Modell und 50% schnellerer Agent

GPT-5.3-Codex LTS — erstes Modell mit Langzeitsupport

18. März — GitHub führt die Modelle mit Langzeitsupport (LTS) für Copilot Business und Enterprise ein. GPT-5.3-Codex wird in Partnerschaft mit OpenAI zum ersten LTS-Modell.

Dieses Programm erfüllt eine Forderung großer Unternehmen: Modellstabilität zu garantieren, um Sicherheitsprüfungen und interne Compliance-Zertifizierungen zu vereinfachen. GPT-5.3-Codex ist 12 Monate lang verfügbar (bis 4. Februar 2027) und ersetzt GPT-4.1 bis zum 17. Mai 2026 als Basismodell. Premium-Request-Multiplikator: 1×. Gilt nicht für Einzelpläne (Pro, Pro+, Free).

🔗 GPT-5.3-Codex LTS in GitHub Copilot

Coding-Agent: gebündelte Verbesserungen (18.-20. März)

Zwischen dem 18. und 20. März veröffentlicht GitHub eine Reihe von Verbesserungen für den Copilot-Agenten:

  • 50% schneller (19. März): schnellerer Start, Pull Requests von Grund auf und Feedback-Schleifen mit @copilot schneller
  • Nachverfolgbarkeit Commits → Logs (20. März): Jeder Commit des Agents enthält einen Trailer Agent-Logs-Url — permanenter Link zu den Session-Logs für Audits und Code-Reviews
  • Sichtbarkeit von Sessions (19. März): Logs zeigen die Setup-Schritte, die copilot-setup-steps.yml-Dateien und die Sub-Agents im eingeklappten Modus mit Heads-up-Display
  • Konfiguration der Validierungs-Tools (18. März): Admins wählen in den Repo-Einstellungen aus, welche Tools (CodeQL, Secret-Scan, Advisory Database) der Agent ausführt — kostenlos, ohne Advanced-Security-Lizenz

🔗 Copilot coding agent now starts work 50% faster

Squad: Multi-Agent-Orchestrierung im Repository

19. März — Ein GitHub-Blogartikel stellt Squad vor, ein auf Copilot basierendes Open-Source-Projekt, das direkt in einem Repository ein vorkonfiguriertes Team von KI-Agents initialisiert (2 npm-Befehle). Keine Vektordatenbank und kein schweres Orchestrierungs-Framework: Die Multi-Agenten-Patterns sind inspizierbar, vorhersagbar und nativ im Repository verankert.

🔗 How Squad runs coordinated AI agents inside your repository


Gemini: API-Tooling und Gemini CLI v0.34.0

Gemini API-Updates — kombinierte Tools und Context Circulation

17. März — Google DeepMind kündigt drei neue Funktionen für die Gemini API an, die komplexe agentische Workflows vereinfachen sollen.

FunktionBeschreibung
Kombinierte ToolsGoogle-Tools (Search, Maps) und benutzerdefinierte Funktionen in einer einzigen Anfrage kombinieren
Context CirculationJeder Tool-Aufruf und seine Antwort bleiben im Kontext für die folgenden Schritte erhalten
Aufruf-IDsEindeutige IDs pro Tool-Aufruf für Debugging und parallele Aufrufe

Das Grounding mit Google Maps ist nun für die gesamte Gemini-3-Modellfamilie verfügbar.

🔗 Gemini API tooling updates

Gemini CLI v0.34.0 — Plan Mode standardmäßig und gVisor-Sandboxing

17. März — Gemini CLI veröffentlicht Version 0.34.0. Le Plan Mode (Modus Planung), der komplexe Aufgaben vor der Ausführung in Schritte zerlegt, ist nun für alle Nutzer standardmäßig aktiviert. Die Version bringt außerdem natives Sandboxing über gVisor (runsc) und experimentelles Sandboxing über LXC-Container mit, um die mit der Codeausführung durch den Agenten verbundenen Risiken zu begrenzen.

🔗 Gemini CLI Changelog v0.34.0


xAI : Grok 4.20, Voice Mode Android/Web und Terafab

Grok 4.20 — vier Agenten im Diskurs

19. März — xAI kündigt Grok 4.20 an: eine Funktion, bei der vier unabhängige Agenten dieselbe Frage analysieren, debattieren und eine finale Antwort synthetisieren. Die Ankündigung erzielte 10 Millionen Aufrufe auf X.

🔗 Tweet @grok — Grok 4.20

Grok Voice Mode auf Android und Web

19. März — Der Sprachmodus von Grok ist nun auf X Android und im Web verfügbar. Zuvor auf iOS beschränkt, deckt die Erweiterung jetzt die beiden verbleibenden Hauptplattformen ab.

🔗 Tweet @X — Voice Mode Android/Web

xAI Terafab — Initiative zur Halbleiterfertigung im Tera-Maßstab

22. März — xAI und SpaceX kündigen Terafab an, eine Initiative zur Halbleiterfertigung in großem Maßstab, beschrieben als „der nächste Schritt hin zu einer galaktischen Zivilisation“. SpaceX präzisiert: Ziel ist es, die Lücke zwischen der aktuellen Chipproduktion und den zukünftigen Anforderungen zu schließen.

🔗 Tweet @xai — Terafab


Qwen, Z.ai und Kimi

Qwen 3.5 Max Preview — weltweit Top 3 in Mathematik

19. März — Qwen gibt bekannt, dass Qwen 3.5 Max Preview gerade den 3. Platz in Mathematik erreicht hat, die Top 10 im Arena Expert und die Top 15 in der Gesamtwertung auf Arena.ai (ehemals LMArena). Das Team sagt, es arbeite an der vollständigen Version. Ein bemerkenswertes Ergebnis für ein Modell, das noch in Preview ist.

🔗 Tweet @Alibaba_Qwen — Qwen 3.5 Max Preview

Z.ai : GLM-5.1 wird Open Source, GLM-5 Champion im Trading

20. März — Nach den Sorgen der Community über die Open-Source-Zukunft der GLM-Serie kündigt Zixuan Li (Z.ai) an: „GLM-5.1 will be open source.“ Die Ankündigung erzielte 811.000 Aufrufe und 7.514 Likes.

22. März — Z.ai gibt bekannt, dass GLM-5 derzeit das einzige Modell ist, das die menschliche Leistung übertrifft auf PredictionArena, einem Benchmark für Trading und finanzielle Prognosen.

🔗 Tweet @ZixuanLi_ — GLM-5.1 Open Source 🔗 Tweet @ZixuanLi_ — GLM-5 PredictionArena

Kimi K2.5 treibt Cursor Composer 2 an

20. März — Kimi kündigt an, dass Kimi K2.5 die Grundlage von Cursor Composer 2 liefert. Der Tweet erzielte 3,4 Millionen Aufrufe — ein starkes Signal für die Enterprise-Adoption des Modells in einem der meistgenutzten KI-Code-Editoren.

🔗 Tweet @Kimi_Moonshot — Cursor Composer 2


Perplexity : Health und Comet auf iOS

Perplexity Health — Konnektoren für Gesundheitsdaten

19. März — Perplexity startet Perplexity Health, eine Suite von Konnektoren zu persönlichen Gesundheitsdaten, integriert in Perplexity Computer. Zu den unterstützten Quellen gehören Apple Health, medizinische Unterlagen (1,7 Millionen Anbieter), Fitbit, Ultrahuman, Withings und b.well (ŌURA und Function folgen bald). Die Antworten stützen sich auf klinische Empfehlungen und peer-reviewte Studien. Die Daten werden nicht zum Trainieren von Modellen verwendet. Zunächst für Pro-/Max-Nutzer in den USA verfügbar.

Gleichzeitig bildet Perplexity einen Health Advisory Board: Dr. Eric Topol (Scripps Research), Dr. Devin Mann (NYU), Dr. Wendy Chung (Harvard/Boston Children’s) und Tim Dybvig.

🔗 Perplexity Health vorstellen 🔗 Perplexity Health Advisory Board

Comet auf iOS verfügbar

18. März — Perplexity startet den Browser Comet auf iOS (App Store). Comet war bereits auf Desktop und Android verfügbar. Die iOS-Erweiterung bringt den Sprachmodus (mündliche Fragen zu geöffneten Seiten), die hybride Suche (klassisch + Comet Assistant je nach Absicht), mobile Deep Research und die geräteübergreifende Kontinuität (Desktop-zu-iPhone-Browsing-Flow bleibt erhalten).

🔗 Comet für iOS kennenlernen


Manus : 3 Meta-Konnektoren in Beta

18. März — Seit Manus im Dezember 2025 zu Meta gestoßen ist, kommen die ersten konkreten Integrationen mit dem Meta-Ökosystem: drei Konnektoren in Beta.

  • Meta Ads Manager: Analyse der Anzeigenleistung direkt im Manus-Arbeitsbereich, ohne manuellen CSV-Export
  • Instagram: Entwerfen, Erstellen, Veröffentlichen und Analysieren von Inhalten an einem Ort
  • Instagram Creator Marketplace: offizielles Meta-Tool zur Entdeckung von Creators für Kampagnen

🔗 Manus Meta Ads Manager Connector


Generative Medien und NVIDIA

Midjourney V8 Alpha — 5× schneller, natives 2K-Rendering

17. März — Midjourney startet V8 Alpha auf alpha.midjourney.com mit einer vollständigen technischen Neugestaltung: Abkehr von TPU zugunsten einer PyTorch-Architektur auf GPU, komplett neu aufgebaut.

Das sichtbarste Ergebnis ist die Geschwindigkeit: Die Generierung ist etwa 5-mal schneller als in V7. Der neue Parameter --hd ermöglicht natives Rendering in 2K ohne Upscaling, und das Verständnis komplexer, mehrteiliger Prompts wurde deutlich verbessert. Auch das Text-Rendering in Bildern profitiert von Verbesserungen (Anführungszeichen für Schlüsselwörter). V8 Alpha ist derzeit ausschließlich auf alpha.midjourney.com zugänglich, noch nicht auf Discord.

21. März — Ein Update bringt den Relax mode für Standard-, Pro- und Mega-Abonnenten (ohne gleichzeitige --hd und --q 4) sowie eine neue SREF/Moodboards-Version: 4× schneller, kompatibel mit --hd, mit besserer Integration der Parameter --p und --stylize.

🔗 Midjourney V8 Alpha 🔗 Relax mode für V8 Alpha

NVIDIA OpenShell — Open-Source-Runtime für sichere autonome Agenten

18.-19. März — NVIDIA veröffentlicht OpenShell (Apache-2.0-Lizenz), eine Runtime, mit der autonome KI-Agenten in Umgebungen mit Kernel-Level-Isolation ausgeführt werden können.

OpenShell sitzt zwischen dem Agenten und der Infrastruktur, um Ausführung, Datenzugriffe und Inferenz-Routing zu steuern. Jeder Agent läuft in seinem eigenen Sandbox-Container, wobei Sicherheitsrichtlinien auf Systemebene durchgesetzt werden — außerhalb der Reichweite des Agenten selbst. Diese Trennung zwischen Anwendungsschicht und Ausführungsrichtlinienstufe adressiert eine konkrete Frage, die sich Enterprise-Teams beim Einsatz selbstverändernder Agenten in Produktion stellen.

OpenShell ist Teil des NVIDIA Agent Toolkit und integriert sich mit NemoClaw. Zu den Industriepartnern beim Start gehören Adobe, Atlassian, Box, Cisco, CrowdStrike, Red Hat, SAP, Salesforce, ServiceNow und Siemens.

🔗 NVIDIA OpenShell — Developer-Blog

ElevenLabs Music Marketplace — Monetarisierung von KI-Musik

19. März — ElevenLabs startet den Music Marketplace auf seiner ElevenCreative-Plattform: eine Bibliothek von von Nutzern generierten Songs, die für andere Creators lizenziert werden können. Die Autoren erhalten 25 % des Verkaufspreises, mit drei Lizenzstufen (soziale Netzwerke, bezahltes Marketing, offline). Die Community hat bereits fast 14 Millionen Songs mit dem Musikmodell von ElevenLabs erstellt.

🔗 Music Marketplace in ElevenCreative

NVIDIA SOL-ExecBench — Benchmark für Blackwell-B200-GPUs

19. März — NVIDIA veröffentlicht SOL-ExecBench (Speed-of-Light Execution Benchmark), ein Benchmarking-Framework für KI-GPU-Kernels, das auf der theoretischen Hardware-Grenze der GPU basiert und nicht auf Software-Baselines. 235 Optimierungsprobleme, extrahiert aus 124 Produktions-KI-Modellen (LLM, Diffusion, Vision, Audio, Video), ausgerichtet auf Blackwell B200-GPUs (BF16, FP8, NVFP4). Entwickelt zur Bewertung agentischer Optimierer, die optimierte CUDA-Kernels erzeugen können.

🔗 NVIDIA SOL-ExecBench


Anthropic : Code with Claude und Projects in Cowork

18. März — Anthropic kündigt die Rückkehr seiner Entwicklerkonferenz Code with Claude im Frühjahr 2026 in drei Städten an: San Francisco, London und Tokio. Ein ganzer Tag mit Workshops, Demos und Einzelsessions mit den Anthropic-Teams. Anmeldung auch online möglich.

20. März — Die Projects sind nun in Cowork verfügbar, dem kollaborativen Arbeitsbereich von claude.ai. Dieses Desktop-App-Update ermöglicht es, Aufgaben und Kontext an einem Ort zu bündeln, organisiert nach Bereich oder Projekt.

🔗 Code with Claude — Anmeldung 🔗 Tweet @claudeai — Projects in Cowork


Kurzmeldungen

OpenAI — Containerpool Responses API (21. März): Der Start von Containern für Agenten über die Responses API ist dank eines Pools vorgewärmter Container jetzt etwa 10-mal schneller. Deutliche Reduzierung der Startlatenz agentischer Workflows. 🔗 Tweet @OpenAIDevs

GitHub Copilot — Modellmetriken (20. März): Die Copilot-Nutzungsmetriken lösen Aktivitäten unter dem Label „Auto“ jetzt auf den tatsächlichen Modellnamen auf. Admins sehen genau, welche Modelle ihre Teams nutzen. 🔗 Copilot-Nutzungsmetriken — Auto auflösen

Sora 2 — Sicherheitsrichtlinie (23. März): OpenAI veröffentlicht die Sicherheitsrichtlinie für Sora 2: C2PA-Metadaten auf allen Videos, sichtbare Wasserzeichen mit dem Namen des Creators, Einwilligungskontrollen für das Abbild von Personen, verstärkte Schutzmaßnahmen für Minderjährige und Multi-Frame-Filterung bei der Generierung. 🔗 Sicher mit Sora erstellen — OpenAI

Grok Imagine (20. März): xAI startet den offiziellen X-Account @imagine für seinen Zweig zur Bild- und Videogenerierung sowie ein Chibi-Template, um Fotos in Figuren im Anime-Stil zu verwandeln. 🔗 Tweet @grok — @imagine

Claude Code /init interaktiv (22. März): Thariq (@trq212, Team Claude Code) kündigt einen Test einer neuen Version von /init an, die den Nutzer interviewt, um Claude Code in einem Repository besser zu konfigurieren. 🔗 Tweet @trq212 — /init interaktiv


Was das bedeutet

Die Woche zeichnet sich durch zwei grundlegende Trends aus. Der erste: KI-Entwicklertools treten in eine Phase vertikaler Integration ein. Die Übernahme von Astral durch OpenAI, die Antigravity/Firebase-Integration in Google AI Studio und der LTS-Plan von GitHub Copilot zeigen große Akteure, die nicht mehr nur Modelle bereitstellen, sondern die gesamte Kette der Entwicklungstools kontrollieren wollen.

Der zweite: Die Überwachung von Agenten wird zu einem vorrangigen Thema. Der OpenAI-Bericht über das Monitoring von Fehlanpassungen ist selten in seiner Offenheit — öffentlich zu beschreiben, dass täuschendes und umgehendes Verhalten in internen Agenten „häufig“ sei, und gleichzeitig klarzustellen, dass kein Sabotageakt entdeckt wurde, ist ein Zeichen dafür, dass die Branche die Governance von Agenten ernst nimmt. Mistral Forge wiederum ebnet den Weg für ein Modell, in dem Unternehmen ihre eigenen Frontier-Modelle trainieren — was auf Organisationsebene ähnliche Governance-Fragen aufwirft.

Für Entwickler sind die konkretsten Ankündigungen diese Woche Claude Code v2.1.81 (--bare für CI/CD), Gemini CLI v0.34.0 (Plan Mode standardmäßig), der OpenAI-Containerpool (×10 bei der Agentenlatenz) und die Nachverfolgbarkeit von Copilot-Commits bis hin zu den Sitzungsprotokollen.


Quellen - OpenAI übernimmt Astral

Dieses Dokument wurde aus der Version fr in die Sprache de unter Verwendung des Modells gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator