Der 14. April 2026 markiert einen ereignisreichen Tag für KI-gestützte Entwicklungstools: Anthropic führt Routinen in Claude Code ein, mit denen sich ganze Workflows per Planung oder per Webhook automatisieren lassen, ohne den Computer eingeschaltet zu lassen. Google DeepMind veröffentlicht Gemini Robotics-ER 1.6 mit neuen industriellen Wahrnehmungsfähigkeiten, die gemeinsam mit Boston Dynamics entwickelt wurden. Z.ai öffnet GLM-5.1 unter MIT-Lizenz, auf Platz 1 der Open-Source-Modelle bei SWE-Bench Pro. GitHub Copilot ergänzt drei nützliche Funktionen: Konfliktlösung in drei Klicks, Datenresidenz in den USA und der EU sowie Modellauswahl für Drittanbieter-Agenten.
Routinen in Claude Code — vorläufige Recherche (research preview)
14. April — Anthropic startet die Routinen in Claude Code in einer research preview. Eine Routine ist eine einmalig konfigurierte Automatisierung — mit einem Prompt, einem Repository und Connectors —, die danach autonom ausgeführt wird, ohne dass der Nutzer angemeldet bleiben muss.
Drei Arten von Triggern sind verfügbar:
| Typ | Auslöser | Anwendungsbeispiel |
|---|---|---|
| Geplant (Scheduled) | Cron (stündlich, nachts, wöchentlich) | Nightly-Triage von Linear-Bugs, Erstellen eines Fix-PR |
| API | HTTP-POST-Aufruf an einen dedizierten Endpoint | Datadog-Alarm → automatische Triage + Fix-Entwurf |
| Webhook | GitHub-Ereignisse (PR, Push…) | Automatische Code-Review bei jeder geöffneten PR |
Jede Routine verfügt über ihren eigenen Endpoint und Authentifizierungstoken. API-Routinen lassen sich in jede bestehende Pipeline integrieren (Alerts, Deployment-Hooks, interne Tools). Webhook-Routinen starten für jede passende PR eine neue Session und versorgen die Session mit den folgenden Updates (Kommentare, Fehler der Continuous Integration).
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇩🇪 Konfigurieren Sie eine Routine nur einmal (einen Prompt, ein Repository und Ihre Connectors), und sie kann nach einem Zeitplan, auf Grundlage eines API-Aufrufs oder als Reaktion auf ein Ereignis ausgeführt werden. Die Routinen laufen auf unserer Web-Infrastruktur, also müssen Sie Ihren Computer nicht eingeschaltet lassen. — @claudeai auf X
Verfügbarkeit und Limits:
| Plan | Routinen/Tag |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
Verfügbar in allen kostenpflichtigen Plänen (Pro, Max, Team, Enterprise) mit aktiviertem Claude Code web. Über die Kontingente hinaus ist eine zusätzliche Nutzung weiterhin möglich. Routinen verbrauchen die Abonnementguthaben wie interaktive Sessions.
Dokumentierte Anwendungsfälle:
- Backlog-Management: Nightly-Triage, Etikettierung, Slack-Zusammenfassung
- Dokumentationsdrift (docs drift): Wöchentlicher Scan zusammengeführter PRs, Erkennung zu aktualisierender Seiten
- Überprüfung nach dem Deployment: Smoke-Checks (smoke checks) nach jedem Release
- SDK-Portierung: Jede zusammengeführte Python-PR löst automatisch eine Portierung auf das Go SDK aus
🔗 Anthropic-Blog 🔗 Ankündigungstweet
Claude Code v2.1.105 — PreCompact-Hooks, Plugin-Monitore, /proactive
11. bis 13. April — Die Version 2.1.105 von Claude Code bringt mehrere bemerkenswerte Verbesserungen:
| Funktion | Beschreibung |
|---|---|
Parameter path für EnterWorktree | Ermöglicht das Umschalten auf einen vorhandenen Worktree des aktuellen Repos |
| PreCompact-Hook | Hooks können jetzt die Kompaktion blockieren (Exit-Code 2 oder {"decision":"block"}) |
| Background monitors für Plugins | Schlüssel monitors im Plugin-Manifest — automatisch beim Session-Start aktiviert |
/proactive | Neuer Alias für /loop |
| Aufgabe blockierter Streams API | Abbruch nach 5 Minuten ohne Daten + Retry im Non-Streaming-Modus |
| Netzwerk-Fehlermeldungen | Sofortige Anzeige einer Retry-Meldung statt eines stillen Spinners |
| Anzeige langer Dateien | Sehr lange Single-Line-Schreibvorgänge (z. B. minifiziertes JSON) werden in der Oberfläche abgeschnitten |
/doctor verbessert | Statussymbole + Taste f, um Claude um die Behebung erkannter Probleme zu bitten |
14. April — Die Version 2.1.107 bringt eine Verbesserung der Oberfläche: Die Fortschrittsindikatoren (thinking hints) werden bei langen Operationen nun früher angezeigt, wodurch das Warten ohne visuelles Feedback weniger stark wahrgenommen wird.
Anthropic — Vas Narasimhan tritt dem Verwaltungsrat bei
14. April — Der Long-Term Benefit Trust (LTBT) von Anthropic hat Vas Narasimhan in den Verwaltungsrat berufen. Als Arzt und Wissenschaftler sowie CEO von Novartis hat er die Entwicklung und Zulassung von mehr als 35 innovativen Medikamenten in einer der am stärksten regulierten Branchen der Welt überwacht.
Mit dieser Ernennung stellen die vom Trust benannten Direktoren nun die Mehrheit des Verwaltungsrats. Der LTBT ist ein unabhängiges Organ, dessen Mitglieder keinerlei finanzielle Interessen an Anthropic haben — seine Aufgabe ist es, das Gleichgewicht zwischen kommerziellem Erfolg und langfristiger Mission zum Nutzen der Öffentlichkeit zu wahren.
Gemini Robotics-ER 1.6 — industrielle Wahrnehmung und Sicherheit
14. April — Google DeepMind veröffentlicht Gemini Robotics-ER 1.6, ein Update seines verkörperten Schlussfolgerungsmodells (embodied reasoning) für Robotik. Das Modell verbessert das visuelle und räumliche Verständnis, damit Roboter reale Aufgaben autonomer planen und ausführen können. Es übertrifft Gemini Robotics-ER 1.5 und Gemini 3.0 Flash auf internen Robotik-Benchmarks.
Neue Fähigkeiten:
| Fähigkeit | Beschreibung |
|---|---|
| Räumliches Zeigen (Pointing) | Erkennung und Zählung von Objekten, relationale Logik (kleiner/größer), Trajektorien und Greifpunkte, komplexe Einschränkungen |
| Erkennung von Erfolg über mehrere Ansichten | Analysiert mehrere Kamerawinkel, um zu überprüfen, ob eine Aufgabe tatsächlich erledigt ist |
| Instrumentenablesung | Liest Rundinstrumente und transparente Röhren (sight glasses) — gemeinsam mit Boston Dynamics für industrielle Inspektionen entwickelt |
| Sicherheit (ASIMOV v2-Benchmark) | Bester Wert unter allen getesteten Modellen beim Einhalten von Sicherheitsvorgaben |
Die Fähigkeit zur Instrumentenablesung entstand aus der Zusammenarbeit mit Boston Dynamics für den Spot-Roboter, der bei Inspektionen industrieller Anlagen eingesetzt wird. Sie kombiniert räumliches Schlussfolgern und Codeausführung, um Druckanzeigen mit hoher Präzision zu interpretieren.
Verfügbarkeit: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio und ein Startnotebook auf GitHub Colab.
🔗 Google-DeepMind-Blog 🔗 Ankündigungstweet
GLM-5.1 — Z.ai öffnet sein agentisches Modell unter MIT-Lizenz
7. April (nachgereichte Ankündigung — beim Scan der vergangenen Woche übersehen) — Z.ai (ehemals ZhipuAI) hat GLM-5.1 veröffentlicht, sein neues Flaggschiffmodell für agentisches Codieren (agentic coding), verfügbar als Open Source unter MIT-Lizenz.
Leistungen auf Code-Benchmarks:
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
GLM-5.1 belegt Platz 1 unter den Open-Source-Modellen und weltweit Platz 3 bei SWE-Bench Pro, Terminal-Bench und NL2Repo.
Der entscheidende Unterschied: der lange Horizont. Frühere Modelle, einschließlich GLM-5, verbessern ihre Leistung zunächst schnell und erreichen dann ein Plateau. GLM-5.1 ist darauf ausgelegt, auf agentischen Aufgaben über deutlich längere Zeiträume effizient zu bleiben: Es kann 8 Stunden autonom arbeiten und seine Strategien über Tausende von Tool-Aufrufen hinweg verfeinern.
Drei Szenarien veranschaulichen diese Fähigkeit:
- Optimierung einer Vektordatenbank über 600 Iterationen: GLM-5.1 erreicht 21.500 Anfragen pro Sekunde auf VectorDBBench, also das 6-Fache des besten Ergebnisses, das in einer 50-Runden-Session erzielt wurde.
- Optimierung von GPU-Kernen über 1.000+ Runden: Beschleunigung um das 3,6-Fache auf KernelBench Level 3.
- Erstellung eines Linux-Desktops in 8 Stunden: Ausgehend von einer einfachen natürlichen Spracheingabe erzeugt GLM-5.1 eine vollständige Desktop-Umgebung im Browser (Dateimanager, Terminal, Editor, Systemmonitor).
Verfügbarkeit: Open-Source-Weights auf HuggingFace (zai-org/GLM-5.1), API auf api.z.ai und BigModel.cn, kompatibel mit Claude Code, Cline, Roo Code, Kilo Code und OpenCode.
🔗 GLM-5.1-Blog 🔗 Ankündigungstweet
Codex CLI v0.120.0 — Echtzeit-Streaming für Agenten
11. April — Die Version 0.120.0 des Codex CLI wird als Stable Release veröffentlicht. Sie bringt mehrere funktionale Verbesserungen:
| Funktion | Detail |
|---|---|
| Realtime V2 | Streamt den Fortschritt der Hintergrundagenten in Echtzeit und reiht die folgenden Antworten ein |
| Verbesserte TUI-Hooks | Aktive Hooks werden separat angezeigt, die Historie abgeschlossener Hooks wird kompakter dargestellt |
| Thread-Titel im Status | Benutzerdefinierte TUI-Status können den umbenannten Thread-Titel enthalten |
| Code-Mode-Ausgabeschema | Code-Mode-Tooldeklarationen enthalten jetzt die outputSchema-MCP-Details |
| SessionStart-Hooks | Unterscheidet zwischen durch /clear erstellten Sessions und Start oder Fortsetzung |
Die Version enthält außerdem mehrere Fehlerbehebungen: Verwaltung erhöhter Windows-Sandboxes, Panics bei TLS-WebSocket-Verbindungen, Beibehaltung der Reihenfolge von Tool-Suchergebnissen.
GitHub Copilot — drei neue Funktionen
Modellauswahl für Drittanbieter-Agenten
14. April — Es ist nun möglich, beim Start einer Aufgabe mit den Claude- (Anthropic) und Codex- (OpenAI) Agenten auf github.com das Modell auszuwählen.
| Agent | Verfügbare Modelle |
|---|---|
| Claude | Claude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5 |
| Codex | GPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4 |
Inklusive im bestehenden Copilot-Abonnement (Business oder Enterprise), aber der Administrator muss die entsprechenden Richtlinien auf Unternehmens- oder Organisationsebene aktivieren.
Konfliktlösung bei Merge-Konflikten in drei Klicks
13. April — Auf Pull Requests mit Merge-Konflikten erscheint jetzt ein neuer Button “Fix with Copilot”. In drei Klicks löst der Copilot-Cloud-Agent die Konflikte, prüft, ob Build und Tests bestehen, und pusht anschließend aus seiner isolierten Cloud-Umgebung. Der Verweis @copilot in PRs ermöglicht es außerdem, fehlgeschlagene GitHub-Actions-Workflows zu korrigieren oder Code-Review-Kommentare zu bearbeiten. Verfügbar in allen kostenpflichtigen Copilot-Plänen.
🔗 Changelog zu Merge-Konflikten
Datenresidenz in den USA/EU und FedRAMP-Konformität
13. April — GitHub Copilot unterstützt jetzt die Datenresidenz für die Regionen USA und EU: Alle Inferenzen und zugehörigen Daten verbleiben in der vorgesehenen geografischen Zone. US-Regierungskunden profitieren zusätzlich von FedRAMP-Moderate-Konformität. Datenresident aufgegebene Anfragen tragen einen Aufschlag von 10 % auf den Multiplikator der Premium Requests. Gemini-Modelle werden noch nicht unterstützt (GCP bietet noch keine Inference-Endpoints mit Datenresidenz an). Japan und Australien stehen für 2026 auf der Roadmap.
Generative Medien — Runway, Luma, MiniMax, ElevenLabs
Runway Characters in Videoanrufen
14. April — Runway rollt ein Update für Characters aus, mit dem sich der eigene KI-Avatar in einen Zoom-, Google-Meet- oder Teams-Videoanruf schicken lässt. Der Ablauf: Character auswählen oder erstellen → Meeting-Link einfügen → auf “Join Meeting” klicken. Die Funktion, die seit dem 9. März zunächst als API für Entwickler verfügbar war, ist nun für alle Nutzer über die Runway-App zugänglich.
Luma — Sprachdiktion und Logo-Animation
14. April — Luma Labs führt zwei neue Funktionen ein: die Sprachdiktion in seiner App (der Nutzer spricht, die Beschreibung wird in einen Generations-Prompt umgewandelt) und die kinematische Logo-Animation (Logo hochladen, der Agent erzeugt einen animierten, auf Branding ausgerichteten Einstieg).
🔗 Tweet zur Sprachdiktion · Tweet zur Logo-Animation
MiniMax — drei Open-Source-Music-Skills für Agenten
14. April — MiniMax veröffentlicht drei Music Skills für Agenten als Open Source: minimax-music-gen (Erzeugung eines vollständigen Stücks aus einem Prompt, mit automatischer Auswahl zwischen Original, Instrumental und Cover), buddy-sings (der KI-Agent singt als stimmlicher Begleiter) und Playlist curation (Playlist-Kuration aus der Bibliothek des Nutzers). Diese Komponenten sind für die Integration in M2.7-Agenten gedacht.
ElevenLabs — 100 Millionen Dollar an annualisiertem Nettowiederkehrumsatz in Q1 2026
13. April — CEO Mati Staniszewski kündigt an, dass ElevenLabs in Q1 2026 mehr als 100 Millionen Dollar an annualisiertem Nettowiederkehrumsatz hinzugefügt hat — das bisher beste Quartal. Das Wachstum wird durch Unternehmenspartnerschaften getragen (Klarna, Revolut, Deutsche Telekom, Toyota).
Was das bedeutet
Die Routinen in Claude Code stellen einen Paradigmenwechsel dar: Das Entwicklungstool reagiert nicht mehr nur auf interaktive Anfragen, sondern kann nun geplante oder reaktive Initiativen in der Infrastruktur eines Projekts ergreifen. Die Kombination aus scheduled + webhook macht Claude Code zu einem dauerhaften Agenten in einem Repository, bei minimalen Einrichtungskosten.
An der Open-Source-Front bestätigt GLM-5.1, dass chinesische agentische Modelle auf dem Niveau der besten proprietären Modelle bei Coding-Benchmarks angekommen sind. Die Fähigkeit, einen 8-stündigen Horizont autonomer Arbeit aufrechtzuerhalten — mit Tausenden von Tool-Aufrufen — eröffnet konkrete Möglichkeiten für intensiv optimierende Aufgaben, die traditionelle Modelle in einer einzigen Sitzung nicht bewältigen können.
Gemini Robotics-ER 1.6 veranschaulicht einen anderen Trend: allgemeine KI-Modelle, die an die physischen Zwänge der realen Welt angepasst sind, wobei die Zusammenarbeit zwischen Software und Hardware (Boston Dynamics/Spot) neue Fähigkeiten hervorbringt, etwa das Ablesen industrieller Instrumente.
Quellen
- Anthropic-Blog — Claude Code-Routinen
- Tweet @claudeai — Routinen
- CHANGELOG Claude Code
- Anthropic — Nominierung von Vas Narasimhan
- Google DeepMind-Blog — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Z.ai-Blog — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub-Changelog — Modellauswahl für Agenten von Drittanbietern
- GitHub-Changelog — Merge-Konflikte Copilot
- GitHub-Changelog — Datenresidenz US/EU FedRAMP
- Tweet @runwayml — Video-Call-Charaktere
- Tweet @LumaLabsAI — Sprachdiktat
- Tweet @LumaLabsAI — Logo-Animation
- Tweet @MiniMax_AI — Musikfähigkeiten
- Tweet des CEO von ElevenLabs — 100 Mio. ARR
Dieses Dokument wurde aus der fr-Version in die Sprache de mit dem Modell gpt-5.4-mini übersetzt. Weitere Informationen zum Übersetzungsprozess finden Sie unter https://gitlab.com/jls42/ai-powered-markdown-translator