Suchen

Routinen in Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 Open Source

Routinen in Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 Open Source

Der 14. April 2026 markiert einen ereignisreichen Tag für KI-gestützte Entwicklungstools: Anthropic führt Routinen in Claude Code ein, mit denen sich ganze Workflows per Planung oder per Webhook automatisieren lassen, ohne den Computer eingeschaltet zu lassen. Google DeepMind veröffentlicht Gemini Robotics-ER 1.6 mit neuen industriellen Wahrnehmungsfähigkeiten, die gemeinsam mit Boston Dynamics entwickelt wurden. Z.ai öffnet GLM-5.1 unter MIT-Lizenz, auf Platz 1 der Open-Source-Modelle bei SWE-Bench Pro. GitHub Copilot ergänzt drei nützliche Funktionen: Konfliktlösung in drei Klicks, Datenresidenz in den USA und der EU sowie Modellauswahl für Drittanbieter-Agenten.


Routinen in Claude Code — vorläufige Recherche (research preview)

14. April — Anthropic startet die Routinen in Claude Code in einer research preview. Eine Routine ist eine einmalig konfigurierte Automatisierung — mit einem Prompt, einem Repository und Connectors —, die danach autonom ausgeführt wird, ohne dass der Nutzer angemeldet bleiben muss.

Drei Arten von Triggern sind verfügbar:

TypAuslöserAnwendungsbeispiel
Geplant (Scheduled)Cron (stündlich, nachts, wöchentlich)Nightly-Triage von Linear-Bugs, Erstellen eines Fix-PR
APIHTTP-POST-Aufruf an einen dedizierten EndpointDatadog-Alarm → automatische Triage + Fix-Entwurf
WebhookGitHub-Ereignisse (PR, Push…)Automatische Code-Review bei jeder geöffneten PR

Jede Routine verfügt über ihren eigenen Endpoint und Authentifizierungstoken. API-Routinen lassen sich in jede bestehende Pipeline integrieren (Alerts, Deployment-Hooks, interne Tools). Webhook-Routinen starten für jede passende PR eine neue Session und versorgen die Session mit den folgenden Updates (Kommentare, Fehler der Continuous Integration).

“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”

🇩🇪 Konfigurieren Sie eine Routine nur einmal (einen Prompt, ein Repository und Ihre Connectors), und sie kann nach einem Zeitplan, auf Grundlage eines API-Aufrufs oder als Reaktion auf ein Ereignis ausgeführt werden. Die Routinen laufen auf unserer Web-Infrastruktur, also müssen Sie Ihren Computer nicht eingeschaltet lassen.@claudeai auf X

Verfügbarkeit und Limits:

PlanRoutinen/Tag
Pro5
Max15
Team / Enterprise25

Verfügbar in allen kostenpflichtigen Plänen (Pro, Max, Team, Enterprise) mit aktiviertem Claude Code web. Über die Kontingente hinaus ist eine zusätzliche Nutzung weiterhin möglich. Routinen verbrauchen die Abonnementguthaben wie interaktive Sessions.

Dokumentierte Anwendungsfälle:

  • Backlog-Management: Nightly-Triage, Etikettierung, Slack-Zusammenfassung
  • Dokumentationsdrift (docs drift): Wöchentlicher Scan zusammengeführter PRs, Erkennung zu aktualisierender Seiten
  • Überprüfung nach dem Deployment: Smoke-Checks (smoke checks) nach jedem Release
  • SDK-Portierung: Jede zusammengeführte Python-PR löst automatisch eine Portierung auf das Go SDK aus

🔗 Anthropic-Blog 🔗 Ankündigungstweet


Claude Code v2.1.105 — PreCompact-Hooks, Plugin-Monitore, /proactive

11. bis 13. April — Die Version 2.1.105 von Claude Code bringt mehrere bemerkenswerte Verbesserungen:

FunktionBeschreibung
Parameter path für EnterWorktreeErmöglicht das Umschalten auf einen vorhandenen Worktree des aktuellen Repos
PreCompact-HookHooks können jetzt die Kompaktion blockieren (Exit-Code 2 oder {"decision":"block"})
Background monitors für PluginsSchlüssel monitors im Plugin-Manifest — automatisch beim Session-Start aktiviert
/proactiveNeuer Alias für /loop
Aufgabe blockierter Streams APIAbbruch nach 5 Minuten ohne Daten + Retry im Non-Streaming-Modus
Netzwerk-FehlermeldungenSofortige Anzeige einer Retry-Meldung statt eines stillen Spinners
Anzeige langer DateienSehr lange Single-Line-Schreibvorgänge (z. B. minifiziertes JSON) werden in der Oberfläche abgeschnitten
/doctor verbessertStatussymbole + Taste f, um Claude um die Behebung erkannter Probleme zu bitten

14. April — Die Version 2.1.107 bringt eine Verbesserung der Oberfläche: Die Fortschrittsindikatoren (thinking hints) werden bei langen Operationen nun früher angezeigt, wodurch das Warten ohne visuelles Feedback weniger stark wahrgenommen wird.

🔗 Claude-Code-CHANGELOG


Anthropic — Vas Narasimhan tritt dem Verwaltungsrat bei

14. April — Der Long-Term Benefit Trust (LTBT) von Anthropic hat Vas Narasimhan in den Verwaltungsrat berufen. Als Arzt und Wissenschaftler sowie CEO von Novartis hat er die Entwicklung und Zulassung von mehr als 35 innovativen Medikamenten in einer der am stärksten regulierten Branchen der Welt überwacht.

Mit dieser Ernennung stellen die vom Trust benannten Direktoren nun die Mehrheit des Verwaltungsrats. Der LTBT ist ein unabhängiges Organ, dessen Mitglieder keinerlei finanzielle Interessen an Anthropic haben — seine Aufgabe ist es, das Gleichgewicht zwischen kommerziellem Erfolg und langfristiger Mission zum Nutzen der Öffentlichkeit zu wahren.

🔗 Anthropic-Ankündigung


Gemini Robotics-ER 1.6 — industrielle Wahrnehmung und Sicherheit

14. April — Google DeepMind veröffentlicht Gemini Robotics-ER 1.6, ein Update seines verkörperten Schlussfolgerungsmodells (embodied reasoning) für Robotik. Das Modell verbessert das visuelle und räumliche Verständnis, damit Roboter reale Aufgaben autonomer planen und ausführen können. Es übertrifft Gemini Robotics-ER 1.5 und Gemini 3.0 Flash auf internen Robotik-Benchmarks.

Neue Fähigkeiten:

FähigkeitBeschreibung
Räumliches Zeigen (Pointing)Erkennung und Zählung von Objekten, relationale Logik (kleiner/größer), Trajektorien und Greifpunkte, komplexe Einschränkungen
Erkennung von Erfolg über mehrere AnsichtenAnalysiert mehrere Kamerawinkel, um zu überprüfen, ob eine Aufgabe tatsächlich erledigt ist
InstrumentenablesungLiest Rundinstrumente und transparente Röhren (sight glasses) — gemeinsam mit Boston Dynamics für industrielle Inspektionen entwickelt
Sicherheit (ASIMOV v2-Benchmark)Bester Wert unter allen getesteten Modellen beim Einhalten von Sicherheitsvorgaben

Die Fähigkeit zur Instrumentenablesung entstand aus der Zusammenarbeit mit Boston Dynamics für den Spot-Roboter, der bei Inspektionen industrieller Anlagen eingesetzt wird. Sie kombiniert räumliches Schlussfolgern und Codeausführung, um Druckanzeigen mit hoher Präzision zu interpretieren.

Verfügbarkeit: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio und ein Startnotebook auf GitHub Colab.

🔗 Google-DeepMind-Blog 🔗 Ankündigungstweet


GLM-5.1 — Z.ai öffnet sein agentisches Modell unter MIT-Lizenz

7. April (nachgereichte Ankündigung — beim Scan der vergangenen Woche übersehen) — Z.ai (ehemals ZhipuAI) hat GLM-5.1 veröffentlicht, sein neues Flaggschiffmodell für agentisches Codieren (agentic coding), verfügbar als Open Source unter MIT-Lizenz.

Leistungen auf Code-Benchmarks:

BenchmarkGLM-5.1GLM-5Claude Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-Bench Pro58,455,157,357,754,2
NL2Repo42,735,949,841,333,4
Terminal-Bench 2.063,556,265,468,5

GLM-5.1 belegt Platz 1 unter den Open-Source-Modellen und weltweit Platz 3 bei SWE-Bench Pro, Terminal-Bench und NL2Repo.

Der entscheidende Unterschied: der lange Horizont. Frühere Modelle, einschließlich GLM-5, verbessern ihre Leistung zunächst schnell und erreichen dann ein Plateau. GLM-5.1 ist darauf ausgelegt, auf agentischen Aufgaben über deutlich längere Zeiträume effizient zu bleiben: Es kann 8 Stunden autonom arbeiten und seine Strategien über Tausende von Tool-Aufrufen hinweg verfeinern.

Drei Szenarien veranschaulichen diese Fähigkeit:

  • Optimierung einer Vektordatenbank über 600 Iterationen: GLM-5.1 erreicht 21.500 Anfragen pro Sekunde auf VectorDBBench, also das 6-Fache des besten Ergebnisses, das in einer 50-Runden-Session erzielt wurde.
  • Optimierung von GPU-Kernen über 1.000+ Runden: Beschleunigung um das 3,6-Fache auf KernelBench Level 3.
  • Erstellung eines Linux-Desktops in 8 Stunden: Ausgehend von einer einfachen natürlichen Spracheingabe erzeugt GLM-5.1 eine vollständige Desktop-Umgebung im Browser (Dateimanager, Terminal, Editor, Systemmonitor).

Verfügbarkeit: Open-Source-Weights auf HuggingFace (zai-org/GLM-5.1), API auf api.z.ai und BigModel.cn, kompatibel mit Claude Code, Cline, Roo Code, Kilo Code und OpenCode.

🔗 GLM-5.1-Blog 🔗 Ankündigungstweet


Codex CLI v0.120.0 — Echtzeit-Streaming für Agenten

11. April — Die Version 0.120.0 des Codex CLI wird als Stable Release veröffentlicht. Sie bringt mehrere funktionale Verbesserungen:

FunktionDetail
Realtime V2Streamt den Fortschritt der Hintergrundagenten in Echtzeit und reiht die folgenden Antworten ein
Verbesserte TUI-HooksAktive Hooks werden separat angezeigt, die Historie abgeschlossener Hooks wird kompakter dargestellt
Thread-Titel im StatusBenutzerdefinierte TUI-Status können den umbenannten Thread-Titel enthalten
Code-Mode-AusgabeschemaCode-Mode-Tooldeklarationen enthalten jetzt die outputSchema-MCP-Details
SessionStart-HooksUnterscheidet zwischen durch /clear erstellten Sessions und Start oder Fortsetzung

Die Version enthält außerdem mehrere Fehlerbehebungen: Verwaltung erhöhter Windows-Sandboxes, Panics bei TLS-WebSocket-Verbindungen, Beibehaltung der Reihenfolge von Tool-Suchergebnissen.

🔗 Release v0.120.0


GitHub Copilot — drei neue Funktionen

Modellauswahl für Drittanbieter-Agenten

14. April — Es ist nun möglich, beim Start einer Aufgabe mit den Claude- (Anthropic) und Codex- (OpenAI) Agenten auf github.com das Modell auszuwählen.

AgentVerfügbare Modelle
ClaudeClaude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5
CodexGPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4

Inklusive im bestehenden Copilot-Abonnement (Business oder Enterprise), aber der Administrator muss die entsprechenden Richtlinien auf Unternehmens- oder Organisationsebene aktivieren.

🔗 Changelog zur Modellauswahl

Konfliktlösung bei Merge-Konflikten in drei Klicks

13. April — Auf Pull Requests mit Merge-Konflikten erscheint jetzt ein neuer Button “Fix with Copilot”. In drei Klicks löst der Copilot-Cloud-Agent die Konflikte, prüft, ob Build und Tests bestehen, und pusht anschließend aus seiner isolierten Cloud-Umgebung. Der Verweis @copilot in PRs ermöglicht es außerdem, fehlgeschlagene GitHub-Actions-Workflows zu korrigieren oder Code-Review-Kommentare zu bearbeiten. Verfügbar in allen kostenpflichtigen Copilot-Plänen.

🔗 Changelog zu Merge-Konflikten

Datenresidenz in den USA/EU und FedRAMP-Konformität

13. April — GitHub Copilot unterstützt jetzt die Datenresidenz für die Regionen USA und EU: Alle Inferenzen und zugehörigen Daten verbleiben in der vorgesehenen geografischen Zone. US-Regierungskunden profitieren zusätzlich von FedRAMP-Moderate-Konformität. Datenresident aufgegebene Anfragen tragen einen Aufschlag von 10 % auf den Multiplikator der Premium Requests. Gemini-Modelle werden noch nicht unterstützt (GCP bietet noch keine Inference-Endpoints mit Datenresidenz an). Japan und Australien stehen für 2026 auf der Roadmap.

🔗 Changelog zur Datenresidenz


Generative Medien — Runway, Luma, MiniMax, ElevenLabs

Runway Characters in Videoanrufen

14. April — Runway rollt ein Update für Characters aus, mit dem sich der eigene KI-Avatar in einen Zoom-, Google-Meet- oder Teams-Videoanruf schicken lässt. Der Ablauf: Character auswählen oder erstellen → Meeting-Link einfügen → auf “Join Meeting” klicken. Die Funktion, die seit dem 9. März zunächst als API für Entwickler verfügbar war, ist nun für alle Nutzer über die Runway-App zugänglich.

🔗 Runway-Tweet

Luma — Sprachdiktion und Logo-Animation

14. April — Luma Labs führt zwei neue Funktionen ein: die Sprachdiktion in seiner App (der Nutzer spricht, die Beschreibung wird in einen Generations-Prompt umgewandelt) und die kinematische Logo-Animation (Logo hochladen, der Agent erzeugt einen animierten, auf Branding ausgerichteten Einstieg).

🔗 Tweet zur Sprachdiktion · Tweet zur Logo-Animation

MiniMax — drei Open-Source-Music-Skills für Agenten

14. April — MiniMax veröffentlicht drei Music Skills für Agenten als Open Source: minimax-music-gen (Erzeugung eines vollständigen Stücks aus einem Prompt, mit automatischer Auswahl zwischen Original, Instrumental und Cover), buddy-sings (der KI-Agent singt als stimmlicher Begleiter) und Playlist curation (Playlist-Kuration aus der Bibliothek des Nutzers). Diese Komponenten sind für die Integration in M2.7-Agenten gedacht.

🔗 MiniMax-Tweet

ElevenLabs — 100 Millionen Dollar an annualisiertem Nettowiederkehrumsatz in Q1 2026

13. April — CEO Mati Staniszewski kündigt an, dass ElevenLabs in Q1 2026 mehr als 100 Millionen Dollar an annualisiertem Nettowiederkehrumsatz hinzugefügt hat — das bisher beste Quartal. Das Wachstum wird durch Unternehmenspartnerschaften getragen (Klarna, Revolut, Deutsche Telekom, Toyota).

🔗 Tweet des ElevenLabs-CEO


Was das bedeutet

Die Routinen in Claude Code stellen einen Paradigmenwechsel dar: Das Entwicklungstool reagiert nicht mehr nur auf interaktive Anfragen, sondern kann nun geplante oder reaktive Initiativen in der Infrastruktur eines Projekts ergreifen. Die Kombination aus scheduled + webhook macht Claude Code zu einem dauerhaften Agenten in einem Repository, bei minimalen Einrichtungskosten.

An der Open-Source-Front bestätigt GLM-5.1, dass chinesische agentische Modelle auf dem Niveau der besten proprietären Modelle bei Coding-Benchmarks angekommen sind. Die Fähigkeit, einen 8-stündigen Horizont autonomer Arbeit aufrechtzuerhalten — mit Tausenden von Tool-Aufrufen — eröffnet konkrete Möglichkeiten für intensiv optimierende Aufgaben, die traditionelle Modelle in einer einzigen Sitzung nicht bewältigen können.

Gemini Robotics-ER 1.6 veranschaulicht einen anderen Trend: allgemeine KI-Modelle, die an die physischen Zwänge der realen Welt angepasst sind, wobei die Zusammenarbeit zwischen Software und Hardware (Boston Dynamics/Spot) neue Fähigkeiten hervorbringt, etwa das Ablesen industrieller Instrumente.


Quellen

Dieses Dokument wurde aus der fr-Version in die Sprache de mit dem Modell gpt-5.4-mini übersetzt. Weitere Informationen zum Übersetzungsprozess finden Sie unter https://gitlab.com/jls42/ai-powered-markdown-translator