Die KI-Nachrichten dieser Periode werden von drei starken Themen geprägt. Im Bereich Entwicklerwerkzeuge führt Claude Code v2.1.71 den Befehl /loop ein, um wiederkehrende Aufgaben bis zu 3 Tage zu planen, begleitet von über 40 Fixes. GitHub Copilot VS Code v1.110 bringt ein großes Update mit agent plugins, browser-basierten Agententools und gemeinsamem Speicher. Im Bereich generative Medien startet Pika seine AI Selves (videobasierte digitale Zwillinge) und Luma präsentiert seine multimodalen kreativen Agents, angetrieben von Unified Intelligence.
Claude Code v2.1.71 — Der Befehl /loop und 40+ Fixes
7. März — Boris Cherny, Verantwortlicher für Claude Code, kündigt die Veröffentlichung des Befehls /loop an, eine wichtige Funktion von Claude Code v2.1.71. /loop ist ein integrierter Skill (built-in skill), mit dem sich wiederkehrende Aufgaben für einen Zeitraum von bis zu 3 Tagen planen lassen. Der Befehl akzeptiert ein Intervall (z. B. 5m) und ein Prompt, das die auszuführende Aufgabe beschreibt, und nutzt die in dieser Version hinzugefügten Cron-Planungstools.
Konkrete Anwendungsbeispiele:
| Befehl | Aktion |
|---|---|
/loop babysit all my PRs | Überwacht PRs, behebt fehlschlagende Builds und antwortet auf Kommentare über einen worktree-Agenten |
/loop every morning use the Slack MCP | Erstellt eine morgendliche Zusammenfassung der Slack-Nachrichten |
/loop 5m check the deploy | Prüft den Status des Deployments alle 5 Minuten |
Die Ankündigung erzeugte großes Engagement: 1,8 Millionen Aufrufe, 12.000 Likes und 8.000 Lesezeichen in weniger als 24 Stunden.
Parallel enthält die Version über 40 Bugfixes:
| Kategorie | Korrekturen |
|---|---|
| Stabilität | Einfrieren von stdin in langen Sessions, 5–8-sekündiges Start-Einfrieren im Zusammenhang mit Voice-Mode (CoreAudio), UI-Einfrieren beim Start mit den Connectors von claude.ai (OAuth-Refresh) |
| Behobene Bugs | Geforkte Konversationen (/fork) teilen dieselbe Plan-Datei, Erkennung der Chrome-Extension bleibt auf “not installed” hängen, Clipboard beschädigt nicht-ASCII-Texte (CJK, Emoji) unter Windows/WSL |
| Performance | Reduzierung der Prompt-Input Re-Renders um 74 %, Reduzierung des Startspeichers um 426 KB, Lazy-Loading des nativen Bildprozessors |
| Verbesserungen | Bridge-Reconnect nach Sleep in Sekunden statt Minuten, Spark-Icon in der VS Code-Aktivitätsleiste, vollständige Markdown-Ansicht für Pläne, native MCP-Serververwaltungsdialoge in VS Code |
Veröffentlicht heute: /loop. /loop ist eine leistungsstarke neue Methode, wiederkehrende Aufgaben zu planen, für bis zu 3 Tage am Stück.
🇩🇪 Heute veröffentlicht: /loop. /loop ist eine leistungsstarke neue Möglichkeit, wiederkehrende Aufgaben für bis zu 3 Tage zu planen. — @bcherny auf X
🔗 Ankündigung /loop 🔗 Changelog von Claude Code v2.1.71
Lokal geplante Aufgaben in Claude Code Desktop
6. März — Thariq (Anthropic-Team) kündigt die Einführung lokaler geplanter Aufgaben (local scheduled tasks) in Claude Code Desktop an. Diese Funktion ermöglicht das Erstellen von Zeitplänen für Aufgaben direkt über die grafische Benutzeroberfläche der Desktop-Anwendung — das visuelle Pendant zum Befehl /loop, der in der CLI verfügbar ist.
Der Tweet, den Boris Cherny erneut geteilt hat, erhielt 3,5 Millionen Aufrufe und 13.000 Likes. Beide Funktionen (Desktop und CLI) verfolgen dasselbe Ziel — die Automatisierung wiederkehrender Aufgaben — bieten aber zwei komplementäre Schnittstellen: eine grafische für Desktop und eine Kommandozeilen-Schnittstelle für /loop.
🔗 Ankündigung geplante Aufgaben Desktop
GitHub Copilot VS Code v1.110 — agent plugins, browser-Tools und geteilter Speicher
6. März — GitHub veröffentlicht das Februar-Release von Copilot für VS Code (v1.110), ein großes Update, das Copilot in eine erweiterbare agentische Plattform verwandelt. Die Neuerungen gliedern sich in drei Bereiche.
Agenten programmieren
| Funktion | Beschreibung |
|---|---|
| Hooks | Code bei Schlüsselereignissen im Lebenszyklus des Agenten ausführen (Policies, Auto-Lint, Blockieren von Befehlen) |
| Conversation Fork | Von einem Checkpoint aus verzweigen, um eine Alternative zu erkunden |
| Auto-approve | Umschalten von /autoApprove oder /yolo mit Terminal-Sandboxing |
| Warteschlange | Nachrichten senden, während der Agent arbeitet |
Agenten erweitern
| Funktion | Beschreibung |
|---|---|
| Agent plugins (experimentell) | Vorgepackte Bundles aus Skills, Tools, Hooks und MCP-Servern |
| Browser-basierte Agententools (experimentell) | Navigieren, Klicken, Screenshots machen, Änderungen verifizieren |
| Integrierte Copilot CLI | Diff-Tabs, Synchronisation vertrauenswürdiger Ordner, Senden von Snippets |
| Erstellung von Anpassungen | /create-* für Prompts, Skills, Agenten, Hooks |
Kontext für Agenten
| Funktion | Beschreibung |
|---|---|
| Geteilter Speicher | Zwischen Copilot coding agent, Copilot CLI und Code-Review |
| Persistente Pläne | Überleben Kompaktionen und Durchläufe |
| Unteragent Explore | Parallelisierte Codebase-Suche durch leichte Modelle |
| Kontextkompaktion | Automatisch + manueller /compact |
| Umgang mit großen Outputs | Schreiben auf die Festplatte statt in den Kontext |
Produktivität in VS Code
Das grafische Kitty-Protokoll kommt für hochauflösende Bilder im Terminal. Der Model Picker wurde mit Suche und Sektionen neu gestaltet, und die AI-Coauthor-Zuweisung wird für Commits hinzugefügt.
Dieses Release markiert eine signifikante Entwicklung: Copilot beschränkt sich nicht mehr auf Code-Vervollständigungen, sondern wird zu einer Plattform für erweiterbare Agenten via plugins, mit Web-Navigationsfähigkeiten und gemeinsamem Speicher zwischen CLI, IDE und Code-Review.
🔗 Copilot VS Code v1.110 (February release)
Figma MCP Server — Generierung von Design-Layern aus VS Code
6. März — GitHub Copilot-Nutzer können jetzt den Figma MCP Server verbinden, um eine bidirektionale Brücke zwischen Design und Code herzustellen. Der Workflow ist komplett: Design-Kontext in den Code ziehen, Code aus einem Design generieren, die gerenderte UI als editierbare Frames zurück zu Figma senden und dann die Updates wieder zurückziehen, um zu iterieren.
Die UI-Capture nach Figma erfordert den entfernten MCP-Server. Die Funktion ist derzeit in allen Figma-Plänen verfügbar, zunächst in VS Code, mit baldiger Einführung in der Copilot CLI.
Pika AI Selves — Videodigitale Zwillinge mit persistentem Gedächtnis
20. Februar — Pika Labs startet AI Selves, eine neue Produktkategorie: videobasierte digitale Zwillinge (digital twins) mit persistentem Gedächtnis. Der Nutzer lädt Referenzmaterial hoch und Pika erstellt einen persistenten Video-Avatar, der sich bewegt, spricht und wie der Nutzer reagiert.
Die AI Selves integrieren sich in Pikas bestehende Text-to-Video- und Motion-Control-Pipeline. Der Avatar kann in filmischen Szenen, Produktdemos, Erklärvideos und Social-Content erscheinen. Besonderheit: Die AI Selves verfügen über ein persistentes Gedächtnis und passen sich Persönlichkeit sowie Kommunikationsstil des Nutzers an.
Die Launch-Kampagne fiel durch ihren ungewöhnlichen Ansatz auf: ein retro-futuristischer Infomercial-Stil begleitet von einem „Twitter Storm“, bei dem die AI Selves der Pika-Mitarbeitenden autonom getwittert haben.
Luma Agents — Unified Intelligence für multimodale Kreation
5. März — Luma Labs positioniert sich neu mit dem Start von Luma Agents, multimodalen kreativen Agenten, die mit Text, Bild, Video und Audio arbeiten können. Die Architektur basiert auf Unified Intelligence und dem Modell Uni-1, das enges Zusammenspiel von Reasoning und Rendering statt einer Trennung von Denken und Erzeugen anstrebt.
Die Agenten koordinieren mehrere spezialisierte Modelle:
| Modell | Bereich |
|---|---|
| Ray 3.14 (Luma) | Video |
| Veo 3 (Google) | Video |
| Nano Banana Pro | Bild |
| Seedream (ByteDance) | Bild |
| ElevenLabs | Stimme |
Der Kontext des ursprünglichen Briefings bleibt bis zur finalen Lieferung erhalten, was Lumas Ansatz von den üblichen fragmentierten Workflows unterscheidet. Erste Enterprise-Partner sind Publicis Groupe und Serviceplan Group. Der Zugang erfolgt über API mit schrittweiser Ausrollung.
Dieser Launch markiert eine bedeutende Neuausrichtung für Luma: von einer „Dream Machine“ (Video-Generation) hin zu einer Plattform integrierter kreativer Agents.
🔗 Luma Agents — TechCrunch 🔗 Ankündigung Luma Agents
Stability AI x WPP — Strategische Partnerschaft
5. März — Stability AI kündigt eine strategische Partnerschaft und eine Investition von WPP, der globalen Kommunikationsgruppe, an. Ziel ist die Einleitung einer neuen Innovationsphase an der Schnittstelle von Kreativität und Technologie mit Fokus auf Medien und Entertainment.
Was das bedeutet
Die Periode vom 5. bis 8. März zeigt zwei prägende Trends.
Automatisierung geht über die einzelne Runde hinaus. Claude Code /loop und die geplanten Aufgaben im Desktop bringen die Idee wiederkehrender Tasks in KI-Entwicklerwerkzeuge — PRs drei Tage lang überwachen, tägliche Zusammenfassungen erstellen, Deployments alle fünf Minuten prüfen. Parallel dazu setzt Copilot VS Code v1.110 einen Meilenstein mit agent plugins, browser-basierten Agententools und gemeinsamem Speicher zwischen CLI, IDE und Code-Review. Code-Assistenten antworten nicht mehr nur auf eine Anfrage: sie können jetzt planen, iterieren und ihren Kontext zwischen Sessions speichern.
Generative Medien bewegen sich zu Agenten und Avataren. Pika AI Selves führt videobasierte digitale Zwillinge mit persistentem Gedächtnis ein, während Luma sich von reiner Videoerzeugung zu multimodalen kreativen Agenten mit Uni-1 wandelt. Gemeinsamer Nenner ist die Persistenz von Identität und Kontext. Diese Tools erzeugen keine einzelnen Clips mehr — sie wahren Konsistenz über Produktionen hinweg. Die WPP-Investition in Stability AI bestätigt das Interesse der Werbebranche an diesen Technologien.
Quellen
- Claude Code /loop — @bcherny
- Claude Code /loop — Link zur Doku
- Claude Code Changelog v2.1.71
- Geplante Aufgaben Desktop — @trq212
- Copilot VS Code v1.110
- Figma MCP Server
- Pika AI Selves
- Luma Agents — TechCrunch
- Luma Agents — BusinessWire
- Luma Agents — @LumaLabsAI
- Stability AI x WPP
Dieses Dokument wurde von der fr-Version in die Sprache en mit dem Modell gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator