Suchen

Claude Code NO_FLICKER und v2.1.89, Copilot /fleet, Perplexity Computer in Slack

Claude Code NO_FLICKER und v2.1.89, Copilot /fleet, Perplexity Computer in Slack

Der 1. April 2026 bündelt ungewöhnlich viele substanzielle Ankündigungen: Claude Code v2.1.89 bringt eine neue flimmerfreie Rendering-Engine und Computer Use im Terminal, Copilot CLI führt /fleet zur parallelen Orchestrierung von Agenten ein, und Perplexity Computer landet in Slack mit behaupteten 776 Millionen Dollar an delegierter Arbeit. Als Bonus verdienen zwei gut gemachte Aprilscherze einen eigenen Abschnitt.


Claude Code v2.1.89: NO_FLICKER und neue Berechtigungen

1. April 2026 — Version 2.1.89 von Claude Code führt den Modus NO_FLICKER ein, eine experimentelle Rendering-Engine für das Terminal, die ein seit langem von der Community gemeldetes Problem behebt.

NO_FLICKER-Modus

Aktiviert über die Umgebungsvariable CLAUDE_CODE_NO_FLICKER=1, virtualisiert dieser Renderer das gesamte Viewport und hängt Tastatur- und Mausereignisse direkt auf Anwendungsebene ein. Ergebnis: kein Flimmern mehr, kein unkontrolliertes Scrollen und Terminal-Unterstützung für Mauserignisse. Die Mehrheit der internen Anthropic-Nutzer bevorzugt diesen Modus gegenüber dem klassischen Rendering. Er bleibt experimentell und bringt einige technische Kompromisse in Bezug auf die Terminal-Architektur mit sich.

Zum Aktivieren:

CLAUDE_CODE_NO_FLICKER=1 claude

Neue Hook- und Berechtigungsfunktionen

Version 2.1.89 bringt außerdem mehrere Verbesserungen für automatisierte Workflows:

FunktionalitätBeschreibung
Berechtigung "defer" (Hooks PreToolUse)Headless-Sessions können an einen Tool-Aufruf pausieren und mit -p --resume fortsetzen
Hook PermissionDeniedWird nach einer Ablehnung durch den Classifier im Auto-Modus ausgelöst; {retry: true} startet die Aktion neu
MCP_CONNECTION_NONBLOCKING=trueFür den Modus -p: ignoriert das Warten auf die MCP-Verbindung (limitierte Wartezeit 5 Sekunden)
Benannte Sub-AgentenSichtbar in der Autovervollständigung @ für Erwähnungen
Abgelehnte Befehle (Auto-Modus)Zeigen eine Benachrichtigung an + erscheinen in /permissions → Reiter „Recent“, erneut ausführbar mit r

Unter den Fixes: Auflösung symbolischer Links in Berechtigungsregeln, Umgang mit CRLF-Dateien unter Windows, Korrektur des StructuredOutput-Schema-Caches und Behebung eines Memory-Leaks in langen Sessions.

Ship ship ship

🇩🇪 Wir liefern, wir liefern, wir liefern@bcherny auf X

🔗 Ankündigung @bcherny 🔗 Dokumentation Fullscreen rendering


Computer Use im Claude Code CLI

30. März 2026 — Claude Code integriert nun das Computer Use direkt im Terminal. Claude kann Anwendungen öffnen, in der grafischen Oberfläche navigieren und das gerade Erstellte testen, ohne den CLI zu verlassen.

Die Funktion ist als Research Preview auf den Pro- und Max-Plänen (nur macOS) verfügbar. Sie wird mit dem Befehl /mcp in einer Claude Code-Session aktiviert. Sie unterstützt alles, was auf einem Mac geöffnet werden kann: kompilierte SwiftUI-Anwendungen, lokale Electron-Builds, Browser und mehr.

Ziel ist es, die Schleife zwischen Code-Generierung und visueller Validierung zu schließen — Claude schreibt und überprüft dann visuell das Ergebnis in der Oberfläche.

Der Ankündigungs-Tweet erreicht über 15,4 Millionen Aufrufe.

🔗 Ankündigung @claudeai


Claude Code — GitHub-Verbindung via /web-setup

31. März 2026 — Ein neuer Befehl /web-setup ermöglicht das Verknüpfen des lokalen GitHub-Kontos mit Claude Code Web (claude.ai/code) ohne manuelle Konfiguration. Der Befehl, in einer lokalen claude-Session ausgeführt, verwendet vorhandene GitHub-Anmeldeinformationen, um die Verbindung automatisch einzurichten.

🔗 claude.ai/code


GitHub Copilot CLI: /fleet für parallele Agenten

1. April 2026 — GitHub erweitert Copilot CLI um den Befehl /fleet, der die Orchestrierung mehrerer KI-Agenten gleichzeitig ermöglicht, statt Aufgaben sequentiell abzuarbeiten.

Ein Orchestrator zerlegt das Ziel in Arbeitspakete (work items) mit ihren Abhängigkeiten und verteilt unabhängige Aufgaben an mehrere Sub-Agenten, die parallel arbeiten. Jeder Sub-Agent hat seinen eigenen Kontext, teilt jedoch das Dateisystem. Der Orchestrator überwacht den Fortschritt, verteilt folgende Wellen und synthetisiert die Endergebnisse.

Geeignete Anwendungsfälle:

  • Refactoring mehrerer Dateien gleichzeitig
  • Generierung von Dokumentation für mehrere Komponenten
  • Implementierung einer Funktion, die API, UI und Tests in einem Durchgang abdeckt

🔗 GitHub Blog: Run multiple agents at once with /fleet


GitHub Copilot Cloud Agent: Recherche, Plan und Code

1. April 2026 — Der Copilot Cloud Agent (ehemals “Copilot coding agent”) erweitert seine Fähigkeiten weit über die reine Erstellung von Pull Requests hinaus. Drei neue Modi sind verfügbar:

ModusBeschreibung
PR-FlusskontrolleDer Agent generiert Code auf einem Branch ohne automatisch eine PR zu erstellen — der Entwickler prüft die Diffs vor der Entscheidung
ImplementierungspläneMit “Ask for a plan” im Prompt legt der Agent seine Vorgehensweise dar, bevor er eine einzige Zeile schreibt
Tiefe RechercheDer Agent untersucht ein gesamtes Repository, um Fragen im Kontext des Projekts beantwortbar zu machen

Diese Funktionen sind über den Reiter Agents des Repos und Copilot Chat auf allen kostenpflichtigen Copilot-Plänen verfügbar. Für Business- und Enterprise-Konten ist eine Aktivierung durch einen Administrator erforderlich.

🔗 GitHub Changelog: Research, plan and code with Copilot cloud agent


Perplexity Computer in Slack

1. April 2026 — Perplexity veröffentlicht Computer in Slack, nach mehreren Wochen interner Nutzung. Computer ist ein Orchestrator von KI-Agenten, der ein Team von Agenten steuert, um komplexe Aufgaben direkt in Slack-Kanälen und Direktnachrichten auszuführen.

Vorgestellte Zahlen

In vier Wochen interner Nutzung mit 300 Mitarbeitenden behauptet Perplexity, 1,6 Millionen Dollar an Arbeit geleistet zu haben. Seit der Öffnung für Max-Abonnenten führen Benchmarks von McKinsey, Harvard, MIT, BCG und Nielsen zu einer kumulierten Summe von 776 Millionen Dollar an äquivalenter Arbeit, die für Enterprise-, Pro- und Max-Abonnenten erbracht wurde.

Funktionsweise

Man erwähnt einfach @Computer in einem Kanal oder sendet eine Direktnachricht. Der Agent kann tiefgehende Webrecherchen durchführen, Daten analysieren, Inhalte generieren und auf mehr als 400 Connectors zugreifen (GoHighLevel, Snowflake u. a.). Er orchestriert zudem Claude Code und GPT Codex für Code-Aufgaben.

Ein neuer MCP-Connector gibt Computer erweiterten Zugriff auf den Slack-Kontext: Workspace-Suche, Lesen von Threads, Senden von Nachrichten. In Slack gestartete Aufgaben können nahtlos auf der Perplexity-Webplattform fortgesetzt werden, ohne Kontextverlust.

Verfügbarkeit: Max-, Pro- und Enterprise-Abonnenten über den Slack Marketplace.

🔗 Perplexity Blog: Computer in Slack


Codex CLI 0.118.0

31. März 2026 — Version 0.118.0 der Codex CLI bringt vier neue Features und mehrere Bugfixes.

NeuheitBeschreibung
Windows Network SandboxWendet Egress-Regeln auf Betriebssystemebene an, ohne Umgebungsvariablen
Device Code Flow (app-server)Zuverlässige ChatGPT-Verbindung, auch wenn Redirect im Browser nicht möglich ist
codex exec + stdinAkzeptiert gleichzeitig stdin-Eingabe und einen Prompt in der Kommandozeile
Dynamische Bearer-TokensAnbieter benutzerdefinierter Modelle können kurzlebige Tokens ohne statische Anmeldeinformationen auffrischen

Unter den Fixes: Schutz lokaler .codex-Dateien ab Erstellung, Zuverlässigkeitsverbesserung des Linux-Sandboxes, Wiederherstellung mehrerer TUI-Workflows im App-Server-Modus (/copy, /resume, /agent), robusterer MCP-Start und Behebung eines Zugriffsrechtsproblems unter Windows beim Anwenden von Patches.

npm install -g @openai/codex@0.118.0

🔗 Codex CLI Changelog


Z.ai: GLM-5V-Turbo, Vision und Code

1. April 2026 — Z.ai (das Labor hinter den GLM-Modellen) kündigt GLM-5V-Turbo an, ein Vision Coding Model, das multimodale Eingaben nativ versteht, um Code zu generieren und zu modifizieren.

Im Gegensatz zu klassischen Codemodellen verarbeitet GLM-5V-Turbo direkt Bilder, Videos, Design-Mockups und Dokumente, um den entsprechenden Code zu erzeugen. Z.ai behauptet die besten Ergebnisse auf Benchmarks für multimodales Codieren, Tool Use und GUI Agents.

Das Modell ist explizit dafür ausgelegt, sich in agentische Workflows mit Claude Code und OpenClaw zu integrieren, statt als reines Standalone-Modell zu fungieren. Es ist sofort über chat.z.ai und die dokumentierte API verfügbar. Ein Early-Access-Programm “Coding Plan” ist per Formular offen.

🔗 Ankündigung @Zai_org


GrandCode/Qwen: drei aufeinanderfolgende Siege bei Codeforces

1. April 2026 — Das Team GrandCode meldet, dass sein agentisches KI-System, angetrieben von Qwen, in den letzten drei Live-Wettbewerben auf Codeforces (Rounds 1087, 1088 und 1089) den ersten Platz belegte und damit alle menschlichen Teilnehmer, inklusive der weltbesten Spieler, übertraf.

Codeforces ist eine der Referenzplattformen für Competitive Programming. Drei aufeinanderfolgende Runden gegen die Weltelite zu gewinnen, ist ein Novum für ein KI-System. Alibaba Qwen bezeichnet das Ereignis als „Wendepunkt für die Intelligenz des Codierens“.

Huge congratulations to the @GrandCode team — powered by Qwen — for winning 3 consecutive Codeforces rounds (Round 1087, 1088, and 1089), surpassing all human participants.

🇩🇪 Herzlichen Glückwunsch an das @GrandCode-Team — angetrieben von Qwen — zum Sieg in 3 aufeinanderfolgenden Codeforces-Runden (Rounds 1087, 1088 und 1089), wobei alle menschlichen Teilnehmer übertroffen wurden.@Alibaba_Qwen auf X

🔗 Ankündigung @Alibaba_Qwen


Runway Builders und Characters API

31. März 2026 — Runway startet Runway Builders, ein Programm für Startups in der Seed- bis Series-C-Phase, die Produkte auf Basis generativer Video- und Echtzeit-konversationaler KI entwickeln.

Der Start geht einher mit Runway Characters, einer API für Echtzeit-Videoagenten, betrieben vom GWM-1 (General World Model) von Runway. Teilnehmende Startups erhalten bis zu 500.000 API-Credits, priorisierten Zugang zu höheren Rate-Limits, eine private Slack-Community und direkten Support.

Die Gründungscohort umfasst Cartesia, MSCHF, Oasys Health, Spara, Subject und Supersonik, aktiv in Kundensupport, synthetischen Medien und interaktiver KI. Die Characters-API ist seit dem 31. März auch in der iOS-App verfügbar.

🔗 Runway Blog: Introducing Runway Builders 🔗 Ankündigung @runwayml


Anthropic × Australien: MOU und AUD 3 Millionen an API-Credits

31. März 2026 — Anthropic hat ein Memorandum of Understanding mit der australischen Regierung unterzeichnet. CEO Dario Amodei reiste nach Canberra, um das Abkommen mit Premierminister Anthony Albanese zu formalisieren.

Das MOU etabliert eine Zusammenarbeit mit dem Australian Institute for AI Safety: Datenaustausch zu Modellfähigkeiten, gemeinsame Sicherheitsbewertungen und Zugang zu Daten des Anthropic Economic Index zur Nachverfolgung der KI-Adoption in der Wirtschaft.

Anthropic stellt AUD 3 Millionen an API-Credits vier Forschungseinrichtungen zur Verfügung:

InstitutionBereich
Australian National University (ANU)Gen-Sequenzierung für seltene Krankheiten
Murdoch Children’s Research InstitutePädiatrische Medizin und Stammzellen
Garvan Institute of Medical ResearchKlinische Genomik, Diagnostik seltener Erkrankungen
Curtin Institute for Data ScienceInterdisziplinäre Forschung (Gesundheit, Recht, Ingenieurwesen)

Ein Deep-Tech-Startup-Programm bietet bis zu 50.000 USD an API-Credits (Drug Discovery, Materialwissenschaften, Klimamodellierung). Die Ankündigung deutet auch auf die Eröffnung des Büros in Sydney hin, das vierte Büro von Anthropic in der Asien-Pazifik-Region.

🔗 Offizielle Anthropic-Ankündigung


Kurz notiert

GitHub Mobile — Überarbeitetes Copilot-Tab (1. April) — Die GitHub-Mobile-App (iOS und Android) erhält eine Überarbeitung des Copilot-Tabs: direkter Zugriff auf Sessions und Verlauf, native Session-Logs ohne Webbrowser, filterbare Sessions nach Status und vollständige Steuerungsfunktionen (PRs erstellen, Ergebnisse prüfen, eine aktive Session stoppen).

🔗 GitHub Mobile Changelog

GitHub Mobile — Agenten-Zuweisung aus Issues (1. April) — Im Issue-Menü auf iOS und Android erscheint die Option „Assign an Agent“, mit der Möglichkeit, benutzerdefinierte Anweisungen hinzuzufügen und ein anderes Repo für die Delegation auszuwählen.

🔗 GitHub Mobile Changelog

Deprecation von Claude Sonnet 4 in Copilot (31. März) — GitHub Copilot kündigt die Deprecation von Claude Sonnet 4 zum 1. Mai 2026 an; ersetzt wird es durch Claude Sonnet 4.6 in allen Copilot-Erfahrungen (Chat, In-line-Edits, Ask/Agent-Modi, Code-Completions). Enterprise-Administratoren müssen ihre Modellrichtlinien vor diesem Datum aktualisieren.

🔗 GitHub Copilot Changelog

GPT-5.4 mini in Copilot Student (1. April) — GPT-5.4 mini ist jetzt über die automatische Modellwahl (Auto) in Copilot Chat für Nutzer des Copilot Student-Plans verfügbar, in VS Code, Visual Studio, JetBrains, Xcode und Eclipse.

🔗 GitHub Copilot Changelog NotebookLM × Royal Society: Notebook Benjamin Franklin (31. März) — NotebookLM veröffentlicht ein hervorgehobenes Notebook in Zusammenarbeit mit Google Arts & Culture und der Royal Society, das Benjamin Franklin gewidmet ist. Es ermöglicht die Interaktion mit seinem Werk, seinen persönlichen und beruflichen Beziehungen und den Aufbau einer neuen Perspektive auf diesen Universalgelehrten.

🔗 @NotebookLM auf X

Google AI Rückblick — März 2026 (1. April) — Google veröffentlicht seinen monatlichen Rückblick, der unter den hier noch nicht behandelten Ankündigungen hervorhebt: Ask Maps (Frage‑Antwort‑Modus für Google Maps), das vibe coding in Google AI Studio mit dem Agenten Antigravity, und die Ausweitung der Personal Intelligence auf AI Mode, Chrome und die Gemini‑App.

🔗 Blog Google AI — März 2026


Aprilscherze

Claude Code /buddy — das offizielle Easter Egg

Die Version 2.1.89 von Claude Code liefert ein offizielles Easter Egg: der Befehl /buddy lässt eine kleine Kreatur schlüpfen, die sich im Terminal niederlässt und dir beim Coden zuschaut. Der CHANGELOG ist eindeutig: “is here for April 1st”. Das ist kein Witz über den Witz — die Funktionalität funktioniert tatsächlich in der veröffentlichten Version. Ein Easter Egg in der Produktion, am 1. April, mit einem Hinweis im offiziellen Changelog. Hut ab.

Suno Keyboard v1 — die fiktive Musik‑Tastatur

Suno veröffentlichte am 1. April einen Tweet, der “Suno Keyboard v1” ankündigt, präsentiert als “neues Feature” und begleitet von einem Demo‑Video. Mit 15.600 Aufrufen und größtenteils sarkastischen Antworten ist das Produkt eindeutig fiktiv — eine physische Musiktastatur für eine KI‑Musikgenerationsplattform. Amüsant, aber nicht besonders subtil.

🔗 Tweet @suno


Was das bedeutet

Der 1. April 2026 wirkt weniger wie ein Aprilscherz als vielmehr wie ein Tag intensiver Auslieferungen. Im Bereich Entwicklerwerkzeuge konvergieren drei Signale: Claude Code schließt die Schleife zwischen Generierung und visueller Validierung mit dem Computer Use im Terminal, Copilot CLI führt eine parallele Orchestrierung von Agents mit /fleet ein, und Perplexity Computer zeigt, dass ein Agent‑Orchestrator direkt in bereits eingesetzte Team‑Kommunikationstools (Slack) integriert werden kann. Diese drei Produkte beantworten dieselbe Frage: wie man die Zeit zwischen der Absicht des Entwicklers und dem verifizierten Ergebnis verkürzt.

Der Sieg von GrandCode/Qwen in drei aufeinanderfolgenden Codeforces‑Runden ist ein konkretes Indiz dafür, dass agentische Systeme ein Leistungsniveau in der kompetitiven Programmierung erreichen, das selbst die besten Menschen nicht mehr systematisch erreichen können. Das ist kein Labor‑Benchmark mehr.

Auf Seiten von Anthropic bestätigt das australische MOU die Strategie, institutionelle Beziehungen zu Regierungen aufzubauen, parallel zu den kommerziellen Rollouts.


Quellen

Dieses Dokument wurde mit dem Modell gpt-5-mini aus der fr-Version in die en-Sprache übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator