Suchen

GitHub Copilot CLI-Plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ Fixes

GitHub Copilot CLI-Plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ Fixes

ai-powered-markdown-translator

Mit gpt-5.4-mini vom Fr ins De übersetzter Artikel.

Projekt auf GitHub ansehen ↗

GitHub Copilot erreicht einen neuen Meilenstein bei der Enterprise-Übernahme mit der zentralisierten Verwaltung von CLI-Plugins, während die April-Updates für VS Code BYOK, semantische Suche in allen Arbeitsbereichen und einen durchsuchbaren Chatverlauf bringen. Claude Code hält sein hohes Tempo mit 60 weiteren Fehlerbehebungen in dieser Woche aufrecht. Parallel dazu öffnet Luma AI die API seines Modells Uni-1.1, das im Human Preference Elo an der Spitze liegt, und Qwen3.6-35B-A3B erzielt auf dem ODinW-Benchmark ein Plus von 8,2 Punkten.


GitHub Copilot CLI — Vom Unternehmen verwaltete Plugins in Public Preview

6. Mai — GitHub startet in der Public Preview die zentralisierte Verwaltung von Copilot-CLI-Plugins für Unternehmen. Administratoren können nun Plugins (benutzerdefinierte Agenten, Fähigkeiten, Hooks, MCP-Konfigurationen) aus einer einzigen settings.json-Datei für alle Nutzer ihrer Organisation definieren und verteilen.

So funktioniert es in der Praxis:

ParameterWert
Konfigurationsdatei.github-private/.github/copilot/settings.json
Erforderliche PläneCopilot Business, Copilot Enterprise
StatusPublic Preview
InstallationAutomatisch bei der Authentifizierung

Copilot CLI zieht diese Einstellungen und wendet sie für alle lizenzierten Nutzer an. Plugins können benutzerdefinierte Agenten, Workflow-Hooks und MCP-Konfigurationen auf Organisationsebene enthalten. Falls das Unternehmen bereits eine Quelle für benutzerdefinierte Agenten über .github-private eingerichtet hatte, wird genau dieses Repository wiederverwendet. Administratoren können die Konfiguration auf der Seite Agents in den Enterprise-Einstellungen unter AI controls überprüfen.

Diese Funktion schließt eine wichtige Lücke zwischen der individuellen Nutzung von Copilot CLI und seinem Rollout auf Organisationsebene: Bislang musste jeder Entwickler seine Plugins manuell konfigurieren.

🔗 GitHub-Changelog-Ankündigung


GitHub Copilot in VS Code — April-Updates 2026 (v1.116–v1.119)

6. Mai — GitHub veröffentlicht die Zusammenfassung der Copilot-Updates für VS Code für die Versionen v1.116 bis v1.119 (April bis Anfang Mai 2026), nach dem Umstieg von VS Code auf wöchentliche Stable-Releases.

Intelligenterer Kontext:

FunktionStatus
Semantische Suche (alle Arbeitsbereiche)Verfügbar
githubTextSearch (grep über GitHub-Repositories)Verfügbar
/chronicle (lokaler Chatverlauf)Experimentell
Prompt-Cache + verzögertes Laden von ToolsVerfügbar

Die semantische Suche ist nun in allen Arbeitsbereichen aktiv, nicht mehr nur in indizierten Repositories. Das Tool githubTextSearch ermöglicht grep-ähnliche Abfragen über ganze GitHub-Repositories und Organisationen. Der experimentelle Befehl /chronicle erstellt eine lokale Datenbank des Chatverlaufs, um vergangene Sitzungen, betroffene Dateien und referenzierte PRs wiederzufinden.

Erweiterte Agent-Erfahrung:

FunktionStatus
BYOK (Business + Enterprise)Verfügbar
Integrated BrowserVerfügbar
Remote-CLI-ÜberwachungExperimentell
Zugriff auf offene TerminalsVerfügbar

BYOK (Bring Your Own Key) erlaubt es Copilot-Business- und Enterprise-Organisationen, ihre eigenen API-Schlüssel direkt in VS Code zu verbinden: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama und Foundry Local werden unterstützt. Agenten können in offenen Terminals lesen und schreiben (REPLs, interaktive Skripte). Die Funktion Integrated Browser ermöglicht es, Browser-Tabs in Echtzeit als Kontext für Agenten zu teilen. Copilot-CLI-Sitzungen können aus der Ferne über GitHub.com oder die mobile App gesteuert werden (experimentell).

🔗 GitHub-Changelog-Ankündigung


Claude Code — 60+ Zuverlässigkeitsfixes (Woche vom 8. Mai)

8. Mai — Das Claude-Code-Team veröffentlicht einen Thread mit mehr als 60 Fixes, die diese Woche ausgeliefert wurden, zusätzlich zu den 50+ der Vorwoche.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇩🇪 “Letzte Woche haben wir 50+ Zuverlässigkeitsfixes für Claude Code ausgeliefert. Diese Woche 60+ weitere. Flüssigere lange Sitzungen, eine effizientere Agent-Schleife, Authentifizierung, die in mehr Umgebungen funktioniert, und Terminal-Fixes.”@ClaudeDevs auf X

BereichBemerkenswerte Fixes
Stabilitätclaude -p akzeptiert >10 MB über stdin, Wiederaufnahme nach dem Standby
Agent-SchleifePrompt Cache für Subagenten, optionaler 1h-Cache über ENABLE_PROMPT_CACHING_1H
AuthentifizierungOAuth-Code direkt ins Terminal einfügen (WSL, SSH, Container)
MCPAutomatische Wiederverbindung + klarer Status in /mcp, begrenzter Speicher-Fix
Terminal-RenderingCursor-, VS-Code-, JetBrains-Scroll-Fix; Fix für japanische Zeichen

Um diese Fixes anzuwenden: claude update.

🔗 Claude-Code-Changelog


GitHub Copilot — Außerbetriebnahme von Grok Code Fast 1 (15. Mai)

8. Mai — GitHub kündigt die Außerbetriebnahme von Grok Code Fast 1 in allen Copilot-Umgebungen am 15. Mai 2026 an, also eine Woche nach der Ankündigung. Der Grund: Das Modell wird selbst von xAI außer Betrieb genommen.

ModellDatum der AußerbetriebnahmeVorgeschlagene Alternative
Grok Code Fast 115. Mai 2026GPT-5 mini, Claude Haiku 4.5

Copilot-Enterprise-Administratoren sollten sicherstellen, dass die alternativen Modelle vor diesem Datum in ihren Modellrichtlinien aktiviert sind. Die Umstellung nach der Außerbetriebnahme erfolgt automatisch — es ist keine zusätzliche Aktion erforderlich, um das Modell zu entfernen.

🔗 Ankündigung der Außerbetriebnahme


Google Health App — Fitbit wird zu Google Health mit Gemini-Coach

8. Mai — Die Fitbit-App entwickelt sich weiter und wird zur neuen Google Health-App. Dieses Redesign behält alle vorhandenen Fitbit-Funktionen bei und integriert einen personalisierten Gesundheitscoach, angetrieben von Gemini. Dieser Coach analysiert die Daten von Wearables, bevorzugten Gesundheits-Apps und medizinischen Unterlagen, um proaktive, auf jeden Nutzer zugeschnittene Gesundheitsempfehlungen zu geben.

Die App ist mit Fitbit- und Pixel-Watch-Uhren kompatibel und integriert sich mit Hunderten von Apps und Geräten von Drittanbietern.

🔗 @GoogleAI-Ankündigung


Gemini API — Multimodale File Search, Webhooks, Gemma 4 MTP 3x schneller

8. Mai — Die wöchentliche Zusammenfassung von @GoogleAI nennt drei Developer-Releases der Woche, 11 Tage vor der Google I/O:

FunktionDatumAuswirkung
Multimodale File Search5. MaiVerifizierbares multimodales RAG mit Seitenzitaten
Gemini API Webhooks4. MaiErsetzung von polling durch push-Benachrichtigungen
Gemma 4 MTP drafters5. MaiBis zu 3x schneller bei der Inferenz

Das File-Search-Tool unterstützt jetzt benutzerdefinierte Metadaten und Seitenzitate, was den Aufbau verifizierbarer RAG-Systeme (Retrieval-Augmented Generation) auf multimodalen Quellen ermöglicht. Webhooks machen die kontinuierliche Abfrage für lange Aufgaben überflüssig. Die MTP-(Multi-Token Prediction)-Beschleuniger für Gemma 4 bieten in Deployment-Workflows bis zu 3x mehr Inferenzgeschwindigkeit.

🔗 Google-Developers-Blog


Luma AI Uni-1.1 API — Öffnung für die Öffentlichkeit

5. Mai — Luma AI öffnet seine Uni-1.1-API und macht sein Modell für einheitliche Intelligenz (Unified Intelligence model) Entwicklern über eine REST-Schnittstelle zugänglich. Dieses Modell vereint Schlussfolgerung und Bildgenerierung in einer einzigen Architektur — im Gegensatz zum Standardansatz, bei dem mehrere getrennte Modelle zur Inferenz kombiniert werden.

MetrikWert
Human Preference Elo#1 (globale Generierung, Stil, referenzgeführte Ausgabe)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench räumliches SchlussfolgernSpitzenreiter
Referenzen pro AnfrageBis zu 9 Bilder
Generierungszeit~31 Sekunden pro Bild
ProduktionspartnerEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

Die API bietet zwei Hauptendpunkte: Generate Image (Text-zu-Bild mit bis zu 9 Referenzbildern, um Identität, Komposition oder Stil zu bewahren) und Modify Image (Bearbeitung in natürlicher Sprache). Python- und JavaScript/TypeScript-SDKs sind verfügbar. Zwei Preismodelle: Build (verbrauchsabhängige Abrechnung) und Scale (höhere Durchsatzgrenzen, dedizierter Support).

🔗 Luma-AI-Ankündigung


NVIDIA + SakanaAI — ICML-2026-Paper über TwELL Sparse-Kernels

8. Mai — NVIDIA AI und SakanaAI Labs veröffentlichen gemeinsam ein Forschungs-Paper, das für die ICML 2026 angenommen wurde und sich mit Sparse-Transformer-Kernels und Datenformaten befasst, die für die Ausführung auf modernen NVIDIA-GPUs optimiert sind. Das Projekt trägt den Namen TwELL.

Die zentrale Idee: Das menschliche Gehirn aktiviert nur die Neuronen, die für einen bestimmten Gedanken nötig sind. Auf Sprachmodelle übertragen bedeutet das eine selektive Berechnung aktiver Gewichte mittels strukturierter Sparsität, wodurch die Rechenlast sinkt, ohne die Leistung zu opfern. Diese Forschung steht im Einklang mit NVIDIAs Richtung hin zu effizienterer Inferenz, insbesondere für Mixture-of-Experts-(MoE)-Architekturen. Der Tweet erreichte 50.000 Aufrufe und 66 Reposts in der ML-Community.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8,2 Punkte auf dem ODinW-Benchmark

9. Mai — Tongyi Lab (Alibaba) kündigt einen Durchbruch bei der instruktionengeführten Objekterkennung (Instruction-Oriented Object Detection) mit dem Modell Qwen3.6-35B-A3B an. Im Gegensatz zur klassischen Objekterkennung, die nur visuelle Elemente lokalisiert, zielt dieser Ansatz darauf ab, Anweisungen in natürlicher Sprache semantisch zu verstehen, um die Erkennung zu steuern.

MetrikQwen3.5Qwen3.6-35B-A3BGewinn
ODinW score42.650.8+8.2 pts

Eine interaktive Demo ist auf ModelScope verfügbar.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1.200+ Sprachen für globale Inklusion

9. Mai — Tongyi Lab (Alibaba) veröffentlicht ein Video mit dem Titel “1,200+ Languages. One Vision for AI Inclusion” und stellt die Frage nach gleichberechtigtem Zugang zu KI für unterrepräsentierte Sprachgemeinschaften. Die Initiative zielt auf eine Abdeckung von mehr als 1.200 Sprachen ab — weit über die 92 Sprachen von Qwen-MT hinaus, das im Juli 2025 angekündigt wurde — als Antwort auf die Kluft zwischen globaler Technologie und den Gemeinschaften, denen sie dienen soll.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Migrationsseite von ChatGPT zu Codex

8. Mai — OpenAI veröffentlicht einen minimalistischen Tweet, der auf chatgpt.com/codex/switch-to-codex/ verweist, mit der einzigen Botschaft “Just gonna leave this here.” Der Tweet erreicht 517.000 Aufrufe. Dieser Teaser ist Teil von Codex’ Positionierungsstrategie als zentraler Entwicklungsassistent der ChatGPT-Plattform. Die Landingpage war zum Zeitpunkt des Scans nicht erreichbar.

🔗 Tweet @OpenAI


Kurzmeldungen

  • OpenAI supply.openai.com — @OpenAIDevs veröffentlicht einen kryptischen Tweet: “Available until the goblins notice.” 🧌, mit einem Verweis auf supply.openai.com. Die Seite war zum Zeitpunkt des Scans nicht erreichbar (274.000 Aufrufe). 🔗 Tweet

Was das bedeutet

Enterprise wird zum zentralen Schlachtfeld von Copilot. GitHub legt die Grundlagen für einen auf Organisationsebene verwalteten Copilot-Rollout: zentralisierte Plugins über .github-private, BYOK, um eigene Modelle zu verbinden, Remote-CLI-Monitoring und Integrated Browser als Live-Kontext für Agenten. Diese Funktionen beantworten eine reale Nachfrage von CIOs, die KI-Tooling standardisieren wollen, ohne jeden Entwickler seinen eigenen Stack konfigurieren zu lassen. Die gleichzeitige Außerbetriebnahme von Grok Code Fast 1, ersetzt durch GPT-5 mini oder Claude Haiku 4.5, zeigt außerdem, wie schnell Drittmodelle in dieses Ökosystem integriert und wieder entfernt werden.

Claude Code setzt auf Zuverlässigkeit. 110+ Fixes in zwei aufeinanderfolgenden Wochen zu konkreten Themen — lange Sitzungen, OAuth-Auth in eingeschränkten Umgebungen, MCP, Terminal-Rendering — signalisieren, dass das Anthropic-Team Zuverlässigkeit als das wichtigste Hindernis für die Produktionseinführung identifiziert hat. Die Fixes für WSL, SSH und Container zielen ausdrücklich auf Enterprise-Umgebungen, in denen der Browser localhost nicht erreichen kann. Der Opt-in für einen einstündigen Prompt-Cache für Subagenten ist ebenfalls ein Signal: Langlaufende Multi-Agent-Workflows werden zu einem prioritären Use Case.

Luma AI und die einheitliche API: ein architektonisches Wagnis. Während die meisten Bildgenerierungs-Pipelines mehrere spezialisierte Modelle kombinieren, integriert Uni-1 Schlussfolgerung und Generierung in einer einzigen Architektur. Die Fähigkeit, bis zu 9 Referenzbilder pro Anfrage zu nutzen — und die #1-Ergebnisse im Human Preference Elo — deuten darauf hin, dass dieser einheitliche Ansatz eine schwer mit zusammengesetzten Pipelines erreichbare Stil-Kohärenz bietet. Die bereits 8 Produktionspartner bestätigen, dass die API für reale Workloads bereit ist.

Alibaba/Qwen setzt auf Multimodalität und Mehrsprachigkeit. Der Gewinn von +8,2 Punkten auf ODinW für Qwen3.6-35B-A3B bei der sprachgesteuerten Objekterkennung, kombiniert mit dem Anspruch, 1.200+ Sprachen abzudecken, zeichnet eine Tongyi-Lab-Strategie, die auf gesellschaftlich besonders wirksame Anwendungen ausgerichtet ist: industrielle Bildverarbeitung per Texteingabe und KI, die von Sprachgemeinschaften genutzt werden kann, die derzeit nicht versorgt sind. Diese beiden Achsen treffen sich in derselben Logik erweiterter Zugänglichkeit.


Quellen