Zoeken

GitHub Copilot CLI-plug-ins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ fixes

GitHub Copilot CLI-plug-ins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ fixes

ai-powered-markdown-translator

Artikel vertaald van fr naar nl met gpt-5.4-mini.

Bekijk project op GitHub ↗

GitHub Copilot zet een nieuwe stap in enterprise-adoptie met centraal beheer van CLI-plug-ins, terwijl de april-updates voor VS Code BYOK, semantisch zoeken in alle werkruimtes en een doorzoekbare chatgeschiedenis brengen. Claude Code houdt zijn hoge tempo vol met nog eens 60 fixes deze week. Tegelijkertijd opent Luma AI de API van zijn Uni-1.1-model, dat bovenaan de Human Preference Elo-ranglijst staat, en behaalt Qwen3.6-35B-A3B +8,2 punten op de ODinW-benchmark.


GitHub Copilot CLI — Door het bedrijf beheerde plug-ins in publieke preview

6 mei — GitHub lanceert in publieke preview het centrale beheer van Copilot CLI-plug-ins voor bedrijven. Beheerders kunnen nu plug-ins definiëren en distribueren (aangepaste agents, vaardigheden, hooks, MCP-configuraties) naar alle gebruikers in hun organisatie vanuit één enkel settings.json-bestand.

Concreet gebruik:

ParameterWaarde
Configuratiebestand.github-private/.github/copilot/settings.json
Vereiste abonnementenCopilot Business, Copilot Enterprise
StatusPublieke preview (Public Preview)
InstallatieAutomatisch bij authenticatie

Copilot CLI haalt deze instellingen op en past ze toe voor alle gelicentieerde gebruikers. Plug-ins kunnen aangepaste agents, workflow-hooks en organisatiebrede MCP-configuraties bevatten. Als het bedrijf al een bron had geconfigureerd voor aangepaste agents via .github-private, dan wordt datzelfde repository hergebruikt. Beheerders kunnen de configuratie verifiëren via de pagina Agents in de enterprise-instellingen, onder AI controls.

Deze functionaliteit vult een belangrijke kloof tussen de individuele adoptie van Copilot CLI en de uitrol op organisatieniveau: tot nu toe moest elke ontwikkelaar zijn plug-ins handmatig configureren.

🔗 Aankondiging GitHub Changelog


GitHub Copilot in VS Code — Aprilupdates 2026 (v1.116–v1.119)

6 mei — GitHub publiceert het overzicht van de Copilot-updates voor VS Code, die de versies v1.116 tot en met v1.119 bestrijken (april tot begin mei 2026), na de overstap van VS Code naar wekelijkse stabiele releases.

Slimmere context:

FunctieStatus
Semantisch zoeken (alle werkruimtes)Beschikbaar
githubTextSearch (grep op GitHub-repositories)Beschikbaar
/chronicle (lokale chatgeschiedenis)Experimenteel
Promptcache + uitgestelde tool-loadingBeschikbaar

Semantisch zoeken is nu actief in alle werkruimtes, niet alleen in geïndexeerde repositories. De tool githubTextSearch maakt grep-achtige zoekopdrachten mogelijk over volledige GitHub-repositories en -organisaties. De experimentele opdracht /chronicle maakt een lokale database van de chatgeschiedenis aan om eerdere sessies, gewijzigde bestanden en genoemde PR’s terug te vinden.

Uitgebreidere agentervaring:

FunctieStatus
BYOK (Business + Enterprise)Beschikbaar
Integrated BrowserBeschikbaar
Monitoring van externe CLIExperimenteel
Toegang tot geopende terminalsBeschikbaar

BYOK (Bring Your Own Key) stelt Copilot Business- en Enterprise-organisaties in staat hun eigen API-sleutels rechtstreeks in VS Code te koppelen: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama en Foundry Local worden ondersteund. Agents kunnen lezen en schrijven in geopende terminals (REPL’s, interactieve scripts). De functie Integrated Browser maakt het mogelijk om browsertabs in realtime te delen als context voor agents. Copilot CLI-sessies kunnen op afstand worden bestuurd vanaf GitHub.com of de mobiele app (experimenteel).

🔗 Aankondiging GitHub Changelog


Claude Code — 60+ betrouwbaarheidsfixes (week van 8 mei)

8 mei — Het Claude Code-team publiceert een thread met meer dan 60 fixes die deze week zijn uitgerold, bovenop de 50+ van de vorige week.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇳🇱 “Vorige week hebben we 50+ betrouwbaarheidsfixes voor Claude Code geleverd. Deze week nog eens 60+. Vlottere lange sessies, een efficiëntere agentlus, authenticatie die in meer omgevingen werkt, en terminalfixes.”@ClaudeDevs op X

DomeinOpvallende fixes
Stabiliteitclaude -p accepteert >10 MB via stdin, hervatting na slaapstand
AgentlusPromptcache voor subagents, opt-in cache van 1 uur via ENABLE_PROMPT_CACHING_1H
AuthenticatieOAuth-code direct in de terminal plakken (WSL, SSH, containers)
MCPAutomatische herverbinding + duidelijke status in /mcp, gefixt begrensd geheugen
TerminalweergaveScrollfix voor Cursor, VS Code, JetBrains; fix voor Japanse tekens

Om deze fixes toe te passen: claude update.

🔗 Claude Code Changelog


GitHub Copilot — Uitfasering van Grok Code Fast 1 (15 mei)

8 mei — GitHub kondigt de uitfasering van Grok Code Fast 1 aan in alle Copilot-omgevingen op 15 mei 2026, dus een week na de aankondiging. De reden: het model zelf wordt uitgefaseerd door xAI.

ModelDatum van uitfaseringVoorgesteld alternatief
Grok Code Fast 115 mei 2026GPT-5 mini, Claude Haiku 4.5

Copilot Enterprise-beheerders moeten ervoor zorgen dat de alternatieve modellen vóór deze datum zijn ingeschakeld in hun modelbeleid. De overgang na uitfasering gebeurt automatisch — er is geen extra actie nodig om het model te verwijderen.

🔗 Aankondiging uitfasering


Google Health App — Fitbit wordt Google Health met Gemini-coach

8 mei — De Fitbit-app evolueert en wordt de nieuwe Google Health-app. Deze herziening behoudt alle bestaande Fitbit-functionaliteiten en integreert een persoonlijke gezondheidscoach aangedreven door Gemini. Deze coach analyseert gegevens van wearables, favoriete gezondheidsapps en medische dossiers om proactief gezondheidsadvies te geven dat is afgestemd op elke gebruiker.

De app is compatibel met Fitbit- en Pixel Watch-horloges en integreert met honderden apps en apparaten van derden.

🔗 Aankondiging @GoogleAI


Gemini API — Multimodale File Search, Webhooks, Gemma 4 MTP 3x sneller

8 mei — Het wekelijkse @GoogleAI-overzicht vermeldt drie developer-releases van de week, 11 dagen voor Google I/O:

FunctieDatumImpact
Multimodale File Search5 meiVerifieerbare multimodale RAG met pagina-citaten
Gemini API-webhooks4 meiVervanging van polling door push-meldingen
Gemma 4 MTP-drafters5 meiTot 3x sneller bij inferentie

De File Search-tool ondersteunt nu aangepaste metadata en pagina-citaten, waardoor verifieerbare RAG-systemen (Retrieval-Augmented Generation) op multimodale bronnen kunnen worden gebouwd. Webhooks elimineren de noodzaak voor continue bevraging bij lange taken. De MTP-accelerators (Multi-Token Prediction) voor Gemma 4 leveren tot 3x meer inferentiesnelheid in deployment-workflows.

🔗 Blog Google Developers


Luma AI Uni-1.1 API — Publieke opening

5 mei — Luma AI opent zijn Uni-1.1 API, waardoor zijn model voor unificeerde intelligentie (Unified Intelligence model) toegankelijk wordt voor ontwikkelaars via een REST-interface. Dit model integreert redeneren en beeldgeneratie in één architectuur — in tegenstelling tot de standaardaanpak waarbij meerdere afzonderlijke modellen bij inferentie worden samengevoegd.

MetriekWaarde
Human Preference Elo#1 (globale generatie, stijl, begeleide referentie)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench ruimtelijk redenerenBovenaan de ranglijst
Referenties per verzoekTot 9 afbeeldingen
Generatietijd~31 seconden per afbeelding
ProductiepartnersEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

De API biedt twee hoofd-endpoints: Generate Image (tekst-naar-afbeelding met tot 9 referentie-afbeeldingen om identiteit, compositie of stijl te behouden) en Modify Image (bewerking in natuurlijke taal). Python- en JavaScript/TypeScript-SDK’s zijn beschikbaar. Twee tariefniveaus: Build (pay-as-you-go) en Scale (hogere rate limits, toegewijde ondersteuning).

🔗 Aankondiging Luma AI


NVIDIA + SakanaAI — ICML 2026-paper over TwELL sparse kernels

8 mei — NVIDIA AI en SakanaAI Labs publiceren gezamenlijk een onderzoeksartikel dat is geaccepteerd voor ICML 2026, over sparse transformer kernels en geoptimaliseerde dataformaten voor uitvoering op moderne NVIDIA-GPU’s. Het project heet TwELL.

De kernintuïtie: het menselijke brein activeert alleen de neuronen die nodig zijn voor een bepaalde gedachte. Toegepast op taalmodellen betekent dit een selectieve berekening van actieve gewichten via gestructureerde sparsity, waardoor de rekencapaciteit afneemt zonder de prestaties op te offeren. Dit onderzoek sluit aan bij NVIDIA’s richting naar efficiëntere inferentie, met name voor Mixture-of-Experts-architecturen (MoE). De tweet behaalde 50.000 weergaven en 66 reposts in de ML-community.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8,2 punten op de ODinW-benchmark

9 mei — Tongyi Lab (Alibaba) kondigt een doorbraak aan in instructiegestuurde objectdetectie (Instruction-Oriented Object Detection) dankzij het model Qwen3.6-35B-A3B. In tegenstelling tot klassieke detectie, die zich beperkt tot het lokaliseren van visuele elementen, wil deze aanpak natuurlijke-taalinstructies semantisch begrijpen om de detectie te sturen.

MetriekQwen3.5Qwen3.6-35B-A3BWinst
ODinW-score42,650,8+8,2 pts

Een interactieve demo is beschikbaar op ModelScope.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1.200+ talen voor wereldwijde inclusie

9 mei — Tongyi Lab (Alibaba) publiceert een video getiteld “1,200+ Languages. One Vision for AI Inclusion”, waarmee de vraag wordt gesteld naar gelijke toegang tot AI voor minder vertegenwoordigde taalgemeenschappen. Het initiatief mikt op dekking van meer dan 1.200 talen — ruim boven de 92 talen van Qwen-MT, aangekondigd in juli 2025 — als antwoord op de kloof tussen wereldwijde technologie en de gemeenschappen die die zou moeten dienen.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Migratiepagina van ChatGPT naar Codex

8 mei — OpenAI publiceert een minimalistische tweet die verwijst naar chatgpt.com/codex/switch-to-codex/, met als enige boodschap “Just gonna leave this here.” De tweet genereert 517.000 weergaven. Deze teaser past in de positioneringsstrategie van Codex als centrale ontwikkelassistent van het ChatGPT-platform. De landingspagina was niet toegankelijk tijdens de scan.

🔗 Tweet @OpenAI


Kort nieuws

  • OpenAI supply.openai.com — @OpenAIDevs publiceert een cryptische tweet: “Available until the goblins notice.” 🧌, met een link naar supply.openai.com. De pagina was niet toegankelijk tijdens de scan (274.000 weergaven). 🔗 Tweet

Wat dit betekent

Enterprise wordt het centrale strijdtoneel voor Copilot. GitHub legt de basis voor een Copilot-uitrol die op organisatieniveau wordt beheerd: gecentraliseerde plug-ins via .github-private, BYOK om eigen modellen te koppelen, externe CLI-monitoring en Integrated Browser als live context voor agents. Deze functies beantwoorden aan een reële vraag van CIO’s die AI-tools willen standaardiseren zonder elke ontwikkelaar zijn eigen stack te laten configureren. De gelijktijdige uitfasering van Grok Code Fast 1 (vervangen door GPT-5 mini of Claude Haiku 4.5) laat ook zien hoe snel externe modellen in dit ecosysteem worden toegevoegd en weer verwijderd.

Claude Code zet in op betrouwbaarheid. 110+ fixes in twee opeenvolgende weken op specifieke onderwerpen — lange sessies, OAuth-auth in beperkte omgevingen, MCP, terminalweergave — geven aan dat het Anthropic-team betrouwbaarheid als de belangrijkste belemmering voor productie-adoptie heeft geïdentificeerd. De fixes voor WSL, SSH en containers richten zich expliciet op enterprise-omgevingen waar de browser localhost niet kan bereiken. De opt-in van een promptcache van een uur voor subagents is ook een signaal: multi-agent workflows met lange duur worden een prioritaire use case.

Luma AI en de uniforme API: een architectonische gok. Waar de meeste pipelines voor beeldgeneratie meerdere gespecialiseerde modellen samenvoegen, integreert Uni-1 redeneren en generatie in één architectuur. Het vermogen om tot 9 referentiebeelden per verzoek te gebruiken — en de #1 Human Preference Elo-resultaten — suggereert dat deze uniforme aanpak een stijlsamenhang oplevert die moeilijk te bereiken is met samengestelde pipelines. De 8 partners die al in productie zijn, bevestigen dat de API klaar is voor echte workloads.

Alibaba/Qwen richt zich op multimodaal en meertalig gebruik. De winst van +8,2 punten op ODinW voor Qwen3.6-35B-A3B bij taalgestuurde objectdetectie, gecombineerd met de ambitie om 1.200+ talen te ondersteunen, schetst een Tongyi Lab-strategie die is gericht op toepassingen met grote maatschappelijke impact: industriële visie toegankelijk via tekstinstructies, en AI bruikbaar voor taalgemeenschappen die momenteel niet worden bediend. Deze twee assen komen samen in één logica van brede toegankelijkheid.


Bronnen