GitHub Copilot franchit une nouvelle étape dans l’adoption enterprise avec la gestion centralisée des plugins CLI, tandis que les mises à jour d’avril pour VS Code apportent BYOK, la recherche sémantique dans tous les espaces de travail, et un historique de chat interrogeable. Claude Code poursuit son rythme intensif avec 60 correctifs supplémentaires cette semaine. En parallèle, Luma AI ouvre l’API de son modèle Uni-1.1 en tête du classement Human Preference Elo, et Qwen3.6-35B-A3B marque +8.2 points sur le benchmark ODinW.
GitHub Copilot CLI — Plugins gérés par l’entreprise en aperçu public
6 mai — GitHub lance en aperçu public la gestion centralisée des plugins Copilot CLI pour les entreprises. Les administrateurs peuvent désormais définir et distribuer des plugins (agents personnalisés, compétences, hooks, configurations MCP) à l’ensemble des utilisateurs de leur organisation depuis un fichier settings.json unique.
Fonctionnement concret :
| Paramètre | Valeur |
|---|---|
| Fichier de configuration | .github-private/.github/copilot/settings.json |
| Plans requis | Copilot Business, Copilot Enterprise |
| Statut | Aperçu public (Public Preview) |
| Installation | Automatique à l’authentification |
Copilot CLI tire et applique ces paramètres pour tous les utilisateurs licenciés. Les plugins peuvent inclure des agents personnalisés, des hooks de workflow et des configurations MCP à l’échelle de l’organisation. Si l’entreprise avait déjà configuré une source pour les agents personnalisés via .github-private, ce même dépôt est réutilisé. Les administrateurs peuvent vérifier la configuration depuis la page Agents dans les paramètres enterprise, sous AI controls.
Cette fonctionnalité comble un écart important entre l’adoption individuelle de Copilot CLI et son déploiement à l’échelle d’une organisation : jusqu’ici, chaque développeur devait configurer ses plugins manuellement.
GitHub Copilot dans VS Code — Mises à jour avril 2026 (v1.116–v1.119)
6 mai — GitHub publie le récapitulatif des mises à jour Copilot pour VS Code couvrant les versions v1.116 à v1.119 (avril à début mai 2026), suite au passage de VS Code aux sorties stables hebdomadaires.
Contexte plus intelligent :
| Fonctionnalité | Statut |
|---|---|
| Recherche sémantique (tous les espaces de travail) | Disponible |
githubTextSearch (grep sur dépôts GitHub) | Disponible |
/chronicle (historique de chat local) | Expérimental |
| Cache de prompts + chargement différé des outils | Disponible |
La recherche sémantique est désormais active dans tous les espaces de travail, plus uniquement les dépôts indexés. L’outil githubTextSearch permet des requêtes de type grep sur des dépôts et organisations GitHub entiers. La commande expérimentale /chronicle crée une base de données locale de l’historique de chat pour retrouver des sessions passées, les fichiers touchés et les PRs référencées.
Expérience agent enrichie :
| Fonctionnalité | Statut |
|---|---|
| BYOK (Business + Enterprise) | Disponible |
| Integrated Browser | Disponible |
| Monitoring CLI distant | Expérimental |
| Accès aux terminaux ouverts | Disponible |
Le BYOK (Bring Your Own Key) permet aux organisations Copilot Business et Enterprise de connecter leurs propres clés API directement dans VS Code : OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama, et Foundry Local sont supportés. Les agents peuvent lire et écrire dans les terminaux ouverts (REPLs, scripts interactifs). La fonctionnalité Integrated Browser permet de partager des onglets de navigateur en temps réel comme contexte pour les agents. Les sessions Copilot CLI peuvent être contrôlées à distance depuis GitHub.com ou l’application mobile (expérimental).
Claude Code — 60+ correctifs de fiabilité (semaine du 8 mai)
8 mai — L’équipe Claude Code publie un thread listant plus de 60 correctifs déployés cette semaine, qui s’ajoutent aux 50+ de la semaine précédente.
“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”
🇫🇷 “La semaine dernière nous avons livré 50+ correctifs de fiabilité pour Claude Code. Cette semaine, 60+ supplémentaires. Des sessions longues plus fluides, une boucle agent plus efficace, une authentification qui fonctionne dans plus d’environnements, et des correctifs de terminal.” — @ClaudeDevs sur X
| Domaine | Correctifs notables |
|---|---|
| Stabilité | claude -p accepte >10 Mo via stdin, reprise après veille |
| Boucle agent | Prompt cache pour sous-agents, opt-in cache 1h via ENABLE_PROMPT_CACHING_1H |
| Authentification | Collage du code OAuth directement dans le terminal (WSL, SSH, conteneurs) |
| MCP | Reconnexion automatique + statut clair dans /mcp, fix mémoire bornée |
| Rendu terminal | Fix défilement Cursor, VS Code, JetBrains ; fix caractères japonais |
Pour appliquer ces correctifs : claude update.
GitHub Copilot — Dépréciation de Grok Code Fast 1 (15 mai)
8 mai — GitHub annonce la dépréciation de Grok Code Fast 1 dans tous les environnements Copilot le 15 mai 2026, soit une semaine après l’annonce. La raison : le modèle est lui-même déprécié par xAI.
| Modèle | Date de dépréciation | Alternative suggérée |
|---|---|---|
| Grok Code Fast 1 | 15 mai 2026 | GPT-5 mini, Claude Haiku 4.5 |
Les administrateurs Copilot Enterprise doivent vérifier que les modèles alternatifs sont activés dans leurs politiques de modèles avant cette date. La transition après dépréciation est automatique — aucune action supplémentaire n’est requise pour retirer le modèle.
Google Health App — Fitbit devient Google Health avec coach Gemini
8 mai — L’application Fitbit évolue et devient la nouvelle application Google Health. Cette refonte conserve toutes les fonctionnalités Fitbit existantes et intègre un coach santé personnalisé propulsé par Gemini. Ce coach analyse les données des appareils portables (wearables), les applications de santé préférées et les dossiers médicaux pour fournir des conseils de santé proactifs adaptés à chaque utilisateur.
L’application est compatible avec les montres Fitbit et Pixel Watch, et s’intègre avec des centaines d’applications et d’appareils tiers.
Gemini API — File Search multimodal, Webhooks, Gemma 4 MTP 3x plus rapide
8 mai — Le récapitulatif hebdomadaire @GoogleAI liste trois sorties développeurs de la semaine, à 11 jours de Google I/O :
| Fonctionnalité | Date | Impact |
|---|---|---|
| File Search multimodal | 5 mai | RAG multimodal vérifiable avec citations de pages |
| Webhooks Gemini API | 4 mai | Remplacement du polling par notifications push |
| Gemma 4 MTP drafters | 5 mai | Jusqu’à 3x plus rapide en inférence |
L’outil File Search supporte désormais les métadonnées personnalisées et les citations de pages, ce qui permet de construire des systèmes RAG (Retrieval-Augmented Generation) vérifiables sur des sources multimodales. Les webhooks éliminent le besoin d’interrogation en continu pour les tâches longues. Les accélérateurs MTP (Multi-Token Prediction) pour Gemma 4 offrent jusqu’à 3x plus de vitesse d’inférence dans les workflows de déploiement.
Luma AI Uni-1.1 API — Ouverture publique
5 mai — Luma AI ouvre son API Uni-1.1, rendant son modèle d’intelligence unifiée (Unified Intelligence model) accessible aux développeurs via une interface REST. Ce modèle intègre raisonnement et génération d’images dans une architecture unique — contrairement à l’approche standard qui assemble plusieurs modèles séparés à l’inférence.
| Métrique | Valeur |
|---|---|
| Human Preference Elo | #1 (génération globale, style, référence guidée) |
| Image Arena | Top 3 (Text-to-Image + Image Edit) |
| RISEBench raisonnement spatial | Tête de classement |
| Références par requête | Jusqu’à 9 images |
| Temps de génération | ~31 secondes par image |
| Partenaires en production | Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt |
L’API propose deux endpoints principaux : Generate Image (texte-vers-image avec jusqu’à 9 images de référence pour préserver identité, composition ou style) et Modify Image (édition en langage naturel). Les SDK Python et JavaScript/TypeScript sont disponibles. Deux tiers tarifaires : Build (facturation à l’usage) et Scale (limites de débit plus élevées, support dédié).
NVIDIA + SakanaAI — Paper ICML 2026 sur les kernels sparse TwELL
8 mai — NVIDIA AI et SakanaAI Labs publient conjointement un papier de recherche accepté à ICML 2026, portant sur les kernels de transformeurs creux (sparse transformer kernels) et les formats de données optimisés pour l’exécution sur GPU NVIDIA modernes. Le projet est baptisé TwELL.
L’intuition centrale : le cerveau humain n’active que les neurones nécessaires à une pensée donnée. Appliqué aux modèles de langage, cela se traduit par un calcul sélectif des poids actifs via la sparsité structurée, réduisant la charge de calcul sans sacrifier les performances. Cette recherche s’aligne avec la direction de NVIDIA vers une inférence plus efficace, notamment pour les architectures Mixture-of-Experts (MoE). Le tweet a obtenu 50 000 vues et 66 reposts dans la communauté ML.
Qwen3.6-35B-A3B — +8.2 points sur le benchmark ODinW
9 mai — Tongyi Lab (Alibaba) annonce une avancée en détection d’objets orientée instructions (Instruction-Oriented Object Detection) grâce au modèle Qwen3.6-35B-A3B. Contrairement à la détection classique qui se contente de localiser des éléments visuels, cette approche vise à comprendre sémantiquement des instructions en langage naturel pour guider la détection.
| Métrique | Qwen3.5 | Qwen3.6-35B-A3B | Gain |
|---|---|---|---|
| ODinW score | 42.6 | 50.8 | +8.2 pts |
Une démo interactive est disponible sur ModelScope.
Tongyi Lab — 1 200+ langues pour l’inclusion mondiale
9 mai — Tongyi Lab (Alibaba) publie une vidéo intitulée “1,200+ Languages. One Vision for AI Inclusion”, posant la question de l’accès équitable à l’IA pour les communautés linguistiques peu représentées. L’initiative vise une couverture de plus de 1 200 langues — bien au-delà des 92 langues de Qwen-MT annoncé en juillet 2025 — en réponse au fossé entre la technologie mondiale et les communautés qu’elle est censée servir.
OpenAI Codex Switch — Page de migration ChatGPT vers Codex
8 mai — OpenAI publie un tweet minimaliste pointant vers chatgpt.com/codex/switch-to-codex/, avec pour seul message “Just gonna leave this here.” Le tweet génère 517 000 vues. Ce teaser s’inscrit dans la stratégie de positionnement de Codex comme assistant de développement central de la plateforme ChatGPT. La page de destination n’était pas accessible lors du scan.
Brèves
- OpenAI supply.openai.com — @OpenAIDevs publie un tweet cryptique : “Available until the goblins notice.” 🧌, citant un lien vers
supply.openai.com. La page n’était pas accessible lors du scan (274 000 vues). 🔗 Tweet
Ce que ça signifie
L’enterprise devient la bataille centrale de Copilot. GitHub met en place les fondations d’un déploiement Copilot géré à l’échelle des organisations : plugins centralisés via .github-private, BYOK pour connecter ses propres modèles, monitoring CLI distant, et Integrated Browser comme contexte live pour les agents. Ces fonctionnalités répondent à une demande réelle des DSI qui veulent standardiser l’outillage IA sans laisser chaque développeur configurer sa propre stack. La dépréciation simultanée de Grok Code Fast 1 (remplacé par GPT-5 mini ou Claude Haiku 4.5) illustre aussi la rapidité avec laquelle les modèles tiers sont intégrés puis retirés dans cet écosystème.
Claude Code joue la carte de la fiabilité. 110+ correctifs en deux semaines consécutives sur des sujets précis — sessions longues, auth OAuth en environnements restreints, MCP, rendu terminal — signale que l’équipe Anthropic a identifié la fiabilité comme le principal frein à l’adoption en production. Les fix sur WSL, SSH et les conteneurs ciblent explicitement les environnements enterprise où le navigateur ne peut pas atteindre localhost. L’opt-in du cache de prompts d’une heure sur les sous-agents est aussi un signal : les workflows multi-agents à longue durée deviennent un cas d’usage prioritaire.
Luma AI et l’API unifiée : un pari architectural. Là où la plupart des pipelines de génération d’images assemblent plusieurs modèles spécialisés, Uni-1 intègre raisonnement et génération dans une seule architecture. La capacité à utiliser jusqu’à 9 images de référence par requête — et les résultats #1 Human Preference Elo — suggèrent que cette approche unifiée offre une cohérence de style difficile à atteindre avec des pipelines assemblés. Les 8 partenaires déjà en production valident que l’API est prête pour des charges de travail réelles.
Alibaba/Qwen cible le multimodal et le multilinguisme. Le gain de +8.2 points sur ODinW pour Qwen3.6-35B-A3B sur la détection d’objets guidée par langage naturel, combiné à l’ambition de couvrir 1 200+ langues, dessine une stratégie Tongyi Lab orientée vers les usages à fort impact social : vision industrielle accessible via instructions textuelles, et IA utilisable par des communautés linguistiques actuellement non desservies. Ces deux axes se rejoignent dans une même logique d’accessibilité étendue.
Sources
- GitHub Copilot CLI — Enterprise-managed plugins (Public Preview)
- GitHub Copilot VS Code — April 2026 Releases
- GitHub Copilot — Dépréciation Grok Code Fast 1
- Claude Code — Thread 60+ reliability fixes (@ClaudeDevs)
- Claude Code — Changelog officiel
- Google Health App — Annonce @GoogleAI
- Gemini API — Blog Google Developers Tools
- Luma AI Uni-1.1 API
- NVIDIA + SakanaAI — Paper TwELL ICML26
- Qwen3.6-35B-A3B — ODinW +8.2 pts (@Ali_TongyiLab)
- ModelScope — Démo Object Detection Qwen
- Tongyi Lab — 1200+ Languages (@Ali_TongyiLab)
- OpenAI Codex Switch
- OpenAI supply.openai.com — teaser (@OpenAIDevs)