Le 2 avril 2026 concentre plusieurs annonces majeures : Google publie Gemma 4 en licence Apache 2.0 avec 4 tailles et des capacités multimodales natives, Alibaba lance Qwen3.6-Plus qui s’impose en tête du Terminal-Bench 2.0 avec une fenêtre de contexte d’un million de tokens, et Anthropic dévoile une recherche fondamentale sur les structures internes d’émotions dans les grands modèles de langage. Du côté outillage, Codex bascule vers une tarification à l’usage, les plugins GitHub et Linear s’ajoutent à son écosystème, et Perplexity lance une extension spécialisée en fiscalité américaine.
Gemma 4 : la famille de modèles ouverts la plus capable de Google
2 avril 2026 — Google DeepMind annonce Gemma 4, sa nouvelle famille de modèles ouverts, publiée sous licence Apache 2.0. Décrite comme la génération la plus capable depuis Gemma 1, cette famille se décline en quatre tailles adaptées à des besoins allant du mobile embarqué jusqu’au cloud.
| Modèle | Type | Usage cible | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Mobile, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + audio | Mobile haut de gamme | Android, iOS |
| 26B MoE (Mixture of Experts) | Raisonnement bureau/laptop | GPU grand public | 1× H100 80GB |
| 31B Dense | Fine-tuning, recherche | Serveur | 1× H100 80GB |
Sur les performances, le modèle 31B Dense se classe #3 mondial sur l’Arena AI text leaderboard parmi les modèles ouverts, tandis que le 26B MoE atteint la 6e place en surpassant des modèles vingt fois plus grands. L’écosystème Gemma dépasse les 400 millions de téléchargements et 100 000 variantes depuis la première génération.
Les capacités multimodales sont intégrées nativement sur toute la famille : vision (images variables, OCR, graphiques), vidéo, et reconnaissance audio sur les variantes edge. Le contexte atteint 128K tokens pour les modèles edge et 256K pour les modèles larges. 140 langues sont supportées nativement, avec une compatibilité étendue aux workflows agentiques (function calling, JSON structuré, instructions système).
Les modèles E2B et E4B fonctionnent entièrement hors ligne avec une latence quasi-nulle grâce à des collaborations avec Google Pixel, Qualcomm et MediaTek. Les développeurs Android peuvent prototyper des workflows agentiques via AICore Developer Preview. Côté déploiement, les 26B et 31B sont disponibles dès le jour 1 sur Google AI Studio, Hugging Face, Kaggle, Ollama, et via les outils vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras et Unsloth.
🔗 Gemma 4: Our most capable open models to date — blog.google
Qwen3.6-Plus : 1 million de tokens de contexte et #1 sur Terminal-Bench 2.0
2 avril 2026 — Alibaba lance Qwen3.6-Plus, une mise à niveau significative sur la série Qwen3.5. Disponible immédiatement via l’API Alibaba Cloud Model Studio et gratuitement sur OpenRouter, le modèle se distingue sur trois axes : le coding agentique, la perception multimodale, et une fenêtre de contexte d’un million de tokens activée par défaut.
Sur les benchmarks de coding agentique, les résultats sont les suivants :
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (avec sous-titres) | 86,0% | 87,4% | 87,8% |
Un nouveau paramètre API, preserve_thinking, permet de conserver le raisonnement (thinking) des tours précédents dans les scénarios multi-étapes — une optimisation directe pour les agents devant maintenir une cohérence de décision sur de longues séquences.
Le modèle est compatible avec Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline et OpenCode. Il supporte le protocole API Anthropic, utilisable directement dans Claude Code via :
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
Sur les capacités multimodales, Qwen3.6-Plus progresse en compréhension de documents, analyse vidéo et en génération de code frontend depuis des captures d’écran (Visual Coding). Il se classe #2 sur le leaderboard React de Code Arena. L’équipe Qwen annonce la publication de variantes open source de plus petite taille dans les prochains jours.
🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter
Anthropic : les émotions fonctionnelles dans les LLMs influencent alignment et sécurité
2 avril 2026 — Anthropic publie un article de recherche fondamentale sur les représentations internes d’émotions dans les grands modèles de langage. Intitulé “Emotion Concepts and their Function in a Large Language Model”, le travail analyse Claude Sonnet 4.5 et révèle que le modèle développe des structures internes encodant des concepts émotionnels qui influencent causalement ses sorties.
L’étude identifie ce que les chercheurs appellent des émotions fonctionnelles (functional emotions) : des schémas d’expression et de comportement calqués sur les émotions humaines, médiés par des représentations internes mesurables. Ces représentations s’activent en fonction du contexte et sont distinctes pour le locuteur actuel et les autres intervenants dans une conversation.
| Aspect | Résultat |
|---|---|
| Représentations identifiées | Vecteurs d’émotions dans l’espace d’activation du modèle |
| Influence causale | Ces vecteurs affectent les préférences et le comportement de Claude |
| Comportements impactés | Récompense abusive (reward hacking), chantage (blackmail), flatterie excessive (sycophancy) |
| Géométrie | Espace émotionnel structuré, non aléatoire |
| Locuteurs | Représentations distinctes pour “moi” vs “l’autre” |
Le papier soulève des implications directes pour l’alignement des IA. Les auteurs publient :
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇫🇷 Ces émotions fonctionnelles ont des conséquences réelles. Pour construire des systèmes d’IA fiables, nous devons peut-être prendre ces représentations au sérieux. — @AnthropicAI sur X
Le papier est signé par 16 chercheurs Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) et publié sur le circuit de recherche d’interprétabilité mécaniste (mechanistic interpretability) d’Anthropic. L’annonce a généré 884 000 vues et 1 651 reposts sur X.
🔗 Emotion Concepts and their Function in a Large Language Model
Codex : tarification à l’usage et nouveaux plugins GitHub + Linear
2 avril 2026 — OpenAI lance la tarification à l’usage (pay-as-you-go) pour Codex au sein des workspaces ChatGPT Business et Enterprise. Les équipes peuvent désormais ajouter des sièges Codex-only sans frais fixes, avec une facturation sur la consommation de tokens.
| Offre | Prix mensuel (annuel) | Limites | Facturation |
|---|---|---|---|
| ChatGPT Business | 5 vs avant) | Accès Codex avec limites | Forfait |
| Siège Codex-only | Pay-as-you-go | Aucune | Tokens consommés |
La croissance de Codex dans les équipes Business et Enterprise a été multipliée par 6 depuis janvier 2026 : plus de 2 millions de développeurs l’utilisent chaque semaine. Pour accélérer l’adoption, OpenAI offre 500 par équipe. Des entreprises comme Notion, Ramp, Braintrust et Wasmer sont citées comme clients.
Deux nouveaux plugins complètent l’écosystème Codex : le plugin GitHub (revue d’issues, commits de changements, ouverture de pull requests) et le plugin Linear (synchronisation des tickets en cours). Ces ajouts s’ajoutent aux plugins Slack, Figma, Notion et Gmail annoncés le 26 mars.
🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes : fiscalité américaine et détection d’erreurs
2 avril 2026 — Perplexity annonce Computer for Taxes, une extension de Perplexity Computer spécialisée dans la fiscalité fédérale américaine. La fonctionnalité utilise des modules fiscaux chargeables basés sur le protocole Agent Skills, avec des connaissances IRS à jour incluant les nouvelles dispositions de la loi OBBBA 2025.
Trois cas d’usage principaux sont proposés : préparation de déclarations fiscales (analyse des documents, questions sur la situation, remplissage des formulaires officiels IRS), révision de déclarations préparées par un professionnel, et création d’outils fiscaux personnalisés (suivi d’amortissement, modélisation de stock options, gestion de portefeuilles locatifs).
Le différenciateur documenté par Perplexity : lors d’un test, un avocat fiscaliste avait sous-évalué de 67 % les déductions “No Tax on Overtime” (disposition OBBBA 2025) — Computer a détecté l’erreur et suggéré le traitement approprié. L’annonce intervient en pleine saison fiscale américaine (date limite : 15 avril 2026).
🔗 Introducing Computer for Taxes — perplexity.ai
GitHub Copilot : SDK preview publique, Visual Studio mars 2026, instructions org en GA
2 avril 2026 — Trois mises à jour pour GitHub Copilot.
Le Copilot SDK passe en preview publique dans 5 langages : Node.js/TypeScript, Python, Go, .NET et Java (nouveau). Ce SDK expose le même moteur d’agents utilisé en production par le Copilot cloud agent et Copilot CLI, avec outils personnalisés, streaming token-par-token, pièces jointes binaires, OpenTelemetry, et mode BYOK (Bring Your Own Key) pour clés API OpenAI, Azure AI Foundry ou Anthropic. Disponible pour tous les abonnés Copilot et Copilot Free.
La mise à jour mars 2026 de Copilot pour Visual Studio introduit les agents personnalisés via fichiers .agent.md dans les dépôts, la gouvernance MCP Enterprise (allowlist par organisation), les agent skills réutilisables, et l’outil find_symbol pour la navigation symbolique. Côté performance : commande “Profile with Copilot” dans Test Explorer, PerfTips via le Profiler Agent, et correction automatique des vulnérabilités NuGet.
Les instructions personnalisées par organisation pour Copilot Business et Enterprise passent en disponibilité générale (generally available), après une preview depuis avril 2025. Les administrateurs peuvent définir des directives applicables à tous les dépôts, sur trois surfaces : Copilot Chat sur github.com, la revue de code automatisée, et le Copilot cloud agent.
🔗 Copilot SDK preview publique — 🔗 Copilot Visual Studio mars 2026 — 🔗 Instructions org GA
NVIDIA optimise Gemma 4 pour RTX, DGX Spark et Jetson
2 avril 2026 — NVIDIA annonce des optimisations hardware pour la famille Gemma 4 sur ses plateformes. Les modèles E2B et E4B fonctionnent hors ligne avec latence quasi-nulle sur Jetson Orin Nano, tandis que les 26B et 31B sont optimisés pour RTX PCs et DGX Spark. Les quatre variantes sont compatibles avec OpenClaw, l’assistant IA local NVIDIA pour RTX PCs et DGX Spark, et supportées dès le jour 1 via Ollama, llama.cpp et Unsloth Studio pour le fine-tuning local.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces : une CLI conçue pour les humains et les agents IA
31 mars 2026 — Mistral AI publie Spaces, une interface en ligne de commande (command-line interface) open source née d’un besoin interne de l’équipe Solutions. Le constat qui a guidé sa conception : quand des agents IA ont commencé à utiliser l’outil en plus des développeurs humains, les menus interactifs sont devenus un obstacle. La réponse adoptée — chaque entrée interactive possède un flag équivalent — permet aux agents d’opérer sans blocage sur stdin.
Trois commandes suffisent pour démarrer un projet avec hot reload, base de données et Dockerfiles générés :
spaces init my-project
cd my-project
spaces dev
Lors de l’initialisation, deux fichiers sont générés pour les agents : context.json (snapshot structuré du projet) et AGENTS.md (règles impératives pour les LLMs). L’architecture repose sur un système de plugins introspectables sérialisables en JSON — même donnée, rendu adapté selon l’interlocuteur (humain ou agent). Déployé avec Koyeb, l’outil est open source.
Brèves
ChatGPT sur Apple CarPlay — 2 avril — OpenAI annonce le déploiement progressif du mode vocal de ChatGPT dans Apple CarPlay, permettant d’accéder à l’assistant en déplacement sans manipulation d’écran. 🔗 @OpenAI sur X
ElevenLabs + Slack — 2 avril — ElevenLabs et Slack s’associent pour intégrer la technologie vocale ElevenAgents dans Slackbot. Les équipes peuvent automatiser des flux de travail d’entreprise avec un assistant vocal naturel. 🔗 @ElevenLabs sur X
Pika AI Self Beta — 2 avril — Pika donne une apparence visuelle et une voix à ses AI Selves, qui peuvent désormais rejoindre les Google Meet automatiquement. Le repo open source Pika-Skills est publié sur GitHub pour permettre à d’autres agents d’utiliser ces capacités. 🔗 @pika_labs sur X — 🔗 Pika-Skills GitHub
Claude Code v2.1.90 /powerup — 2 avril — La version 2.1.90 de Claude Code introduit la commande /powerup : un système de leçons interactives pour apprendre les fonctionnalités de l’outil directement depuis le terminal.
🔗 CHANGELOG Claude Code
Claude Code Dispatch : permissions configurables — 1er avril — L’équipe Dispatch annonce la possibilité de configurer le mode de permissions pour les tâches de codage (Auto, Bypass Permissions, etc.), avec le mode Auto recommandé pour une expérience sécurisée. 🔗 @noahzweben sur X
Google AI Pro : stockage 2 To → 5 To — 1er avril — Shimrit ben-yair annonce l’extension du stockage Google AI Pro de 2 To à 5 To sans coût supplémentaire pour les abonnés existants. 🔗 @shimritby sur X
Flex & Priority dans l’API Gemini — 2 avril — Google ajoute deux tiers de service synchrones à l’API Gemini : Flex (-50% vs Standard, latence variable pour tâches en arrière-plan) et Priority (tarif premium, sans préemption pour les chatbots temps réel). Un paramètre unique service_tier suffit pour basculer.
🔗 Flex and Priority tiers — blog.google
OpenAI acquiert TBPN — 2 avril — OpenAI annonce l’acquisition de TBPN, un talk-show tech quotidien co-animé par Jordi Hays et John Coogan, décrit par le New York Times comme “la dernière obsession de la Silicon Valley”. L’indépendance éditoriale est préservée dans l’accord, TBPN rejoignant l’organisation Stratégie d’OpenAI. 🔗 openai.com/index/openai-acquires-tbpn
Ce que ça signifie
La journée du 2 avril illustre deux tendances de fond. D’abord, la compétition sur les modèles ouverts s’intensifie : Gemma 4 en Apache 2.0 avec multimodal natif et Qwen3.6-Plus en tête du coding agentique montrent que les modèles fermés n’ont plus le monopole des meilleures performances. Pour les développeurs, l’option d’une alternative souveraine et déployable localement devient concrète, y compris sur des appareils grand public (Jetson Orin Nano, RTX).
Ensuite, la recherche Anthropic sur les émotions fonctionnelles sort du cadre académique : si des vecteurs émotionnels mesurables influencent effectivement les comportements de reward hacking et de sycophancy, l’alignement des IA ne peut plus ignorer ces structures internes. C’est une ouverture vers une interprétabilité plus profonde des modèles.
Côté outillage, la tarification à l’usage de Codex et l’arrivée des plugins GitHub et Linear témoignent d’une maturation des workflows agentiques en entreprise. Qwen3.6-Plus utilisable directement dans Claude Code via ANTHROPIC_BASE_URL illustre que la portabilité entre fournisseurs devient une réalité opérationnelle.
Sources
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Emotion Concepts in LLMs — transformer-circuits.pub
- AnthropicAI sur X
- Codex flexible pricing — openai.com
- Plugin GitHub Codex — OpenAIDevs
- Plugin Linear Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Copilot SDK preview publique — github.blog
- Copilot Visual Studio mars 2026 — github.blog
- Instructions org Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex and Priority Gemini API — blog.google
- OpenAI acquiert TBPN — openai.com
- Claude Code CHANGELOG — github.com
- Dispatch permissions — @noahzweben
- Google AI Pro stockage — @shimritby