Journée exceptionnellement chargée le 16 avril : Anthropic lance Claude Opus 4.7 en disponibilité générale avec des gains significatifs sur les benchmarks agentiques, OpenAI dévoile simultanément Codex avec le computer use sur macOS et GPT-Rosalind, son premier modèle frontier dédié aux sciences du vivant. Google enrichit l’application Gemini avec la génération d’images personnalisées via Nano Banana 2 et Google Photos, Perplexity lance Personal Computer pour Mac, et GitHub ouvre la commande gh skill pour la gestion inter-agents des compétences (skills).
Claude Opus 4.7 : disponibilité générale
16 avril — Anthropic lance Claude Opus 4.7 en accès général (generally available). Le modèle succède à Opus 4.6 avec des progrès notables sur les tâches longues, l’autonomie agentique et la précision d’instruction.
“Opus 4.7 handles complex, long-running tasks with rigor and consistency, pays precise attention to instructions, and devises ways to verify its own outputs before reporting back.”
🇫🇷 Opus 4.7 gère des tâches longues et complexes avec rigueur et constance, porte une attention précise aux instructions, et conçoit des moyens de vérifier ses propres sorties avant de les transmettre. — @claudeai sur X
Capacités clés
| Fonctionnalité | Description |
|---|---|
| Vision haute résolution | Images jusqu’à 2 576 px sur le grand côté (~3,75 mégapixels), 3× la résolution précédente |
| Niveau d’effort xhigh | Niveau intermédiaire entre high et max, contrôle fin raisonnement/latence |
| Mémoire système de fichiers | Meilleure persistance entre sessions de travail |
| Autonomie renforcée | Vérification des sorties avant transmission, suivi d’instructions à la lettre |
| Qualité professionnelle | Interfaces, diapositives et documents de meilleure qualité |
Benchmarks
| Benchmark | Opus 4.7 | Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|
| SWE-bench Pro | 64.3% | 53.4% | 57.7% | 54.2% |
| SWE-bench Verified | 87.6% | 80.8% | — | 80.6% |
| Terminal-Bench 2.0 | 69.4% | 65.4% | 75.1%* | 68.5% |
| Raisonnement multidisciplinaire (avec outils) | 54.7% | 53.3% | 58.7% | 51.4% |
| Utilisation d’outils à l’échelle – MCP-Atlas | 77.3% | 75.8% | 68.1% | 73.9% |
| Computer use – OSWorld Verified | 78.0% | 72.7% | 75.0% | — |
| Raisonnement avancé – GPQA Diamond | 94.2% | 91.3% | 94.4% | 94.3% |
| Raisonnement visuel (avec outils) | 91.0% | 84.7% | — | — |
* GPT-5.4 : résultat auto-reporté avec harnais spécifique
Les gains les plus marquants se situent sur SWE-bench Pro (+10.9 points), le raisonnement visuel (+6.3 points avec outils) et MCP-Atlas (+1.5 points) — des benchmarks directement liés aux usages agentiques.
Tarification et disponibilité
Opus 4.7 est disponible dès aujourd’hui via l’API Claude (identifiant claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry, et dans tous les produits Claude. Le tarif est identique à Opus 4.6 : 25 en sortie.
Deux points d’attention pour les développeurs migrant d’Opus 4.6 : le nouveau tokenizer peut générer 1,0× à 1,35× plus de tokens selon le type de contenu, et Opus 4.7 produit davantage de tokens de raisonnement aux niveaux d’effort élevés. Anthropic a publié un guide de migration dédié.
Opus 4.7 est également le premier modèle à bénéficier des nouveaux garde-fous cybersécurité du projet Glasswing. Un programme de vérification cyber (Cyber Verification Program) est ouvert aux professionnels légitimes.
Claude Code v2.1.111 : /ultrareview, auto mode Max, xhigh par défaut
16 avril — La version 2.1.111 de Claude Code accompagne le lancement d’Opus 4.7 avec plusieurs ajouts significatifs.
| Fonctionnalité | Description |
|---|---|
/ultrareview | Code review approfondi en parallèle multi-agents. Sans argument = branche courante ; /ultrareview <PR#> pour une PR GitHub. 3 essais gratuits pour Pro et Max. |
| Auto mode pour Max | L’auto mode (Claude décide seul des permissions) est désormais disponible pour les abonnés Max avec Opus 4.7. |
| Effort xhigh par défaut | Le niveau d’effort par défaut est relevé à xhigh pour tous les plans. |
/less-permission-prompts | Scanne les transcripts et propose une liste d’autorisation priorisée pour .claude/settings.json. |
| PowerShell tool | Support PowerShell (déploiement progressif). Activable via CLAUDE_CODE_USE_POWERSHELL_TOOL=1 sur Linux/macOS. |
| Plans nommés | Plans nommés d’après le prompt initial (fix-auth-race-snug-otter.md) plutôt qu’aléatoirement. |
| Commandes read-only | cd, ls, cat et commandes read-only ne déclenchent plus de demande de permission. |
La version 2.1.112 (déployée le soir du 16 avril) corrige immédiatement une erreur “claude-opus-4-7 is temporarily unavailable” apparaissant en mode auto.
Boris Cherny (@bcherny) a également annoncé l’augmentation des rate limits pour tous les abonnés, pour compenser le volume de tokens de raisonnement plus élevé d’Opus 4.7. Un bug de rate limiting sur les requêtes à long contexte a été corrigé et les limites 5h et hebdomadaires réinitialisées.
GitHub Copilot intègre également Opus 4.7 en GA dès aujourd’hui, avec un déploiement progressif dans VS Code, Visual Studio, le CLI, GitHub Mobile et les autres clients Copilot. Pour Copilot Pro+, il remplacera Opus 4.5 et 4.6 dans les semaines à venir. Une tarification promotionnelle (multiplicateur 7.5×) s’applique jusqu’au 30 avril.
🔗 CHANGELOG Claude Code 🔗 Tweet @bcherny 🔗 Claude Opus 4.7 dans GitHub Copilot
OpenAI : Codex passe au computer use, GPT-Rosalind et cyber ecosystem
Codex — computer use sur macOS, browser intégré, mémoire persistante
16 avril — OpenAI publie une mise à jour importante de Codex, utilisée par plus de 3 millions de développeurs par semaine. Cette release élargit Codex bien au-delà du code.
“Codex can now use your computer alongside you, seeing, clicking, and typing with its own cursor.”
🇫🇷 Codex peut désormais utiliser votre ordinateur à vos côtés, voir, cliquer et taper avec son propre curseur. — @OpenAI
Computer use (utilisation de l’ordinateur) — Plusieurs agents Codex peuvent travailler simultanément sur macOS sans interférer avec les applications ouvertes. Cas d’usage : itérer sur des interfaces (frontend), tester des applications, travailler dans des apps sans API exposée. Disponibilité EU/UK à venir.
| Fonctionnalité | Description |
|---|---|
| Browser intégré | Commenter directement les pages web pour instruire l’agent sur le développement frontend et les jeux |
| Génération d’images | Intégration gpt-image-1.5 pour créer assets et maquettes dans le même flux de travail |
| 90+ nouveaux plugins | Atlassian Rovo, CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon, Remotion, Render, Superpowers… |
| Mémoire persistante | Préférences, corrections et contexte accumulés entre sessions |
| Automations planifiées | Tâches récurrentes sur jours ou semaines, avec réveil automatique |
| SSH devboxes | Connexion aux serveurs distants (alpha) |
| Onglets terminal multiples | Plusieurs terminaux simultanés |
GPT-Rosalind — premier modèle frontier sciences du vivant
16 avril — OpenAI lance GPT-Rosalind, son premier modèle frontier dédié à la biologie, à la découverte de médicaments (drug discovery) et à la médecine translationnelle. Le nom est un hommage à Rosalind Franklin, dont les travaux ont contribué à révéler la structure de l’ADN.
GPT-Rosalind est optimisé pour la synthèse de littérature scientifique, la génération d’hypothèses, la planification expérimentale et l’analyse de données biologiques.
| Benchmark | Résultat |
|---|---|
| BixBench (bioinformatique réelle) | Meilleure performance parmi les modèles avec scores publiés |
| LABBench2 | Dépasse GPT-5.4 sur 6 tâches sur 11 |
| Prédiction séquence ARN (Dyno Therapeutics) | Top 95e percentile des experts humains (best-of-10) |
| Génération séquence ARN (Dyno Therapeutics) | ~84e percentile des experts humains (best-of-10) |
Un plugin Life Sciences gratuit pour Codex est disponible sur GitHub : accès à plus de 50 bases de données biologiques publiques (génomique humaine, protéomique, biochimie). GPT-Rosalind est accessible en aperçu de recherche (research preview) pour les clients Enterprise qualifiés aux États-Unis via le programme Trusted Access. L’utilisation ne consomme pas les crédits existants pendant l’aperçu.
Partenaires annoncés : Amgen, Novo Nordisk, Moderna, Thermo Fisher Scientific, NVIDIA, Allen Institute, UCSF School of Pharmacy, Los Alamos National Laboratory.
Cyber defense ecosystem — $10M de crédits API
16 avril — OpenAI engage 10 millions de dollars en crédits API pour soutenir les équipes de sécurité open source et les chercheurs en vulnérabilités. Premiers bénéficiaires : Socket, Semgrep, Calif, Trail of Bits.
Le programme Trusted Access for Cyber s’étend à de nouvelles organisations : Bank of America, BlackRock, BNY, Citi, Cisco, CrowdStrike, Goldman Sachs, JPMorgan Chase, Morgan Stanley, NVIDIA, Oracle, Zscaler. GPT-5.4-Cyber est également fourni au Centre américain pour les normes et l’innovation en IA (CAISI) et à l’Institut de sécurité IA du Royaume-Uni (UK AISI) pour des évaluations indépendantes.
Gemini : images personnalisées avec Nano Banana 2 et Google Photos
16 avril — Google présente de nouvelles fonctionnalités de génération d’images personnalisées dans l’application Gemini, propulsées par Personal Intelligence (intelligence personnelle), Nano Banana 2 et la bibliothèque Google Photos de l’utilisateur.
Jusqu’ici, créer une image vraiment personnelle avec Gemini nécessitait des invites (prompts) détaillées et des photos téléchargées manuellement. Personal Intelligence donne désormais à Gemini une compréhension implicite du contexte de l’utilisateur : il suffit de formules simples comme « Dessine ma maison de rêve » ou « Crée une image de mes indispensables pour une île déserte », Gemini remplissant automatiquement les détails depuis les applications Google connectées.
En connectant sa bibliothèque Google Photos, l’utilisateur peut générer des images où lui-même et ses proches apparaissent directement. Grâce aux étiquettes déjà créées dans Photos (personnes, animaux de compagnie), une demande comme « Crée une image en claymatione de moi et ma famille en train de faire notre activité préférée » suffit.
| Fonctionnalité | Détail |
|---|---|
| Styles disponibles | Aquarelle, crayon au charbon, peinture à l’huile, claymatione |
| Bouton Sources | Affiche quelle photo a été sélectionnée automatiquement |
| Raffinement | Indiquer ce qui était incorrect, choisir une autre photo de référence |
| Confidentialité | Gemini ne s’entraîne PAS sur la bibliothèque Google Photos privée |
| Opt-in | Connexion des applications Google reste optionnelle et paramétrable |
Disponibilité : déploiement en cours sur quelques jours pour les abonnés Google AI Plus, Pro et Ultra aux États-Unis uniquement pour l’instant. Arrivée prévue dans Gemini sur Chrome desktop et pour plus d’utilisateurs.
Gemini CLI v0.38.0
14 avril — La version v0.38.0 de Gemini CLI est disponible avec plusieurs améliorations de l’expérience en ligne de commande.
| Fonctionnalité | Détail |
|---|---|
| Chapters (flux narratif) | Regroupe les interactions en « chapitres » selon l’intention et l’usage des outils |
| Context Compression Service | Distille intelligemment l’historique pour les sessions longues |
| Approbations persistantes | Approuver l’exécution d’outils sans redemander à chaque fois |
| Correction scintillement UI | Résolution du rendu instable via le mode Terminal Buffer |
Perplexity Personal Computer : agent local sur Mac
16 avril — Perplexity lance Personal Computer, une fonctionnalité d’agent local intégrée à l’application Mac.
“Today we’re releasing Personal Computer. Personal Computer integrates with the Perplexity Mac App for secure orchestration across your local files, native apps, and browser. We’re rolling this out to all Perplexity Max subscribers and everyone on the waitlist starting today.”
🇫🇷 Aujourd’hui nous lançons Personal Computer. Personal Computer s’intègre à l’application Mac Perplexity pour une orchestration sécurisée de vos fichiers locaux, applications natives et navigateur. Nous déployons cela pour tous les abonnés Perplexity Max et pour les personnes sur liste d’attente à partir d’aujourd’hui. — @perplexity_ai sur X
L’agent orchestre de façon sécurisée les fichiers locaux, les applications natives et le navigateur, sans passer par le cloud pour les données sensibles. Le déploiement est progressif : abonnés Perplexity Max en priorité, puis la liste d’attente.
Il s’agit d’un pivot notable pour Perplexity : après avoir construit sa réputation sur la recherche web IA, la société s’attaque désormais à l’orchestration locale sur le poste de travail — un terrain déjà exploré par Apple Intelligence et Operator d’OpenAI.
GitHub : la commande gh skill en preview publique
16 avril — GitHub lance gh skill en preview publique dans le GitHub CLI (v2.90.0+). Cette nouvelle commande permet d’installer, découvrir, mettre à jour et publier des agent skills — des ensembles portables d’instructions, scripts et ressources qui configurent le comportement des agents IA.
gh skill install github/awesome-copilot documentation-writer
gh skill install github/awesome-copilot doc-writer --agent claude-code
gh skill search mcp-apps
gh skill update --all
Les skills fonctionnent sur plusieurs plateformes : GitHub Copilot, Claude Code, Cursor, Codex, Gemini CLI et Antigravity. La commande intègre des mécanismes de sécurité de chaîne d’approvisionnement (supply chain) : épinglage par tag ou SHA de commit, releases immuables, et suivi de provenance via frontmatter. La spécification ouverte est disponible sur agentskills.io.
Qwen3.6-35B-A3B open-source et Meta Muse Spark Safety
Qwen3.6-35B-A3B : MoE open-source sous Apache 2.0
15–16 avril — Alibaba annonce la mise en open-source de Qwen3.6-35B-A3B, un modèle MoE (mixture-of-experts) sparse avec 35 milliards de paramètres au total mais seulement 3 milliards de paramètres actifs par inférence.
| Aspect | Détail |
|---|---|
| Architecture | MoE sparse : 35B paramètres, 3B actifs |
| Licence | Apache 2.0 |
| Multimodal | Natif (vision + raisonnement) |
| Modes | Thinking / non-thinking |
| Benchmark | Qwen3.6-35B-A3B |
|---|---|
| SWE-bench Verified | 73,4 |
| SWE-bench Multilingual | 67,2 |
| AIME 2026 | 92,7 |
| GPQA | 86,0 |
Disponible sur Hugging Face / ModelScope, Qwen Studio et via l’API Alibaba Cloud (qwen3.6-flash). Compatible nativement avec Claude Code, Qwen Code et OpenClaw.
Meta Muse Spark : rapport de sécurité publié
15 avril — Meta AI publie le rapport de sécurité et de préparation (Safety & Preparedness Report) de Muse Spark, son premier modèle multimodal non open-weights développé par Meta Superintelligence Labs.
| Aspect | Détail |
|---|---|
| Cadre utilisé | Meta Advanced AI Scaling Framework |
| Risques évalués | Chimique/biologique, cybersécurité, perte de contrôle |
| Résultat chem/bio | Risque initialement « potentiellement élevé » → mitigations validées → risque résiduel acceptable |
Ce rapport marque une étape notable : Meta suit désormais une procédure formelle d’évaluation de sécurité avant déploiement pour ses modèles avancés, similaire aux approches d’Anthropic et OpenAI.
Media et mises à jour diverses
Runway publie deux mises à jour le 16 avril : Seedance 2.0 passe en rendu 1080p, et Runway Characters intègre désormais l’animation par script textuel (choisir un personnage, écrire le script, générer). NVIDIA est présent au NAB Show 2026 pour démontrer l’IA dans la production media, l’engagement des fans et la monétisation de contenus.
Grok iOS reçoit un indicateur visuel animé dans le mode voix : un petit cercle indique désormais que Grok est en écoute active.
🔗 Runway — Seedance 2.0 en 1080p 🔗 Runway Characters — animation par script
Ce que ça signifie
Le 16 avril illustre une journée de convergence agentique sur tous les fronts : Claude Opus 4.7, Codex avec computer use, Perplexity Personal Computer et gh skill partagent la même logique — des agents capables d’agir sur le système local (fichiers, applications, ordinateur), coordonnés entre plusieurs plateformes via des standards portables.
La commande gh skill est particulièrement structurante : en posant une spécification ouverte d’installation inter-agents (Copilot, Claude Code, Cursor, Codex, Gemini CLI), GitHub établit une infrastructure commune qui pourrait devenir le npm install du monde agentique.
GPT-Rosalind marque quant à lui une évolution dans la stratégie d’OpenAI : après les modèles généralistes, la société commence à créer des modèles frontier spécialisés par domaine — une approche qui rappelle la diversification par verticale déjà explorée par Google DeepMind en biologie computationnelle.
Sources
- Anthropic — Introducing Claude Opus 4.7
- Tweet @claudeai — Opus 4.7 GA
- Tweet @bcherny — Rate limits augmentés
- CHANGELOG Claude Code (GitHub)
- GitHub Changelog — Claude Opus 4.7 dans Copilot
- OpenAI — Codex for almost everything
- OpenAI — Introducing GPT-Rosalind
- OpenAI — Accelerating Cyber Defense Ecosystem
- blog.google — Gemini : images personnalisées avec Nano Banana 2
- Changelog Gemini CLI
- perplexity.ai/computer
- Tweet @perplexity_ai — Personal Computer
- GitHub Changelog — gh skill
- Blog Qwen — Qwen3.6-35B-A3B
- Meta AI — Muse Spark Safety Report
- Tweet @runwayml — Seedance 2.0 1080p
- Tweet @runwayml — Runway Characters script