Rechercher

Claude Opus 4.7 disponible, Codex passe au computer use macOS, OpenAI lance GPT-Rosalind

Claude Opus 4.7 disponible, Codex passe au computer use macOS, OpenAI lance GPT-Rosalind

Journée exceptionnellement chargée le 16 avril : Anthropic lance Claude Opus 4.7 en disponibilité générale avec des gains significatifs sur les benchmarks agentiques, OpenAI dévoile simultanément Codex avec le computer use sur macOS et GPT-Rosalind, son premier modèle frontier dédié aux sciences du vivant. Google enrichit l’application Gemini avec la génération d’images personnalisées via Nano Banana 2 et Google Photos, Perplexity lance Personal Computer pour Mac, et GitHub ouvre la commande gh skill pour la gestion inter-agents des compétences (skills).


Claude Opus 4.7 : disponibilité générale

16 avril — Anthropic lance Claude Opus 4.7 en accès général (generally available). Le modèle succède à Opus 4.6 avec des progrès notables sur les tâches longues, l’autonomie agentique et la précision d’instruction.

“Opus 4.7 handles complex, long-running tasks with rigor and consistency, pays precise attention to instructions, and devises ways to verify its own outputs before reporting back.”

🇫🇷 Opus 4.7 gère des tâches longues et complexes avec rigueur et constance, porte une attention précise aux instructions, et conçoit des moyens de vérifier ses propres sorties avant de les transmettre.@claudeai sur X

Capacités clés

FonctionnalitéDescription
Vision haute résolutionImages jusqu’à 2 576 px sur le grand côté (~3,75 mégapixels), 3× la résolution précédente
Niveau d’effort xhighNiveau intermédiaire entre high et max, contrôle fin raisonnement/latence
Mémoire système de fichiersMeilleure persistance entre sessions de travail
Autonomie renforcéeVérification des sorties avant transmission, suivi d’instructions à la lettre
Qualité professionnelleInterfaces, diapositives et documents de meilleure qualité

Benchmarks

BenchmarkOpus 4.7Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-bench Pro64.3%53.4%57.7%54.2%
SWE-bench Verified87.6%80.8%80.6%
Terminal-Bench 2.069.4%65.4%75.1%*68.5%
Raisonnement multidisciplinaire (avec outils)54.7%53.3%58.7%51.4%
Utilisation d’outils à l’échelle – MCP-Atlas77.3%75.8%68.1%73.9%
Computer use – OSWorld Verified78.0%72.7%75.0%
Raisonnement avancé – GPQA Diamond94.2%91.3%94.4%94.3%
Raisonnement visuel (avec outils)91.0%84.7%

* GPT-5.4 : résultat auto-reporté avec harnais spécifique

Les gains les plus marquants se situent sur SWE-bench Pro (+10.9 points), le raisonnement visuel (+6.3 points avec outils) et MCP-Atlas (+1.5 points) — des benchmarks directement liés aux usages agentiques.

Tarification et disponibilité

Opus 4.7 est disponible dès aujourd’hui via l’API Claude (identifiant claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry, et dans tous les produits Claude. Le tarif est identique à Opus 4.6 : 5parmilliondetokensenentreˊe,5 par million de tokens en entrée, 25 en sortie.

Deux points d’attention pour les développeurs migrant d’Opus 4.6 : le nouveau tokenizer peut générer 1,0× à 1,35× plus de tokens selon le type de contenu, et Opus 4.7 produit davantage de tokens de raisonnement aux niveaux d’effort élevés. Anthropic a publié un guide de migration dédié.

Opus 4.7 est également le premier modèle à bénéficier des nouveaux garde-fous cybersécurité du projet Glasswing. Un programme de vérification cyber (Cyber Verification Program) est ouvert aux professionnels légitimes.

🔗 Article officiel Anthropic


Claude Code v2.1.111 : /ultrareview, auto mode Max, xhigh par défaut

16 avril — La version 2.1.111 de Claude Code accompagne le lancement d’Opus 4.7 avec plusieurs ajouts significatifs.

FonctionnalitéDescription
/ultrareviewCode review approfondi en parallèle multi-agents. Sans argument = branche courante ; /ultrareview <PR#> pour une PR GitHub. 3 essais gratuits pour Pro et Max.
Auto mode pour MaxL’auto mode (Claude décide seul des permissions) est désormais disponible pour les abonnés Max avec Opus 4.7.
Effort xhigh par défautLe niveau d’effort par défaut est relevé à xhigh pour tous les plans.
/less-permission-promptsScanne les transcripts et propose une liste d’autorisation priorisée pour .claude/settings.json.
PowerShell toolSupport PowerShell (déploiement progressif). Activable via CLAUDE_CODE_USE_POWERSHELL_TOOL=1 sur Linux/macOS.
Plans nommésPlans nommés d’après le prompt initial (fix-auth-race-snug-otter.md) plutôt qu’aléatoirement.
Commandes read-onlycd, ls, cat et commandes read-only ne déclenchent plus de demande de permission.

La version 2.1.112 (déployée le soir du 16 avril) corrige immédiatement une erreur “claude-opus-4-7 is temporarily unavailable” apparaissant en mode auto.

Boris Cherny (@bcherny) a également annoncé l’augmentation des rate limits pour tous les abonnés, pour compenser le volume de tokens de raisonnement plus élevé d’Opus 4.7. Un bug de rate limiting sur les requêtes à long contexte a été corrigé et les limites 5h et hebdomadaires réinitialisées.

GitHub Copilot intègre également Opus 4.7 en GA dès aujourd’hui, avec un déploiement progressif dans VS Code, Visual Studio, le CLI, GitHub Mobile et les autres clients Copilot. Pour Copilot Pro+, il remplacera Opus 4.5 et 4.6 dans les semaines à venir. Une tarification promotionnelle (multiplicateur 7.5×) s’applique jusqu’au 30 avril.

🔗 CHANGELOG Claude Code 🔗 Tweet @bcherny 🔗 Claude Opus 4.7 dans GitHub Copilot


OpenAI : Codex passe au computer use, GPT-Rosalind et cyber ecosystem

Codex — computer use sur macOS, browser intégré, mémoire persistante

16 avril — OpenAI publie une mise à jour importante de Codex, utilisée par plus de 3 millions de développeurs par semaine. Cette release élargit Codex bien au-delà du code.

“Codex can now use your computer alongside you, seeing, clicking, and typing with its own cursor.”

🇫🇷 Codex peut désormais utiliser votre ordinateur à vos côtés, voir, cliquer et taper avec son propre curseur.@OpenAI

Computer use (utilisation de l’ordinateur) — Plusieurs agents Codex peuvent travailler simultanément sur macOS sans interférer avec les applications ouvertes. Cas d’usage : itérer sur des interfaces (frontend), tester des applications, travailler dans des apps sans API exposée. Disponibilité EU/UK à venir.

FonctionnalitéDescription
Browser intégréCommenter directement les pages web pour instruire l’agent sur le développement frontend et les jeux
Génération d’imagesIntégration gpt-image-1.5 pour créer assets et maquettes dans le même flux de travail
90+ nouveaux pluginsAtlassian Rovo, CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon, Remotion, Render, Superpowers…
Mémoire persistantePréférences, corrections et contexte accumulés entre sessions
Automations planifiéesTâches récurrentes sur jours ou semaines, avec réveil automatique
SSH devboxesConnexion aux serveurs distants (alpha)
Onglets terminal multiplesPlusieurs terminaux simultanés

🔗 Article officiel OpenAI

GPT-Rosalind — premier modèle frontier sciences du vivant

16 avril — OpenAI lance GPT-Rosalind, son premier modèle frontier dédié à la biologie, à la découverte de médicaments (drug discovery) et à la médecine translationnelle. Le nom est un hommage à Rosalind Franklin, dont les travaux ont contribué à révéler la structure de l’ADN.

GPT-Rosalind est optimisé pour la synthèse de littérature scientifique, la génération d’hypothèses, la planification expérimentale et l’analyse de données biologiques.

BenchmarkRésultat
BixBench (bioinformatique réelle)Meilleure performance parmi les modèles avec scores publiés
LABBench2Dépasse GPT-5.4 sur 6 tâches sur 11
Prédiction séquence ARN (Dyno Therapeutics)Top 95e percentile des experts humains (best-of-10)
Génération séquence ARN (Dyno Therapeutics)~84e percentile des experts humains (best-of-10)

Un plugin Life Sciences gratuit pour Codex est disponible sur GitHub : accès à plus de 50 bases de données biologiques publiques (génomique humaine, protéomique, biochimie). GPT-Rosalind est accessible en aperçu de recherche (research preview) pour les clients Enterprise qualifiés aux États-Unis via le programme Trusted Access. L’utilisation ne consomme pas les crédits existants pendant l’aperçu.

Partenaires annoncés : Amgen, Novo Nordisk, Moderna, Thermo Fisher Scientific, NVIDIA, Allen Institute, UCSF School of Pharmacy, Los Alamos National Laboratory.

🔗 Article officiel OpenAI

Cyber defense ecosystem — $10M de crédits API

16 avril — OpenAI engage 10 millions de dollars en crédits API pour soutenir les équipes de sécurité open source et les chercheurs en vulnérabilités. Premiers bénéficiaires : Socket, Semgrep, Calif, Trail of Bits.

Le programme Trusted Access for Cyber s’étend à de nouvelles organisations : Bank of America, BlackRock, BNY, Citi, Cisco, CrowdStrike, Goldman Sachs, JPMorgan Chase, Morgan Stanley, NVIDIA, Oracle, Zscaler. GPT-5.4-Cyber est également fourni au Centre américain pour les normes et l’innovation en IA (CAISI) et à l’Institut de sécurité IA du Royaume-Uni (UK AISI) pour des évaluations indépendantes.

🔗 Article officiel OpenAI


Gemini : images personnalisées avec Nano Banana 2 et Google Photos

16 avril — Google présente de nouvelles fonctionnalités de génération d’images personnalisées dans l’application Gemini, propulsées par Personal Intelligence (intelligence personnelle), Nano Banana 2 et la bibliothèque Google Photos de l’utilisateur.

Jusqu’ici, créer une image vraiment personnelle avec Gemini nécessitait des invites (prompts) détaillées et des photos téléchargées manuellement. Personal Intelligence donne désormais à Gemini une compréhension implicite du contexte de l’utilisateur : il suffit de formules simples comme « Dessine ma maison de rêve » ou « Crée une image de mes indispensables pour une île déserte », Gemini remplissant automatiquement les détails depuis les applications Google connectées.

En connectant sa bibliothèque Google Photos, l’utilisateur peut générer des images où lui-même et ses proches apparaissent directement. Grâce aux étiquettes déjà créées dans Photos (personnes, animaux de compagnie), une demande comme « Crée une image en claymatione de moi et ma famille en train de faire notre activité préférée » suffit.

FonctionnalitéDétail
Styles disponiblesAquarelle, crayon au charbon, peinture à l’huile, claymatione
Bouton SourcesAffiche quelle photo a été sélectionnée automatiquement
RaffinementIndiquer ce qui était incorrect, choisir une autre photo de référence
ConfidentialitéGemini ne s’entraîne PAS sur la bibliothèque Google Photos privée
Opt-inConnexion des applications Google reste optionnelle et paramétrable

Disponibilité : déploiement en cours sur quelques jours pour les abonnés Google AI Plus, Pro et Ultra aux États-Unis uniquement pour l’instant. Arrivée prévue dans Gemini sur Chrome desktop et pour plus d’utilisateurs.

🔗 Article blog.google

Gemini CLI v0.38.0

14 avril — La version v0.38.0 de Gemini CLI est disponible avec plusieurs améliorations de l’expérience en ligne de commande.

FonctionnalitéDétail
Chapters (flux narratif)Regroupe les interactions en « chapitres » selon l’intention et l’usage des outils
Context Compression ServiceDistille intelligemment l’historique pour les sessions longues
Approbations persistantesApprouver l’exécution d’outils sans redemander à chaque fois
Correction scintillement UIRésolution du rendu instable via le mode Terminal Buffer

🔗 Changelog Gemini CLI


Perplexity Personal Computer : agent local sur Mac

16 avril — Perplexity lance Personal Computer, une fonctionnalité d’agent local intégrée à l’application Mac.

“Today we’re releasing Personal Computer. Personal Computer integrates with the Perplexity Mac App for secure orchestration across your local files, native apps, and browser. We’re rolling this out to all Perplexity Max subscribers and everyone on the waitlist starting today.”

🇫🇷 Aujourd’hui nous lançons Personal Computer. Personal Computer s’intègre à l’application Mac Perplexity pour une orchestration sécurisée de vos fichiers locaux, applications natives et navigateur. Nous déployons cela pour tous les abonnés Perplexity Max et pour les personnes sur liste d’attente à partir d’aujourd’hui.@perplexity_ai sur X

L’agent orchestre de façon sécurisée les fichiers locaux, les applications natives et le navigateur, sans passer par le cloud pour les données sensibles. Le déploiement est progressif : abonnés Perplexity Max en priorité, puis la liste d’attente.

Il s’agit d’un pivot notable pour Perplexity : après avoir construit sa réputation sur la recherche web IA, la société s’attaque désormais à l’orchestration locale sur le poste de travail — un terrain déjà exploré par Apple Intelligence et Operator d’OpenAI.

🔗 perplexity.ai/computer


GitHub : la commande gh skill en preview publique

16 avril — GitHub lance gh skill en preview publique dans le GitHub CLI (v2.90.0+). Cette nouvelle commande permet d’installer, découvrir, mettre à jour et publier des agent skills — des ensembles portables d’instructions, scripts et ressources qui configurent le comportement des agents IA.

gh skill install github/awesome-copilot documentation-writer
gh skill install github/awesome-copilot doc-writer --agent claude-code
gh skill search mcp-apps
gh skill update --all

Les skills fonctionnent sur plusieurs plateformes : GitHub Copilot, Claude Code, Cursor, Codex, Gemini CLI et Antigravity. La commande intègre des mécanismes de sécurité de chaîne d’approvisionnement (supply chain) : épinglage par tag ou SHA de commit, releases immuables, et suivi de provenance via frontmatter. La spécification ouverte est disponible sur agentskills.io.

🔗 Changelog GitHub


Qwen3.6-35B-A3B open-source et Meta Muse Spark Safety

Qwen3.6-35B-A3B : MoE open-source sous Apache 2.0

15–16 avril — Alibaba annonce la mise en open-source de Qwen3.6-35B-A3B, un modèle MoE (mixture-of-experts) sparse avec 35 milliards de paramètres au total mais seulement 3 milliards de paramètres actifs par inférence.

AspectDétail
ArchitectureMoE sparse : 35B paramètres, 3B actifs
LicenceApache 2.0
MultimodalNatif (vision + raisonnement)
ModesThinking / non-thinking
BenchmarkQwen3.6-35B-A3B
SWE-bench Verified73,4
SWE-bench Multilingual67,2
AIME 202692,7
GPQA86,0

Disponible sur Hugging Face / ModelScope, Qwen Studio et via l’API Alibaba Cloud (qwen3.6-flash). Compatible nativement avec Claude Code, Qwen Code et OpenClaw.

🔗 Blog officiel Qwen

Meta Muse Spark : rapport de sécurité publié

15 avril — Meta AI publie le rapport de sécurité et de préparation (Safety & Preparedness Report) de Muse Spark, son premier modèle multimodal non open-weights développé par Meta Superintelligence Labs.

AspectDétail
Cadre utiliséMeta Advanced AI Scaling Framework
Risques évaluésChimique/biologique, cybersécurité, perte de contrôle
Résultat chem/bioRisque initialement « potentiellement élevé » → mitigations validées → risque résiduel acceptable

Ce rapport marque une étape notable : Meta suit désormais une procédure formelle d’évaluation de sécurité avant déploiement pour ses modèles avancés, similaire aux approches d’Anthropic et OpenAI.

🔗 Rapport Muse Spark Safety


Media et mises à jour diverses

Runway publie deux mises à jour le 16 avril : Seedance 2.0 passe en rendu 1080p, et Runway Characters intègre désormais l’animation par script textuel (choisir un personnage, écrire le script, générer). NVIDIA est présent au NAB Show 2026 pour démontrer l’IA dans la production media, l’engagement des fans et la monétisation de contenus.

Grok iOS reçoit un indicateur visuel animé dans le mode voix : un petit cercle indique désormais que Grok est en écoute active.

🔗 Runway — Seedance 2.0 en 1080p 🔗 Runway Characters — animation par script


Ce que ça signifie

Le 16 avril illustre une journée de convergence agentique sur tous les fronts : Claude Opus 4.7, Codex avec computer use, Perplexity Personal Computer et gh skill partagent la même logique — des agents capables d’agir sur le système local (fichiers, applications, ordinateur), coordonnés entre plusieurs plateformes via des standards portables.

La commande gh skill est particulièrement structurante : en posant une spécification ouverte d’installation inter-agents (Copilot, Claude Code, Cursor, Codex, Gemini CLI), GitHub établit une infrastructure commune qui pourrait devenir le npm install du monde agentique.

GPT-Rosalind marque quant à lui une évolution dans la stratégie d’OpenAI : après les modèles généralistes, la société commence à créer des modèles frontier spécialisés par domaine — une approche qui rappelle la diversification par verticale déjà explorée par Google DeepMind en biologie computationnelle.


Sources