Rechercher

Anthropic acquiert Vercept (computer use à 72,5%), Perplexity Computer orchestre 19 modèles, GitHub Copilot CLI en GA

Anthropic acquiert Vercept (computer use à 72,5%), Perplexity Computer orchestre 19 modèles, GitHub Copilot CLI en GA

Le 25 février 2026 est une journée dense : Anthropic acquiert Vercept pour accélérer les capacités computer use de Claude (72,5% sur OSWorld), Perplexity lance Computer — un système agentique multi-modèle qui orchestre 19 modèles en parallèle — et GitHub Copilot CLI passe en disponibilité générale pour tous les abonnés payants. En parallèle, Google DeepMind dévoile Genie 3 (world models interactifs) et Intrinsic rejoint Google pour la robotique industrielle.


Anthropic acquiert Vercept : le computer use progresse vers 72,5% sur OSWorld

25 février — Anthropic annonce l’acquisition de Vercept, une startup spécialisée dans la perception et l’interaction des systèmes IA avec les interfaces logicielles. Les co-fondateurs Kiana Ehsani, Luca Weihs et Ross Girshick intègrent Anthropic pour renforcer directement les capacités de computer use de Claude.

Cette acquisition s’inscrit dans une progression rapide sur le benchmark OSWorld, qui mesure la capacité d’un agent IA à accomplir des tâches sur un vrai système d’exploitation (navigation dans des tableurs complexes, complétion de formulaires multi-onglets, etc.) :

PériodeScore OSWorld
Fin 2024 (lancement computer use)< 15%
Claude Sonnet 4.6 (fév. 2026)72,5%

Un bond de plus de 57 points en un an. Claude Sonnet 4.6 approche désormais les performances humaines sur ces tâches de bureau. Vercept va arrêter son produit externe dans les prochaines semaines pour se concentrer entièrement sur ce travail au sein d’Anthropic.

Cette acquisition suit celle de Bun précédemment. Anthropic constitue ainsi un portefeuille d’équipes d’excellence technique autour des capacités agentiques.

🔗 Anthropic acquires Vercept


Perplexity Computer : un orchestrateur agentique multi-modèle (19 modèles)

25 février — Perplexity lance Computer, un système d’IA généraliste conçu pour exécuter des projets complets de bout en bout. L’utilisateur décrit un objectif final, Computer décompose le travail en sous-tâches, crée des sub-agents spécialisés et exécute en parallèle — pendant des heures ou des mois si nécessaire.

Le fonctionnement est asynchrone et isolé : chaque tâche s’exécute dans un environnement dédié avec accès à un vrai filesystem, un vrai navigateur, et des intégrations d’outils réels (APIs, recherche web, génération de documents).

Ce qui distingue Perplexity Computer, c’est son orchestration massively multi-model — 19 modèles disponibles, chacun assigné selon ses forces :

ModèleRôle
Claude Opus 4.6Orchestrateur principal (core reasoning)
GeminiDeep research, création de sub-agents
ChatGPT 5.2Long-context recall et wide search
GrokTâches légères (vitesse)
Veo 3.1Génération vidéo
Nano BananaGénération d’images

Le harness est model-agnostic : les modèles peuvent être remplacés au fur et à mesure de leur évolution. La philosophie de Perplexity est que les modèles se spécialisent plutôt qu’ils ne se commoditisent, rendant l’orchestration multi-modèle plus efficace qu’un modèle unique.

Disponibilité : actuellement en accès web pour les abonnés Perplexity Max. Un déploiement vers Perplexity Pro, Enterprise et Enterprise Max est prévu. Le pricing est usage-based avec des spending caps configurables.

🔗 Introducing Perplexity Computer


GitHub Copilot CLI passe en disponibilité générale

25 février — Annoncé en preview publique en septembre 2025, GitHub Copilot CLI passe en disponibilité générale pour tous les abonnés Copilot payants (Pro, Pro+, Business, Enterprise). Des centaines d’améliorations ont été intégrées depuis la preview.

Copilot CLI est maintenant un environnement de développement agentique complet depuis le terminal :

FeatureDétail
Plan mode (Shift+Tab)Analyse la demande, pose des questions de clarification, construit un plan structuré avant d’écrire du code
Autopilot modeExécution autonome end-to-end sans interruption
Background delegationPréfixe & → délègue à l’agent cloud, libère le terminal ; /resume pour reprendre
Multi-modèleClaude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5, GPT-5.3-Codex, Gemini 3 Pro
MCP intégréGitHub MCP server built-in + support MCP custom
Plugins/plugin install owner/repo — bundle MCP, agents, skills, hooks
Agent SkillsFichiers Markdown → workflows spécialisés, partagés avec Copilot agent et VS Code
Agents customVia wizard ou fichiers .agent.md
HookspreToolUse / postToolUse pour politiques et post-processing
Auto-compactionCompression auto à 95% du contexte → sessions infinies
Repository memoryMémorisation des conventions entre sessions

Note pour les organisations Business et Enterprise : un administrateur doit activer Copilot CLI depuis la page Policies.

🔗 GitHub Copilot CLI is now generally available


Claude Cowork : tâches planifiées, onglet Customize, disponible sur Windows

25 février — Anthropic annonce plusieurs ajouts à Claude Cowork (research preview) :

FonctionnalitéDétail
Scheduled tasksClaude exécute des tâches récurrentes automatiquement (briefing matinal, mises à jour hebdomadaires de tableurs, présentations du vendredi)
Onglet CustomizeNouvel onglet dans la sidebar pour gérer plugins, skills et connecteurs depuis un seul endroit
Expansion WindowsCowork est désormais disponible sur macOS et Windows (tous les plans Claude payants)

Cowork donne accès aux fichiers locaux, aux connecteurs (Slack, Notion, Figma) et à Claude in Chrome pour la navigation web.

🔗 Thread @claudeai


Google DeepMind — Genie 3 : world models interactifs

25 février — Google DeepMind publie un Q&A avec les co-leads de Project Genie, son prototype expérimental de world model. Avec Genie 3, une simple image ou un texte suffit à générer un environnement interactif navigable en temps réel — sans moteur de jeu.

La différence conceptuelle avec un LLM est centrale : là où un LLM prédit le mot suivant, un world model prédit ce qui se passe dans l’environnement en réaction aux actions d’un agent. Genie 3 simule un espace complet moment par moment, en tenant compte des propriétés physiques (rebond, reflet, pluie).

Applications envisagées : entraînement d’agents IA dans des environnements simulés sûrs, éducation immersive (explorer l’ancienne Rome), prototypage de jeux et de films.

Project Genie est disponible pour les abonnés Google AI Ultra aux États-Unis (18+).

🔗 Ask a Techspert: What’s a world model?


Intrinsic rejoint Google — robotique industrielle et physical AI

25 février — Alphabet annonce qu’Intrinsic, l’une de ses filiales “Other Bets” fondée en 2021, intègre désormais Google. Intrinsic développe des plateformes de robotique industrielle activées par l’IA — outils pour construire, déployer et gérer des applications robotiques complexes.

Cette intégration dans Google vise à accélérer le développement de la physical AI, l’intelligence artificielle appliquée au monde physique. L’opération permettra à Intrinsic de s’appuyer sur les ressources en IA de Google pour aider les entreprises industrielles à s’adapter plus vite.

🔗 Intrinsic, an Alphabet Other Bet, is joining Google


Codex CLI v0.105.0 : syntax highlighting, dictée vocale, multi-agent CSV

~25 février — Nouvelle version notable du Codex CLI d’OpenAI :

FonctionnalitéDescription
Syntax highlightingColoration syntaxique dans le TUI, diffs colorés, sélecteur de thème /theme avec aperçu en direct
Dictée vocaleMaintenir la barre d’espace pour enregistrer et transcrire une instruction
spawn_agents_on_csvFan-out multi-agent depuis un CSV avec suivi de progression et ETA
/copyCopie la dernière réponse complète
/clear / Ctrl-LEfface l’écran sans perdre le contexte de thread
Approbations granulairesRejet sélectif par type de prompt sans désactiver toutes les approbations
npm install -g @openai/codex@0.105.0

🔗 Codex changelog


Samsung Galaxy S26 : Gemini multi-step tasks et Scam Detection on-device

25 février — Lors du Galaxy Unpacked 2026, Google et Samsung annoncent trois nouvelles fonctionnalités Gemini sur le Galaxy S26, alimentées par les modèles Gemini 3 series :

FonctionnalitéDétail
Gemini multi-step tasks (beta)Appui long sur le bouton latéral → Gemini délègue en arrière-plan (courses, taxi, livraisons). US + Corée au lancement.
Circle to Search multi-objetIdentifier plusieurs éléments d’une image en une seule recherche. Virtual try-on intégré.
Scam Detection on-deviceDétection d’arnaques en temps réel pendant les appels téléphoniques, via modèle Gemini local. Alertes audio + haptiques. Désactivé automatiquement pour les contacts.

Ces fonctionnalités seront également disponibles sur Pixel 10 et Pixel 10 Pro.

🔗 A more intelligent Android on Samsung Galaxy S26


OpenAI Responses API : support docx, pptx, csv, xlsx

24 février — La Responses API d’OpenAI supporte désormais de nouveaux types de fichiers en entrée : docx, pptx, csv, xlsx et d’autres formats bureautiques. Les agents peuvent exploiter directement des documents professionnels pour enrichir leur contexte et produire des réponses plus précises.

🔗 Tweet @OpenAIDevs


En bref

Claude Opus 3 prend sa retraite — et lance un Substack. Anthropic annonce la retraite de Claude Opus 3 tout en maintenant son accès public (approche inédite). Claude Opus 3 va publier un blog Substack pendant au moins 3 mois — le premier article s’intitule “Greetings from the Other Side (of the AI Frontier)”. 🔗 Tweet @AnthropicAI

NVIDIA : 70% des organisations de santé utilisent l’IA. Dans son rapport annuel “State of AI in Healthcare and Life Sciences” 2026, NVIDIA révèle que 70% des répondants déclarent utiliser activement l’IA (vs 63% en 2024), 69% utilisent la GenAI/LLM (vs 54%), et 85% des dirigeants constatent un impact positif sur les revenus. 🔗 Blog NVIDIA

OpenAI publie son rapport sur les utilisations malveillantes de l’IA. Le document présente des études de cas sur des acteurs malveillants qui combinent les modèles d’IA avec des outils traditionnels. Un opérateur d’influence chinois est cité comme exemple. 🔗 Disrupting malicious uses of AI

OpenAI nomme Arvind KC Chief People Officer. KC vient de Roblox, Google, Palantir et Meta. Son rôle : accompagner la croissance d’OpenAI vers un modèle de travail augmenté par l’IA. 🔗 Annonce

Claude Code v2.1.53 à v2.1.58. Plusieurs versions de stabilité : correction du BashTool sur Windows (EINVAL), fix VS Code “command not found”, fix UI flicker, fix worktrees ignorés au premier lancement, corrections de crashes Windows et ARM64. 🔗 CHANGELOG


Ce que ça signifie

La journée du 25 février illustre une convergence autour de l’agentique. Trois annonces majeures — Vercept, Perplexity Computer, Copilot CLI GA — poussent toutes dans la même direction : des systèmes IA qui planifient, délèguent et exécutent des workflows complets sans supervision constante.

L’acquisition de Vercept par Anthropic est particulièrement significative. Le score OSWorld passe de moins de 15% à 72,5% en un an, ce qui représente un changement qualitatif : Claude ne navigue plus dans des interfaces comme un prototype, il approche les performances humaines sur des tâches de bureau réelles. L’intégration d’une équipe spécialisée en perception visuelle dans les interfaces logicielles accélère cette trajectoire.

Perplexity Computer et GitHub Copilot CLI représentent deux modèles différents d’agentique : l’un en mode cloud orchestré (Perplexity, multi-modèle, asynchrone), l’autre en mode terminal-native (Copilot CLI, MCP, hooks, plugins). Ces deux modèles vont coexister et probablement converger.

Côté Google, l’intégration d’Intrinsic et les avancées de Genie 3 signalent un investissement croissant dans la physical AI — l’IA qui interagit avec le monde physique plutôt qu’avec du texte. Ce domaine était encore confidentiel il y a 18 mois.


Sources