Rechercher

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 mars 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 mars 2026

Le 11 mars 2026 est une journée dense : Anthropic crée un institut interdisciplinaire pour le débat public sur l’IA, Perplexity déploie sa vision “Computer” avec quatre API simultanées, OpenAI publie les nouvelles primitives agentiques de la Responses API, et Meta détaille quatre générations de puces IA custom développées en deux ans.


Anthropic Institute : Jack Clark à la tête du bénéfice public

11 mars 2026 — Anthropic lance The Anthropic Institute, un nouvel effort pour faire avancer le débat public sur les défis posés par l’IA puissante. L’initiative est dirigée par le co-fondateur Jack Clark, qui prend un nouveau rôle de “Head of Public Benefit” (responsable du bénéfice public) chez Anthropic.

L’Institut rassemblera une équipe interdisciplinaire — chercheurs, économistes, juristes, spécialistes des politiques publiques — avec un accès unique aux modèles de pointe d’Anthropic. Sa mission : analyser et communiquer les impacts sociétaux, économiques et de sécurité de l’IA à mesure qu’ils se développent.

Trois premières recrues ont été annoncées :

RecrueParcours
Matt BotvinickResident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind
Anton KorinekProfesseur d’économie (en congé sabbatique), équipe Economic Research
Zoë HitzigEx-OpenAI, spécialisée dans les impacts sociaux et économiques de l’IA

L’Institut s’appuie sur les équipes existantes d’Anthropic : Frontier Red Team, Societal Impacts, Economic Research. En parallèle, Anthropic annonce l’expansion de son équipe Public Policy, axée sur la transparence des modèles, la protection des consommateurs d’énergie, les contrôles à l’export, et la gouvernance mondiale de l’IA.

La création de cet Institut marque une étape notable : Anthropic structure formellement son engagement public et lui donne un visage avec l’un de ses co-fondateurs.

🔗 Introducing The Anthropic Institute


Perplexity : lancement coordonné de la vision “Everything is Computer”

11 mars 2026 — Perplexity publie simultanément quatre annonces qui forment un lancement coordonné autour de sa vision “Computer” : l’IA comme ordinateur personnel et professionnel.

Personal Computer et Enterprise

Le Personal Computer est un Mac mini dédié qui tourne 24h/24, connecté aux applications locales et aux serveurs Perplexity. Il agit comme un proxy digital de l’utilisateur — les actions sensibles nécessitent une approbation explicite. Liste d’attente ouverte.

Le Computer for Enterprise se connecte à Snowflake, Salesforce, HubSpot et des centaines de plateformes. Les compétences (skills) sont personnalisables, et l’intégration Slack permet de travailler dans les DM ou les canaux partagés. Il repose sur SOC 2 Type II, SAML SSO et des journaux d’audit (audit logs). Perplexity avance un chiffre issu d’une étude interne de 16 000 requêtes : économie de 1,6 million de dollars en coûts de main-d’œuvre et 3,25 années de travail accompli en 4 semaines.

Comet Enterprise est un navigateur IA natif avec contrôles administrateur (permissions par domaine, journaux d’action, MDM) et un partenariat CrowdStrike pour des protections au niveau du navigateur.

Perplexity Finance reçoit 40+ outils finance en direct (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), avec connexion courtier via Plaid pour l’analyse d’un portefeuille réel.

Premium Sources offre l’accès à Statista, CB Insights et PitchBook directement dans les flux de recherche — les sources payantes sont citées automatiquement.

🔗 Everything is Computer

Agent API : runtime orchestration complet

L’Agent API est un runtime managé pour construire des workflows agentiques avec recherche intégrée, exécution d’outils et orchestration multi-modèles. Elle remplace en un seul point d’intégration un routeur de modèles, une couche de recherche, un fournisseur d’embeddings, un service sandbox et une pile de surveillance (monitoring stack).

Outil intégréCapacités
web_searchFiltrage par domaine, récence, plage de dates, langue, budget de contenu
fetch_urlRécupération directe d’URL
Fonctions personnaliséesSupport complet

Quatre profils optimisés (presets) couvrent les cas d’usage : recherche factuelle rapide, recherche équilibrée, analyse multi-sources approfondie, et recherche institutionnelle. Deep Research 2.0 est disponible via le profil advanced-deep-research — il lance des dizaines de recherches par requête et traite des centaines de documents.

L’Agent API est agnostique aux modèles, supporte les chaînes de repli (fallback chains) multi-modèles pour une disponibilité proche de 100%, et est disponible aujourd’hui sur docs.perplexity.ai.

🔗 Agent API

Search API : snippets améliorés et benchmark SEAL

La mise à jour de la Search API porte sur la qualité des extraits (snippets) et l’infrastructure d’évaluation.

Le nouveau pipeline de balisage au niveau des fragments (span-level labeling) identifie quels segments d’un document source sont pertinents pour une requête. Résultat : des extraits plus petits et plus précis, ce qui réduit les coûts en tokens et améliore la gestion du contexte pour les modèles en aval.

Le benchmark SEAL teste si un système de récupération peut répondre à des questions dont la réponse change dans le temps. Perplexity progresse sur SEAL-Hard pendant que d’autres fournisseurs déclinent. Le framework search_evals est mis à jour en open source sur GitHub.

Autres améliorations : support multi-requêtes (jusqu’à 5 en une seule requête API), filtrage par langue (code ISO 639-1) et par pays, et SDK Python (pip install perplexityai) avec support natif des trois API.

🔗 Search API update

Sandbox API : exécution de code isolée pour agents

Perplexity ouvre son environnement d’exécution de code interne en tant que service autonome. Chaque session s’exécute dans un pod Kubernetes isolé, avec un système de fichiers persistant monté. Langages supportés : Python, JavaScript, SQL. L’installation de packages au moment de l’exécution (at runtime) est possible.

Les sessions ont un état persistant (stateful) : les fichiers créés à une étape sont disponibles aux étapes suivantes, et les workflows longs peuvent faire une pause puis reprendre des heures plus tard. La sécurité repose sur un modèle zéro confiance (zero-trust) : pas d’accès réseau direct, trafic sortant via proxy, le code n’a jamais accès aux clés API brutes.

La Sandbox API sera intégrable dans l’Agent API avec la même clé API et les mêmes crédits. Statut : bêta privée prochainement.

🔗 Sandbox API


OpenAI : la Responses API reçoit un environnement informatique pour agents

11 mars 2026 — OpenAI publie un article d’ingénierie détaillant les nouvelles primitives de la Responses API pour construire des agents autonomes fiables : shell tool Unix, conteneurs hébergés, compaction native du contexte et agent skills réutilisables.

Le shell tool

Le shell tool permet au modèle d’interagir avec un ordinateur via la ligne de commande, avec accès aux utilitaires Unix classiques (grep, curl, awk). Contrairement à l’interpréteur de code existant qui n’exécutait que du Python, le shell tool prend en charge Go, Java, Node.js et d’autres environnements. Les modèles GPT-5.2 et ultérieurs sont entraînés pour proposer des commandes shell.

La Responses API peut exécuter plusieurs commandes shell en parallèle via des sessions de conteneur séparées, et applique un plafond de sortie par commande pour éviter de saturer la fenêtre de contexte.

Conteneurs hébergés

Le conteneur constitue l’espace de travail du modèle :

ComposantDescription
Système de fichiersUpload, organisation et gestion des ressources via APIs container et file
Bases de donnéesStockage structuré (SQLite) — le modèle interroge les tables plutôt que de charger tout le contenu
Accès réseauProxy egress centralisé avec liste d’autorisations, injection de secrets par domaine

Compaction native du contexte

Pour les tâches longue durée, la Responses API intègre un mécanisme de compaction native : les modèles sont entraînés pour produire une représentation compacte et chiffrée de l’état conversationnel. Disponible côté serveur (seuil configurable) ou via un endpoint /compact. Codex utilise ce mécanisme pour maintenir des sessions de codage longues durée sans dégradation.

Agent skills

Les skills (compétences d’agent) conditionnent des modèles de flux de travail répétitifs (workflow patterns) en bundles réutilisables : un dossier avec un fichier SKILL.md et les ressources associées. La Responses API charge automatiquement la skill dans le contexte avant d’envoyer le prompt au modèle. Les skills sont gérées via API et versionnées.

En parallèle, un billet de blog développeurs célèbre un an de la Responses API avec cinq études de cas clients. Les deux publications forment un tableau cohérent de l’évolution de la plateforme vers l’agentique.

🔗 Responses API + environnement informatique 🔗 1 an de la Responses API


OpenAI : stratégie de défense contre le prompt injection

11 mars 2026 — OpenAI publie un article de sécurité sur la résistance des agents IA aux attaques par injection de prompt (prompt injection).

Les premières attaques consistaient à insérer des instructions directes dans des contenus externes (pages Wikipedia, emails). Avec l’amélioration des modèles, ces attaques ont évolué vers l’ingénierie sociale (social engineering) : contexte professionnel convaincant, urgence simulée, autorisation prétendue. Un exemple de 2025 décrit dans l’article montrait une attaque réussie dans 50 % des cas sur une ancienne version de ChatGPT.

OpenAI aborde le problème sous le prisme du système tripartite (employeur / agent / tiers malveillant), analogue à un agent de service client humain exposé à des tentatives de manipulation. L’objectif n’est pas d’identifier parfaitement chaque attaque, mais de limiter l’impact d’une manipulation réussie.

Contre-mesureDescription
Analyse source-sinkDétection des combinaisons contenu non fiable + action dangereuse
Safe UrlDétecte si des informations de la conversation seraient transmises à un tiers — demande confirmation ou bloque
Sandbox applicatifCanvas et ChatGPT Apps détectent les communications inattendues et demandent le consentement

Safe Url s’applique également aux navigations dans Atlas ainsi qu’aux recherches et navigations dans Deep Research.

🔗 Designing AI agents to resist prompt injection


Meta MTIA : quatre générations de puces IA en deux ans

11 mars 2026 — Meta publie un article technique détaillé sur sa famille de puces IA custom MTIA (Meta Training and Inference Accelerator). En deux ans, Meta a développé quatre générations successives pour servir des milliards d’utilisateurs à moindre coût.

“AI models are evolving faster than traditional chip development cycles.”

🇫🇷 Les modèles IA évoluent plus vite que les cycles de développement des puces traditionnelles.

GénérationInnovation principale
MTIA 300Première puce optimisée pour les modèles de classement et recommandation (Ranking & Recommendation), base modulaire réutilisable
MTIA 400Évolution vers les workloads GenAI, rack de 72 puces dans un domaine scale-up unique
MTIA 450Doublement de la bande passante HBM, +75 % de FLOPS MX4, accélération matérielle attention et FFN
MTIA 500+50 % de bande passante HBM vs MTIA 450, focus inference GenAI

La progression entre MTIA 300 et MTIA 500 : bande passante HBM multipliée par 4,5 et FLOPS multipliés par 25. La stratégie de Meta repose sur un développement haute vélocité (une nouvelle puce par an), un focus inference plutôt que pré-entraînement, et une intégration native PyTorch.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇫🇷 Les GPU grand public sont typiquement conçus pour la charge la plus exigeante — le pré-entraînement GenAI à grande échelle — alors que le besoin principal de Meta est l’inférence.

L’architecture du processeur élémentaire (Processing Element) combine deux cœurs RISC-V vectoriels, un moteur produit scalaire (Dot Product Engine), une unité de fonctions spéciales (Special Function Unit), un moteur de réduction et un DMA. La pile logicielle repose sur PyTorch, vLLM, Triton et des compilateurs MTIA dédiés, avec une intégration vLLM via architecture de plugin.

🔗 Meta MTIA : scale AI chips for billions


Gemini CLI v0.33.0 : Plan Mode enrichi et authentification A2A

11 mars 2026 — Gemini CLI publie la version v0.33.0, deux semaines après la v0.32.0 qui avait introduit le Plan Mode.

CatégorieNouveautés
Architecture agentAuthentification HTTP pour agents A2A distants, découverte de cartes d’agents A2A authentifiés
Plan ModeSous-agents de recherche intégrés, support des annotations pour retours utilisateurs, nouvelle sous-commande copy
Interface CLIHeader compact avec icône ASCII, affichage inversé de la fenêtre de contexte, rétention 30 jours par défaut pour l’historique de chat

L’ajout de l’authentification HTTP pour le protocole A2A (Agent-to-Agent) est la principale nouveauté technique : Gemini CLI peut désormais découvrir et s’authentifier auprès d’agents distants, posant les bases d’une orchestration multi-agents sécurisée.

🔗 Changelog Gemini CLI


Gemini dans Chrome : expansion vers l’Inde, la Nouvelle-Zélande et le Canada

11 mars 2026 — Google étend les fonctionnalités IA de Chrome à trois nouveaux marchés : l’Inde, la Nouvelle-Zélande et le Canada.

Gemini in Chrome — l’assistant IA dans le panneau latéral, basé sur Gemini 3.1 — est désormais disponible sur Mac, Windows et Chromebook Plus dans ces régions. Parmi les fonctionnalités déployées : accès à Gmail, Maps, Calendar et YouTube depuis Chrome, analyse croisée de plusieurs onglets ouverts, et transformation d’images directement dans le navigateur via Nano Banana 2. La mise à jour ajoute 50+ langues supplémentaires, dont le hindi, le français et l’espagnol.

🔗 Chrome s’étend à l’Inde, Nouvelle-Zélande et Canada


AlphaEvolve : nouvelles bornes pour 5 nombres de Ramsey

11 mars 2026 — Pushmeet Kohli (Google DeepMind) annonce qu’AlphaEvolve a établi de nouvelles bornes inférieures pour 5 nombres de Ramsey classiques en combinatoire extrémale — des problèmes si difficiles qu’Erdős lui-même avait commenté leur complexité, et dont les meilleurs résultats précédents dataient d’au moins une décennie.

AlphaEvolve agit comme un méta-algorithme qui découvre automatiquement les procédures de recherche nécessaires, là où il fallait historiquement concevoir manuellement des algorithmes spécifiques. Ce résultat illustre les capacités d’AlphaEvolve au-delà des optimisations de kernels Google pour lesquelles il était déjà connu.

🔗 Tweet Pushmeet Kohli


Gemini Embedding 2 : premier embedding multimodal Google

10 mars 2026 — Google annonce Gemini Embedding 2, décrit comme “our most capable and first fully multimodal embedding model”. C’est le premier modèle d’embedding nativement multimodal de Google, disponible pour les développeurs via Gemini API et AI Studio.

🔗 Tweet @googleaidevs


GitHub Copilot : revue de code depuis le terminal et avancées JetBrains

11 mars 2026 — Deux mises à jour notables pour GitHub Copilot.

Code Review depuis GitHub CLI v2.88.0

Il est désormais possible de demander une revue de code Copilot directement depuis le terminal. Les commandes gh pr edit --add-reviewer @copilot (mode non-interactif) et gh pr create (mode interactif) intègrent Copilot aux côtés des coéquipiers. La sélection des relecteurs bénéficie d’une recherche dynamique, ce qui améliore les performances dans les grandes organisations et corrige des problèmes d’accessibilité. Disponible sur tous les plans incluant Copilot code review — mise à jour vers GitHub CLI v2.88.0 requise.

🔗 Code Review depuis GitHub CLI

Améliorations agentiques pour JetBrains IDEs

La mise à jour du plugin JetBrains apporte en disponibilité générale (GA) : les agents personnalisés (custom agents), sous-agents et agent de planification (plan agent), ainsi que la sélection automatique de modèle pour tous les plans. En aperçu public (public preview) : les hooks d’agent (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) via un fichier hooks.json dans .github/hooks/, et le support des fichiers AGENTS.md et CLAUDE.md.

D’autres améliorations complètent la mise à jour : auto-approve configurable par MCP, panneau de pensée pour les modèles à raisonnement étendu, indicateur d’usage de la fenêtre de contexte, et déprécation du mode Edit dans le menu.

🔗 Améliorations JetBrains

Explorer un dépôt dans Copilot sur le web

En aperçu public : il est possible d’explorer l’arborescence d’un dépôt GitHub directement depuis l’interface web de Copilot. Les fichiers sélectionnés sont automatiquement ajoutés comme références temporaires au chat et peuvent être rendus permanents.

🔗 Exploration de dépôt dans Copilot


Anthropic Sydney et Claude for Office

Sydney, 4e bureau Asie-Pacifique

10 mars 2026 — Anthropic annonce l’ouverture prochaine d’un bureau à Sydney, son quatrième en Asie-Pacifique (après Tokyo, Séoul et Singapour). L’Australie est 4e mondiale pour l’utilisation de Claude.ai par habitant ; la Nouvelle-Zélande est 8e selon le même indicateur (Anthropic Economic Index). Le bureau se concentrera initialement sur les clients entreprises, startups et recherche.

🔗 Sydney, 4e bureau Asie-Pacifique

Claude for Excel et PowerPoint : contexte partagé et Skills Office

11 mars 2026 — Les add-ins Claude for Excel et Claude for PowerPoint reçoivent deux mises à jour importantes : le partage de contexte entre les deux applications (un analyste peut extraire des données d’un classeur Excel et les utiliser dans une présentation PowerPoint dans une seule conversation), et l’arrivée des Skills (workflows réutilisables en un clic) dans les deux add-ins.

Les Skills pré-chargés couvrent les cas d’usage les plus fréquents : audit de formules, construction de modèles LBO/DCF, décks de paysage concurrentiel, mise à jour de présentations avec de nouvelles données, et revue de décks banque d’affaires. Les add-ins sont désormais disponibles via Amazon Bedrock, Google Cloud Vertex AI et Microsoft Foundry pour les déploiements en conformité. Disponibilité : Mac et Windows sur plans payants (Pro, Max, Team, Enterprise).

🔗 Claude for Excel et PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI et GTC 2026

11 mars 2026 — NVIDIA est très actif autour du GTC 2026.

Nemotron 3 Super offre un débit 5 fois supérieur pour l’IA agentique par rapport à la génération précédente. Il s’agit d’un modèle MoE (Mixture of Experts) de 120 milliards de paramètres en open source, optimisé pour les charges d’inférence à haute fréquence.

NVIDIA et ComfyUI ont annoncé lors du GDC 2026 (Game Developers Conference) une intégration qui simplifie la génération vidéo IA locale pour les développeurs de jeux et les créateurs, avec support des modèles FLUX et LTX-Video.

Le blog NVIDIA GTC 2026 Live Updates regroupe les annonces en direct de la conférence à San Jose — Mistral AI y présente également ses modèles frontier dans ce cadre.

🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live


En bref

Runway Labs — Runway lance un incubateur interne dirigé par Alejandro Matamala Ortiz (co-fondateur, directeur de l’innovation). Runway Labs prototypera des applications radicalement nouvelles pour la vidéo générative et les modèles de simulation du monde (General World Models) dans des secteurs variés : cinéma, santé, éducation, jeu vidéo, publicité, immobilier. Recrutement ouvert.

🔗 Introducing Runway Labs

Claude Code /btw — Une nouvelle commande /btw permet d’avoir des conversations latérales (side chain conversations) pendant qu’une tâche est en cours d’exécution, sans interrompre le travail en cours.

🔗 Tweet @bcherny

NotebookLM Flashcards — Mise à jour des quiz et flashcards : reprise là où on s’était arrêté, suivi des flashcards réussies ou ratées, possibilité de supprimer ou mélanger les flashcards.

🔗 Tweet NotebookLM

Meta Canopy Height Maps v2 — Meta et le World Resources Institute publient CHMv2, une nouvelle version des cartes de hauteur de canopée forestière mondiale. Le modèle DINOv3 (vision auto-supervisée de Meta) améliore la précision et la couverture mondiale. Applications : migration climatique, restauration forestière, planification urbaine. Modèles disponibles en open source.

🔗 Canopy Height Maps v2

Z.ai GLM-5 — GLM-5 est désormais accessible aux utilisateurs Lite (niveau gratuit), après avoir été réservé aux utilisateurs Pro depuis son lancement en février 2026.

🔗 Tweet @ZixuanLi_


Ce que ça signifie

Le 11 mars 2026 illustre deux tendances de fond qui convergent.

La première est la plateformisation de l’agentique : OpenAI, Perplexity et GitHub publient le même jour des primitives complémentaires (shell tools, sandboxes, agent hooks, code review). L’écosystème se structure autour de blocs réutilisables — skills, conteneurs, sous-agents — qui permettent aux développeurs de construire des agents fiables sans réinventer l’infrastructure.

La seconde est la course au silicium custom : le détail que Meta publie sur ses quatre générations MTIA en deux ans révèle une stratégie claire d’indépendance vis-à-vis des GPU grand public, calibrée pour l’inférence à grande échelle. La même logique pousse NVIDIA à publier Nemotron 3 Super le jour même du GTC, où les annonces s’accumulent.

La création de l’Anthropic Institute s’inscrit dans un mouvement plus discret mais durable : alors que les capacités progressent, les grandes entreprises IA structurent leurs équipes d’impact public — non plus comme une communication de façade, mais comme un effort de recherche à part entière.


Sources