Sök

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API: 11 mars 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API: 11 mars 2026

Le 11 mars 2026 est une journée dense : Anthropic crée un institut interdisciplinaire pour le débat public sur l’IA, Perplexity déploie sa vision “Computer” avec quatre API simultanées, OpenAI publie les nouvelles primitives agentiques de la Responses API, et Meta détaille quatre générations de puces IA custom développées en deux ans.


Anthropic Institute : Jack Clark à la tête du bénéfice public

11 mars 2026 — Anthropic lance The Anthropic Institute, un nouvel effort pour faire avancer le débat public sur les défis posés par l’IA puissante. L’initiative est dirigée par le co-fondateur Jack Clark, qui prend un nouveau rôle de “Head of Public Benefit” (responsable du bénéfice public) chez Anthropic.

L’Institut rassemblera une équipe interdisciplinaire — chercheurs, économistes, juristes, spécialistes des politiques publiques — avec un accès unique aux modèles de pointe d’Anthropic. Sa mission : analyser et communiquer les impacts sociétaux, économiques et de sécurité de l’IA à mesure qu’ils se développent.

Trois premières recrues ont été annoncées :

RecrueParcours
Matt BotvinickResident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind
Anton KorinekProfesseur d’économie (en congé sabbatique), équipe Economic Research
Zoë HitzigEx-OpenAI, spécialisée dans les impacts sociaux et économiques de l’IA

L’Institut s’appuie sur les équipes existantes d’Anthropic : Frontier Red Team, Societal Impacts, Economic Research. En parallèle, Anthropic annonce l’expansion de son équipe Public Policy, axée sur la transparence des modèles, la protection des consommateurs d’énergie, les contrôles à l’export, et la gouvernance mondiale de l’IA.

La création de cet Institut marque une étape notable : Anthropic structure formellement son engagement public et lui donne un visage avec l’un de ses co-fondateurs.

🔗 Presentation av The Anthropic Institute


Perplexity : lancement coordonné de la vision “Everything is Computer”

11 mars 2026 — Perplexity publie simultanément quatre annonces qui forment un lancement coordonné autour de sa vision “Computer” : l’IA comme ordinateur personnel et professionnel.

Personal Computer et Enterprise

Le Personal Computer est un Mac mini dédié qui tourne 24h/24, connecté aux applications locales et aux serveurs Perplexity. Il agit comme un proxy digital de l’utilisateur — les actions sensibles nécessitent une approbation explicite. Liste d’attente ouverte.

Le Computer for Enterprise se connecte à Snowflake, Salesforce, HubSpot et des centaines de plateformes. Les compétences (skills) sont personnalisables, et l’intégration Slack permet de travailler dans les DM ou les canaux partagés. Il repose sur SOC 2 Type II, SAML SSO et des journaux d’audit (audit logs). Perplexity avance un chiffre issu d’une étude interne de 16 000 requêtes : économie de 1,6 million de dollars en coûts de main-d’œuvre et 3,25 années de travail accompli en 4 semaines.

Comet Enterprise est un navigateur IA natif avec contrôles administrateur (permissions par domaine, journaux d’action, MDM) et un partenariat CrowdStrike pour des protections au niveau du navigateur.

Perplexity Finance reçoit 40+ outils finance en direct (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), avec connexion courtier via Plaid pour l’analyse d’un portefeuille réel.

Premium Sources offre l’accès à Statista, CB Insights et PitchBook directement dans les flux de recherche — les sources payantes sont citées automatiquement.

🔗 Everything is Computer

Agent API : runtime orchestration complet

L’Agent API est un runtime managé pour construire des workflows agentiques avec recherche intégrée, exécution d’outils et orchestration multi-modèles. Elle remplace en un seul point d’intégration un routeur de modèles, une couche de recherche, un fournisseur d’embeddings, un service sandbox et une pile de surveillance (monitoring stack).

Outil intégréCapacités
web_searchFiltrage par domaine, récence, plage de dates, langue, budget de contenu
fetch_urlRécupération directe d’URL
Fonctions personnaliséesSupport complet

Quatre profils optimisés (presets) couvrent les cas d’usage : recherche factuelle rapide, recherche équilibrée, analyse multi-sources approfondie, et recherche institutionnelle. Deep Research 2.0 est disponible via le profil advanced-deep-research — il lance des dizaines de recherches par requête et traite des centaines de documents.

L’Agent API est agnostique aux modèles, supporte les chaînes de repli (fallback chains) multi-modèles pour une disponibilité proche de 100%, et est disponible aujourd’hui sur docs.perplexity.ai.

🔗 Agent API

Search API : snippets améliorés et benchmark SEAL

La mise à jour de la Search API porte sur la qualité des extraits (snippets) et l’infrastructure d’évaluation.

Le nouveau pipeline de balisage au niveau des fragments (span-level labeling) identifie quels segments d’un document source sont pertinents pour une requête. Résultat : des extraits plus petits et plus précis, ce qui réduit les coûts en tokens et améliore la gestion du contexte pour les modèles en aval.

Le benchmark SEAL teste si un système de récupération peut répondre à des questions dont la réponse change dans le temps. Perplexity progresse sur SEAL-Hard pendant que d’autres fournisseurs déclinent. Le framework search_evals est mis à jour en open source sur GitHub.

Autres améliorations : support multi-requêtes (jusqu’à 5 en une seule requête API), filtrage par langue (code ISO 639-1) et par pays, et SDK Python (pip install perplexityai) avec support natif des trois API.

🔗 Search API update

Sandbox API : exécution de code isolée pour agents

Perplexity ouvre son environnement d’exécution de code interne en tant que service autonome. Chaque session s’exécute dans un pod Kubernetes isolé, avec un système de fichiers persistant monté. Langages supportés : Python, JavaScript, SQL. L’installation de packages au moment de l’exécution (at runtime) est possible.

Les sessions ont un état persistant (stateful) : les fichiers créés à une étape sont disponibles aux étapes suivantes, et les workflows longs peuvent faire une pause puis reprendre des heures plus tard. La sécurité repose sur un modèle zéro confiance (zero-trust) : pas d’accès réseau direct, trafic sortant via proxy, le code n’a jamais accès aux clés API brutes.

La Sandbox API sera intégrable dans l’Agent API avec la même clé API et les mêmes crédits. Statut : bêta privée prochainement.

🔗 Sandbox API


OpenAI : la Responses API reçoit un environnement informatique pour agents

11 mars 2026 — OpenAI publie un article d’ingénierie détaillant les nouvelles primitives de la Responses API pour construire des agents autonomes fiables : shell tool Unix, conteneurs hébergés, compaction native du contexte et agent skills réutilisables.

Le shell tool

Le shell tool permet au modèle d’interagir avec un ordinateur via la ligne de commande, avec accès aux utilitaires Unix classiques (grep, curl, awk). Contrairement à l’interpréteur de code existant qui n’exécutait que du Python, le shell tool prend en charge Go, Java, Node.js et d’autres environnements. Les modèles GPT-5.2 et ultérieurs sont entraînés pour proposer des commandes shell.

La Responses API peut exécuter plusieurs commandes shell en parallèle via des sessions de conteneur séparées, et applique un plafond de sortie par commande pour éviter de saturer la fenêtre de contexte.

Conteneurs hébergés

Le conteneur constitue l’espace de travail du modèle :

ComposantDescription
Système de fichiersUpload, organisation et gestion des ressources via APIs container et file
Bases de donnéesStockage structuré (SQLite) — le modèle interroge les tables plutôt que de charger tout le contenu
Accès réseauProxy egress centralisé avec liste d’autorisations, injection de secrets par domaine

Compaction native du contexte

Pour les tâches longue durée, la Responses API intègre un mécanisme de compaction native : les modèles sont entraînés pour produire une représentation compacte et chiffrée de l’état conversationnel. Disponible côté serveur (seuil configurable) ou via un endpoint /compact. Codex utilise ce mécanisme pour maintenir des sessions de codage longues durée sans dégradation.

Agent skills

Les skills (compétences d’agent) conditionnent des modèles de flux de travail répétitifs (workflow patterns) en bundles réutilisables : un dossier avec un fichier SKILL.md et les ressources associées. La Responses API charge automatiquement la skill dans le contexte avant d’envoyer le prompt au modèle. Les skills sont gérées via API et versionnées.

En parallèle, un billet de blog développeurs célèbre un an de la Responses API avec cinq études de cas clients. Les deux publications forment un tableau cohérent de l’évolution de la plateforme vers l’agentique.

🔗 Responses API + environnement informatique 🔗 1 an de la Responses API


OpenAI : stratégie de défense contre le prompt injection

11 mars 2026 — OpenAI publie un article de sécurité sur la résistance des agents IA aux attaques par injection de prompt (prompt injection).

Les premières attaques consistaient à insérer des instructions directes dans des contenus externes (pages Wikipedia, emails). Avec l’amélioration des modèles, ces attaques ont évolué vers l’ingénierie sociale (social engineering) : contexte professionnel convaincant, urgence simulée, autorisation prétendue. Un exemple de 2025 décrit dans l’article montrait une attaque réussie dans 50 % des cas sur une ancienne version de ChatGPT.

OpenAI aborde le problème sous le prisme du système tripartite (employeur / agent / tiers malveillant), analogue à un agent de service client humain exposé à des tentatives de manipulation. L’objectif n’est pas d’identifier parfaitement chaque attaque, mais de limiter l’impact d’une manipulation réussie.

Contre-mesureDescription
Analyse source-sinkDétection des combinaisons contenu non fiable + action dangereuse
Safe UrlDétecte si des informations de la conversation seraient transmises à un tiers — demande confirmation ou bloque
Sandbox applicatifCanvas et ChatGPT Apps détectent les communications inattendues et demandent le consentement

Safe Url s’applique également aux navigations dans Atlas ainsi qu’aux recherches et navigations dans Deep Research.

🔗 Designing AI agents to resist prompt injection


Meta MTIA : quatre générations de puces IA en deux ans

11 mars 2026 — Meta publie un article technique détaillé sur sa famille de puces IA custom MTIA (Meta Training and Inference Accelerator). En deux ans, Meta a développé quatre générations successives pour servir des milliards d’utilisateurs à moindre coût.

“AI models are evolving faster than traditional chip development cycles.”

🇸🇪 AI-modeller utvecklas snabbare än traditionella chiputvecklingscykler.

attribution text translated

GénérationInnovation principale
MTIA 300Première puce optimisée pour les modèles de classement et recommandation (Ranking & Recommendation), base modulaire réutilisable
MTIA 400Évolution vers les workloads GenAI, rack de 72 puces dans un domaine scale-up unique
MTIA 450Doublement de la bande passante HBM, +75 % de FLOPS MX4, accélération matérielle attention et FFN
MTIA 500+50 % de bande passante HBM vs MTIA 450, focus inference GenAI

La progression entre MTIA 300 et MTIA 500 : bande passante HBM multipliée par 4,5 et FLOPS multipliés par 25. La stratégie de Meta repose sur un développement haute vélocité (une nouvelle puce par an), un focus inference plutôt que pré-entraînement, et une intégration native PyTorch.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇸🇪 Kommersiella GPU:er är typiskt byggda för den mest krävande arbetsbelastningen — storskalig GenAI-förtränning — medan Metas huvudsakliga behov är inferens.

attribution text translated

L’architecture du processeur élémentaire (Processing Element) combine deux cœurs RISC-V vectoriels, un moteur produit scalaire (Dot Product Engine), une unité de fonctions spéciales (Special Function Unit), un moteur de réduction et un DMA. La pile logicielle repose sur PyTorch, vLLM, Triton et des compilateurs MTIA dédiés, avec une intégration vLLM via architecture de plugin.

🔗 Meta MTIA : scale AI chips for billions


Gemini CLI v0.33.0 : Plan Mode enrichi et authentification A2A

11 mars 2026 — Gemini CLI publie la version v0.33.0, deux semaines après la v0.32.0 qui avait introduit le Plan Mode.

CatégorieNouveautés
Architecture agentAuthentification HTTP pour agents A2A distants, découverte de cartes d’agents A2A authentifiés
Plan ModeSous-agents de recherche intégrés, support des annotations pour retours utilisateurs, nouvelle sous-commande copy
Interface CLIHeader compact avec icône ASCII, affichage inversé de la fenêtre de contexte, rétention 30 jours par défaut pour l’historique de chat

L’ajout de l’authentification HTTP pour le protocole A2A (Agent-to-Agent) est la principale nouveauté technique : Gemini CLI peut désormais découvrir et s’authentifier auprès d’agents distants, posant les bases d’une orchestration multi-agents sécurisée.

🔗 Changelog Gemini CLI


Gemini dans Chrome : expansion vers l’Inde, la Nouvelle-Zélande et le Canada

11 mars 2026 — Google étend les fonctionnalités IA de Chrome à trois nouveaux marchés : l’Inde, la Nouvelle-Zélande et le Canada.

Gemini in Chrome — l’assistant IA dans le panneau latéral, basé sur Gemini 3.1 — est désormais disponible sur Mac, Windows et Chromebook Plus dans ces régions. Parmi les fonctionnalités déployées : accès à Gmail, Maps, Calendar et YouTube depuis Chrome, analyse croisée de plusieurs onglets ouverts, et transformation d’images directement dans le navigateur via Nano Banana 2. La mise à jour ajoute 50+ langues supplémentaires, dont le hindi, le français et l’espagnol.

🔗 Chrome s’étend à l’Inde, Nouvelle-Zélande et Canada

--- ## AlphaEvolve : nya nedre gränser för 5 klassiska Ramsey-tal

11 mars 2026 — Pushmeet Kohli (Google DeepMind) tillkännager att AlphaEvolve har etablerat nya nedre gränser för 5 klassiska Ramsey-tal inom extremkombinatorik — problem så svåra att Erdős själv kommenterat deras komplexitet, och vars bästa tidigare resultat är minst ett decennium gamla.

AlphaEvolve fungerar som en metaalgoritm som automatiskt upptäcker de sökprocedurer som behövs, där man historiskt varit tvungen att utforma specifika algoritmer manuellt. Detta resultat illustrerar AlphaEvolves kapabiliteter bortom de kerneloptimeringar hos Google som den tidigare var känd för.

🔗 Tweet av Pushmeet Kohli


Gemini Embedding 2 : Googles första fullt multimodala embeddingmodell

10 mars 2026 — Google tillkännager Gemini Embedding 2, beskriven som “vårt mest kapabla och första fullt multimodala embeddingmodell”. Det är Googles första embeddingmodell som är inbyggt multimodal, tillgänglig för utvecklare via Gemini API och AI Studio.

🔗 Tweet av @googleaidevs


GitHub Copilot : kodgranskning från terminalen och förbättringar för JetBrains

11 mars 2026 — Två betydande uppdateringar för GitHub Copilot.

Code Review från GitHub CLI v2.88.0

Det är nu möjligt att begära en Copilot-kodgranskning direkt från terminalen. Kommandona gh pr edit --add-reviewer @copilot (icke-interaktivt läge) och gh pr create (interaktivt läge) integrerar Copilot sida vid sida med teammedlemmar. Urvalet av granskare får en dynamisk sökning, vilket förbättrar prestandan i stora organisationer och åtgärdar tillgänglighetsproblem. Tillgängligt på alla planer som inkluderar Copilot code review — uppgradering till GitHub CLI v2.88.0 krävs.

🔗 Code Review från GitHub CLI

Agentiska förbättringar för JetBrains IDEs

Uppdateringen av JetBrains-pluginet lanserar i allmän tillgänglighet (GA): anpassade agenter (custom agents), underagenter och planeringsagent (plan agent), samt automatisk modellval för alla planer. I public preview: agent hooks (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) via en fil hooks.json i .github/hooks/, och stöd för filerna AGENTS.md och CLAUDE.md.

Ytterligare förbättringar i uppdateringen: konfigurerbar auto-approve via MCP, ett tanke-panel för modeller med utökat resonemang, indikator för användning av kontextfönstret, och utfasning av läget Edit i menyn.

🔗 Förbättringar JetBrains

Utforska ett repository i Copilot på webben

I public preview: det går att utforska mappstrukturen i ett GitHub-repo direkt från Copilot-webbgränssnittet. Valda filer läggs automatiskt till som temporära referenser i chatten och kan göras permanenta.

🔗 Utforska repository i Copilot


Anthropic Sydney och Claude for Office

Sydney, fjärde kontoret i Asien‑Stilla havet

10 mars 2026 — Anthropic meddelar att de snart öppnar ett kontor i Sydney, deras fjärde i Asien‑Stilla havet (efter Tokyo, Seoul och Singapur). Australien är fjärde i världen för användning av Claude.ai per invånare; Nya Zeeland är åtta enligt samma indikator (Anthropic Economic Index). Kontoret kommer initialt att fokusera på företagskunder, startups och forskning.

🔗 Sydney, fjärde kontoret i Asien‑Stilla havet

Claude for Excel och PowerPoint : delad kontext och Skills Office

11 mars 2026 — Tilläggen Claude for Excel och Claude for PowerPoint får två viktiga uppdateringar: delad kontext mellan de två apparna (en analytiker kan extrahera data från ett Excel‑ark och använda dem i en PowerPoint‑presentation i samma konversation), och introduktionen av Skills (återanvändbara arbetsflöden med ett klick) i båda tilläggen.

De förladdade Skills täcker de vanligaste användningsfallen: formelaudit, konstruktion av LBO/DCF‑modeller, konkurrensöversikts‑decks, uppdatering av presentationer med nya data, och granskning av finans‑decks. Tilläggen finns nu tillgängliga via Amazon Bedrock, Google Cloud Vertex AI och Microsoft Foundry för efterlevnadsanpassade distributioner. Tillgänglighet: Mac och Windows på betalplaner (Pro, Max, Team, Enterprise).

🔗 Claude for Excel och PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI och GTC 2026

11 mars 2026 — NVIDIA är mycket aktivt kring GTC 2026.

Nemotron 3 Super erbjuder fem gånger högre genomströmning för agentisk AI jämfört med föregående generation. Det är en MoE (Mixture of Experts) på 120 miljarder parametrar i öppen källkod, optimerad för högfrekventa inferensbelastningar.

NVIDIA och ComfyUI tillkännagav under GDC 2026 (Game Developers Conference) en integration som förenklar lokal AI‑videogenerering för spelutvecklare och kreatörer, med stöd för modellerna FLUX och LTX‑Video.

NVIDIAs blogg GTC 2026 Live Updates samlar konferensens live‑annonseringar i San Jose — Mistral AI presenterar också sina frontier‑modeller där.

🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live


Kort sagt

Runway Labs — Runway lanserar ett internt inkubatorprogram lett av Alejandro Matamala Ortiz (medgrundare, chef för innovation). Runway Labs kommer att prototypa radikalt nya applikationer för generativ video och General World Models i sektorer som film, hälsa, utbildning, spel, reklam och fastigheter. Rekrytering pågår.

🔗 Introducing Runway Labs

Claude Code /btw — Ett nytt kommando /btw möjliggör sidokonversationer (side chain conversations) medan en uppgift körs, utan att avbryta det pågående arbetet.

🔗 Tweet av @bcherny

NotebookLM Flashcards — Uppdatering av quiz och flashcards: återuppta där du slutade, spårning av lyckade eller misslyckade flashcards, möjlighet att radera eller blanda flashcards.

🔗 Tweet NotebookLM

Meta Canopy Height Maps v2 — Meta och World Resources Institute publicerar CHMv2, en ny version av världens kartor över trädkronors höjd. Modellen DINOv3 (Metas självövervakade visionmodell) förbättrar noggrannhet och global täckning. Tillämpningar: klimatmigration, skogsåterställning, stadsplanering. Modeller tillgängliga i öppen källkod.

🔗 Canopy Height Maps v2

Z.ai GLM-5 — GLM-5 är nu tillgängligt för Lite‑användare (gratisnivå), efter att ha varit reserverat för Pro‑användare sedan lanseringen i februari 2026.

🔗 Tweet av @ZixuanLi_


Vad det betyder

Den 11 mars 2026 illustrerar två sammanfallande långsiktiga trender.

Den första är plattformiseringen av agentik: OpenAI, Perplexity och GitHub publicerar samma dag kompletterande primitiva byggstenar (shell tools, sandboxes, agent hooks, code review). Ekosystemet struktureras kring återanvändbara block — skills, containrar, underagenter — som gör det möjligt för utvecklare att bygga pålitliga agenter utan att återuppfinna infrastrukturen.

Den andra är kapplöpningen om skräddarsytt kisel: detaljerna Meta offentliggjort om sina fyra generationer MTIA på två år visar en tydlig strategi för oberoende från konsument‑GPU:er, kalibrerad för storskalig inferens. Samma logik ligger bakom NVIDIAs publikation av Nemotron 3 Super samma dag som GTC, där annonserna hopar sig.

Skapandet av Anthropic Institute är ett mer diskret men bestående drag: i takt med att kapabiliteterna ökar strukturerar stora AI‑företag sina avdelningar för offentlig påverkan — inte längre som en PR‑gest, utan som ett fristående forskningsarbete.


Källor

Detta dokument har översatts från fr-versionen till språket sv med modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator