Le 11 mars 2026 est une journée dense : Anthropic crée un institut interdisciplinaire pour le débat public sur l’IA, Perplexity déploie sa vision “Computer” avec quatre API simultanées, OpenAI publie les nouvelles primitives agentiques de la Responses API, et Meta détaille quatre générations de puces IA custom développées en deux ans.
Anthropic Institute : Jack Clark à la tête du bénéfice public
11 mars 2026 — Anthropic lance The Anthropic Institute, un nouvel effort pour faire avancer le débat public sur les défis posés par l’IA puissante. L’initiative est dirigée par le co-fondateur Jack Clark, qui prend un nouveau rôle de “Head of Public Benefit” (responsable du bénéfice public) chez Anthropic.
L’Institut rassemblera une équipe interdisciplinaire — chercheurs, économistes, juristes, spécialistes des politiques publiques — avec un accès unique aux modèles de pointe d’Anthropic. Sa mission : analyser et communiquer les impacts sociétaux, économiques et de sécurité de l’IA à mesure qu’ils se développent.
Trois premières recrues ont été annoncées :
| Recrue | Parcours |
|---|---|
| Matt Botvinick | Resident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind |
| Anton Korinek | Professeur d’économie (en congé sabbatique), équipe Economic Research |
| Zoë Hitzig | Ex-OpenAI, spécialisée dans les impacts sociaux et économiques de l’IA |
L’Institut s’appuie sur les équipes existantes d’Anthropic : Frontier Red Team, Societal Impacts, Economic Research. En parallèle, Anthropic annonce l’expansion de son équipe Public Policy, axée sur la transparence des modèles, la protection des consommateurs d’énergie, les contrôles à l’export, et la gouvernance mondiale de l’IA.
La création de cet Institut marque une étape notable : Anthropic structure formellement son engagement public et lui donne un visage avec l’un de ses co-fondateurs.
🔗 Presentation av The Anthropic Institute
Perplexity : lancement coordonné de la vision “Everything is Computer”
11 mars 2026 — Perplexity publie simultanément quatre annonces qui forment un lancement coordonné autour de sa vision “Computer” : l’IA comme ordinateur personnel et professionnel.
Personal Computer et Enterprise
Le Personal Computer est un Mac mini dédié qui tourne 24h/24, connecté aux applications locales et aux serveurs Perplexity. Il agit comme un proxy digital de l’utilisateur — les actions sensibles nécessitent une approbation explicite. Liste d’attente ouverte.
Le Computer for Enterprise se connecte à Snowflake, Salesforce, HubSpot et des centaines de plateformes. Les compétences (skills) sont personnalisables, et l’intégration Slack permet de travailler dans les DM ou les canaux partagés. Il repose sur SOC 2 Type II, SAML SSO et des journaux d’audit (audit logs). Perplexity avance un chiffre issu d’une étude interne de 16 000 requêtes : économie de 1,6 million de dollars en coûts de main-d’œuvre et 3,25 années de travail accompli en 4 semaines.
Comet Enterprise est un navigateur IA natif avec contrôles administrateur (permissions par domaine, journaux d’action, MDM) et un partenariat CrowdStrike pour des protections au niveau du navigateur.
Perplexity Finance reçoit 40+ outils finance en direct (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), avec connexion courtier via Plaid pour l’analyse d’un portefeuille réel.
Premium Sources offre l’accès à Statista, CB Insights et PitchBook directement dans les flux de recherche — les sources payantes sont citées automatiquement.
Agent API : runtime orchestration complet
L’Agent API est un runtime managé pour construire des workflows agentiques avec recherche intégrée, exécution d’outils et orchestration multi-modèles. Elle remplace en un seul point d’intégration un routeur de modèles, une couche de recherche, un fournisseur d’embeddings, un service sandbox et une pile de surveillance (monitoring stack).
| Outil intégré | Capacités |
|---|---|
web_search | Filtrage par domaine, récence, plage de dates, langue, budget de contenu |
fetch_url | Récupération directe d’URL |
| Fonctions personnalisées | Support complet |
Quatre profils optimisés (presets) couvrent les cas d’usage : recherche factuelle rapide, recherche équilibrée, analyse multi-sources approfondie, et recherche institutionnelle. Deep Research 2.0 est disponible via le profil advanced-deep-research — il lance des dizaines de recherches par requête et traite des centaines de documents.
L’Agent API est agnostique aux modèles, supporte les chaînes de repli (fallback chains) multi-modèles pour une disponibilité proche de 100%, et est disponible aujourd’hui sur docs.perplexity.ai.
Search API : snippets améliorés et benchmark SEAL
La mise à jour de la Search API porte sur la qualité des extraits (snippets) et l’infrastructure d’évaluation.
Le nouveau pipeline de balisage au niveau des fragments (span-level labeling) identifie quels segments d’un document source sont pertinents pour une requête. Résultat : des extraits plus petits et plus précis, ce qui réduit les coûts en tokens et améliore la gestion du contexte pour les modèles en aval.
Le benchmark SEAL teste si un système de récupération peut répondre à des questions dont la réponse change dans le temps. Perplexity progresse sur SEAL-Hard pendant que d’autres fournisseurs déclinent. Le framework search_evals est mis à jour en open source sur GitHub.
Autres améliorations : support multi-requêtes (jusqu’à 5 en une seule requête API), filtrage par langue (code ISO 639-1) et par pays, et SDK Python (pip install perplexityai) avec support natif des trois API.
Sandbox API : exécution de code isolée pour agents
Perplexity ouvre son environnement d’exécution de code interne en tant que service autonome. Chaque session s’exécute dans un pod Kubernetes isolé, avec un système de fichiers persistant monté. Langages supportés : Python, JavaScript, SQL. L’installation de packages au moment de l’exécution (at runtime) est possible.
Les sessions ont un état persistant (stateful) : les fichiers créés à une étape sont disponibles aux étapes suivantes, et les workflows longs peuvent faire une pause puis reprendre des heures plus tard. La sécurité repose sur un modèle zéro confiance (zero-trust) : pas d’accès réseau direct, trafic sortant via proxy, le code n’a jamais accès aux clés API brutes.
La Sandbox API sera intégrable dans l’Agent API avec la même clé API et les mêmes crédits. Statut : bêta privée prochainement.
OpenAI : la Responses API reçoit un environnement informatique pour agents
11 mars 2026 — OpenAI publie un article d’ingénierie détaillant les nouvelles primitives de la Responses API pour construire des agents autonomes fiables : shell tool Unix, conteneurs hébergés, compaction native du contexte et agent skills réutilisables.
Le shell tool
Le shell tool permet au modèle d’interagir avec un ordinateur via la ligne de commande, avec accès aux utilitaires Unix classiques (grep, curl, awk). Contrairement à l’interpréteur de code existant qui n’exécutait que du Python, le shell tool prend en charge Go, Java, Node.js et d’autres environnements. Les modèles GPT-5.2 et ultérieurs sont entraînés pour proposer des commandes shell.
La Responses API peut exécuter plusieurs commandes shell en parallèle via des sessions de conteneur séparées, et applique un plafond de sortie par commande pour éviter de saturer la fenêtre de contexte.
Conteneurs hébergés
Le conteneur constitue l’espace de travail du modèle :
| Composant | Description |
|---|---|
| Système de fichiers | Upload, organisation et gestion des ressources via APIs container et file |
| Bases de données | Stockage structuré (SQLite) — le modèle interroge les tables plutôt que de charger tout le contenu |
| Accès réseau | Proxy egress centralisé avec liste d’autorisations, injection de secrets par domaine |
Compaction native du contexte
Pour les tâches longue durée, la Responses API intègre un mécanisme de compaction native : les modèles sont entraînés pour produire une représentation compacte et chiffrée de l’état conversationnel. Disponible côté serveur (seuil configurable) ou via un endpoint /compact. Codex utilise ce mécanisme pour maintenir des sessions de codage longues durée sans dégradation.
Agent skills
Les skills (compétences d’agent) conditionnent des modèles de flux de travail répétitifs (workflow patterns) en bundles réutilisables : un dossier avec un fichier SKILL.md et les ressources associées. La Responses API charge automatiquement la skill dans le contexte avant d’envoyer le prompt au modèle. Les skills sont gérées via API et versionnées.
En parallèle, un billet de blog développeurs célèbre un an de la Responses API avec cinq études de cas clients. Les deux publications forment un tableau cohérent de l’évolution de la plateforme vers l’agentique.
🔗 Responses API + environnement informatique 🔗 1 an de la Responses API
OpenAI : stratégie de défense contre le prompt injection
11 mars 2026 — OpenAI publie un article de sécurité sur la résistance des agents IA aux attaques par injection de prompt (prompt injection).
Les premières attaques consistaient à insérer des instructions directes dans des contenus externes (pages Wikipedia, emails). Avec l’amélioration des modèles, ces attaques ont évolué vers l’ingénierie sociale (social engineering) : contexte professionnel convaincant, urgence simulée, autorisation prétendue. Un exemple de 2025 décrit dans l’article montrait une attaque réussie dans 50 % des cas sur une ancienne version de ChatGPT.
OpenAI aborde le problème sous le prisme du système tripartite (employeur / agent / tiers malveillant), analogue à un agent de service client humain exposé à des tentatives de manipulation. L’objectif n’est pas d’identifier parfaitement chaque attaque, mais de limiter l’impact d’une manipulation réussie.
| Contre-mesure | Description |
|---|---|
| Analyse source-sink | Détection des combinaisons contenu non fiable + action dangereuse |
| Safe Url | Détecte si des informations de la conversation seraient transmises à un tiers — demande confirmation ou bloque |
| Sandbox applicatif | Canvas et ChatGPT Apps détectent les communications inattendues et demandent le consentement |
Safe Url s’applique également aux navigations dans Atlas ainsi qu’aux recherches et navigations dans Deep Research.
🔗 Designing AI agents to resist prompt injection
Meta MTIA : quatre générations de puces IA en deux ans
11 mars 2026 — Meta publie un article technique détaillé sur sa famille de puces IA custom MTIA (Meta Training and Inference Accelerator). En deux ans, Meta a développé quatre générations successives pour servir des milliards d’utilisateurs à moindre coût.
“AI models are evolving faster than traditional chip development cycles.”
🇸🇪 AI-modeller utvecklas snabbare än traditionella chiputvecklingscykler.
| Génération | Innovation principale |
|---|---|
| MTIA 300 | Première puce optimisée pour les modèles de classement et recommandation (Ranking & Recommendation), base modulaire réutilisable |
| MTIA 400 | Évolution vers les workloads GenAI, rack de 72 puces dans un domaine scale-up unique |
| MTIA 450 | Doublement de la bande passante HBM, +75 % de FLOPS MX4, accélération matérielle attention et FFN |
| MTIA 500 | +50 % de bande passante HBM vs MTIA 450, focus inference GenAI |
La progression entre MTIA 300 et MTIA 500 : bande passante HBM multipliée par 4,5 et FLOPS multipliés par 25. La stratégie de Meta repose sur un développement haute vélocité (une nouvelle puce par an), un focus inference plutôt que pré-entraînement, et une intégration native PyTorch.
“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”
🇸🇪 Kommersiella GPU:er är typiskt byggda för den mest krävande arbetsbelastningen — storskalig GenAI-förtränning — medan Metas huvudsakliga behov är inferens.
L’architecture du processeur élémentaire (Processing Element) combine deux cœurs RISC-V vectoriels, un moteur produit scalaire (Dot Product Engine), une unité de fonctions spéciales (Special Function Unit), un moteur de réduction et un DMA. La pile logicielle repose sur PyTorch, vLLM, Triton et des compilateurs MTIA dédiés, avec une intégration vLLM via architecture de plugin.
🔗 Meta MTIA : scale AI chips for billions
Gemini CLI v0.33.0 : Plan Mode enrichi et authentification A2A
11 mars 2026 — Gemini CLI publie la version v0.33.0, deux semaines après la v0.32.0 qui avait introduit le Plan Mode.
| Catégorie | Nouveautés |
|---|---|
| Architecture agent | Authentification HTTP pour agents A2A distants, découverte de cartes d’agents A2A authentifiés |
| Plan Mode | Sous-agents de recherche intégrés, support des annotations pour retours utilisateurs, nouvelle sous-commande copy |
| Interface CLI | Header compact avec icône ASCII, affichage inversé de la fenêtre de contexte, rétention 30 jours par défaut pour l’historique de chat |
L’ajout de l’authentification HTTP pour le protocole A2A (Agent-to-Agent) est la principale nouveauté technique : Gemini CLI peut désormais découvrir et s’authentifier auprès d’agents distants, posant les bases d’une orchestration multi-agents sécurisée.
Gemini dans Chrome : expansion vers l’Inde, la Nouvelle-Zélande et le Canada
11 mars 2026 — Google étend les fonctionnalités IA de Chrome à trois nouveaux marchés : l’Inde, la Nouvelle-Zélande et le Canada.
Gemini in Chrome — l’assistant IA dans le panneau latéral, basé sur Gemini 3.1 — est désormais disponible sur Mac, Windows et Chromebook Plus dans ces régions. Parmi les fonctionnalités déployées : accès à Gmail, Maps, Calendar et YouTube depuis Chrome, analyse croisée de plusieurs onglets ouverts, et transformation d’images directement dans le navigateur via Nano Banana 2. La mise à jour ajoute 50+ langues supplémentaires, dont le hindi, le français et l’espagnol.
🔗 Chrome s’étend à l’Inde, Nouvelle-Zélande et Canada
--- ## AlphaEvolve : nya nedre gränser för 5 klassiska Ramsey-tal
11 mars 2026 — Pushmeet Kohli (Google DeepMind) tillkännager att AlphaEvolve har etablerat nya nedre gränser för 5 klassiska Ramsey-tal inom extremkombinatorik — problem så svåra att Erdős själv kommenterat deras komplexitet, och vars bästa tidigare resultat är minst ett decennium gamla.
AlphaEvolve fungerar som en metaalgoritm som automatiskt upptäcker de sökprocedurer som behövs, där man historiskt varit tvungen att utforma specifika algoritmer manuellt. Detta resultat illustrerar AlphaEvolves kapabiliteter bortom de kerneloptimeringar hos Google som den tidigare var känd för.
Gemini Embedding 2 : Googles första fullt multimodala embeddingmodell
10 mars 2026 — Google tillkännager Gemini Embedding 2, beskriven som “vårt mest kapabla och första fullt multimodala embeddingmodell”. Det är Googles första embeddingmodell som är inbyggt multimodal, tillgänglig för utvecklare via Gemini API och AI Studio.
GitHub Copilot : kodgranskning från terminalen och förbättringar för JetBrains
11 mars 2026 — Två betydande uppdateringar för GitHub Copilot.
Code Review från GitHub CLI v2.88.0
Det är nu möjligt att begära en Copilot-kodgranskning direkt från terminalen. Kommandona gh pr edit --add-reviewer @copilot (icke-interaktivt läge) och gh pr create (interaktivt läge) integrerar Copilot sida vid sida med teammedlemmar. Urvalet av granskare får en dynamisk sökning, vilket förbättrar prestandan i stora organisationer och åtgärdar tillgänglighetsproblem. Tillgängligt på alla planer som inkluderar Copilot code review — uppgradering till GitHub CLI v2.88.0 krävs.
Agentiska förbättringar för JetBrains IDEs
Uppdateringen av JetBrains-pluginet lanserar i allmän tillgänglighet (GA): anpassade agenter (custom agents), underagenter och planeringsagent (plan agent), samt automatisk modellval för alla planer. I public preview: agent hooks (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) via en fil hooks.json i .github/hooks/, och stöd för filerna AGENTS.md och CLAUDE.md.
Ytterligare förbättringar i uppdateringen: konfigurerbar auto-approve via MCP, ett tanke-panel för modeller med utökat resonemang, indikator för användning av kontextfönstret, och utfasning av läget Edit i menyn.
Utforska ett repository i Copilot på webben
I public preview: det går att utforska mappstrukturen i ett GitHub-repo direkt från Copilot-webbgränssnittet. Valda filer läggs automatiskt till som temporära referenser i chatten och kan göras permanenta.
🔗 Utforska repository i Copilot
Anthropic Sydney och Claude for Office
Sydney, fjärde kontoret i Asien‑Stilla havet
10 mars 2026 — Anthropic meddelar att de snart öppnar ett kontor i Sydney, deras fjärde i Asien‑Stilla havet (efter Tokyo, Seoul och Singapur). Australien är fjärde i världen för användning av Claude.ai per invånare; Nya Zeeland är åtta enligt samma indikator (Anthropic Economic Index). Kontoret kommer initialt att fokusera på företagskunder, startups och forskning.
🔗 Sydney, fjärde kontoret i Asien‑Stilla havet
Claude for Excel och PowerPoint : delad kontext och Skills Office
11 mars 2026 — Tilläggen Claude for Excel och Claude for PowerPoint får två viktiga uppdateringar: delad kontext mellan de två apparna (en analytiker kan extrahera data från ett Excel‑ark och använda dem i en PowerPoint‑presentation i samma konversation), och introduktionen av Skills (återanvändbara arbetsflöden med ett klick) i båda tilläggen.
De förladdade Skills täcker de vanligaste användningsfallen: formelaudit, konstruktion av LBO/DCF‑modeller, konkurrensöversikts‑decks, uppdatering av presentationer med nya data, och granskning av finans‑decks. Tilläggen finns nu tillgängliga via Amazon Bedrock, Google Cloud Vertex AI och Microsoft Foundry för efterlevnadsanpassade distributioner. Tillgänglighet: Mac och Windows på betalplaner (Pro, Max, Team, Enterprise).
🔗 Claude for Excel och PowerPoint
NVIDIA Nemotron 3 Super, ComfyUI och GTC 2026
11 mars 2026 — NVIDIA är mycket aktivt kring GTC 2026.
Nemotron 3 Super erbjuder fem gånger högre genomströmning för agentisk AI jämfört med föregående generation. Det är en MoE (Mixture of Experts) på 120 miljarder parametrar i öppen källkod, optimerad för högfrekventa inferensbelastningar.
NVIDIA och ComfyUI tillkännagav under GDC 2026 (Game Developers Conference) en integration som förenklar lokal AI‑videogenerering för spelutvecklare och kreatörer, med stöd för modellerna FLUX och LTX‑Video.
NVIDIAs blogg GTC 2026 Live Updates samlar konferensens live‑annonseringar i San Jose — Mistral AI presenterar också sina frontier‑modeller där.
🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live
Kort sagt
Runway Labs — Runway lanserar ett internt inkubatorprogram lett av Alejandro Matamala Ortiz (medgrundare, chef för innovation). Runway Labs kommer att prototypa radikalt nya applikationer för generativ video och General World Models i sektorer som film, hälsa, utbildning, spel, reklam och fastigheter. Rekrytering pågår.
Claude Code /btw — Ett nytt kommando /btw möjliggör sidokonversationer (side chain conversations) medan en uppgift körs, utan att avbryta det pågående arbetet.
NotebookLM Flashcards — Uppdatering av quiz och flashcards: återuppta där du slutade, spårning av lyckade eller misslyckade flashcards, möjlighet att radera eller blanda flashcards.
Meta Canopy Height Maps v2 — Meta och World Resources Institute publicerar CHMv2, en ny version av världens kartor över trädkronors höjd. Modellen DINOv3 (Metas självövervakade visionmodell) förbättrar noggrannhet och global täckning. Tillämpningar: klimatmigration, skogsåterställning, stadsplanering. Modeller tillgängliga i öppen källkod.
Z.ai GLM-5 — GLM-5 är nu tillgängligt för Lite‑användare (gratisnivå), efter att ha varit reserverat för Pro‑användare sedan lanseringen i februari 2026.
Vad det betyder
Den 11 mars 2026 illustrerar två sammanfallande långsiktiga trender.
Den första är plattformiseringen av agentik: OpenAI, Perplexity och GitHub publicerar samma dag kompletterande primitiva byggstenar (shell tools, sandboxes, agent hooks, code review). Ekosystemet struktureras kring återanvändbara block — skills, containrar, underagenter — som gör det möjligt för utvecklare att bygga pålitliga agenter utan att återuppfinna infrastrukturen.
Den andra är kapplöpningen om skräddarsytt kisel: detaljerna Meta offentliggjort om sina fyra generationer MTIA på två år visar en tydlig strategi för oberoende från konsument‑GPU:er, kalibrerad för storskalig inferens. Samma logik ligger bakom NVIDIAs publikation av Nemotron 3 Super samma dag som GTC, där annonserna hopar sig.
Skapandet av Anthropic Institute är ett mer diskret men bestående drag: i takt med att kapabiliteterna ökar strukturerar stora AI‑företag sina avdelningar för offentlig påverkan — inte längre som en PR‑gest, utan som ett fristående forskningsarbete.
Källor
- The Anthropic Institute
- Sydney, quatrième bureau Asie‑Pacifique
- Claude for Excel et PowerPoint
- Tweet av @bcherny (/btw)
- Everything is Computer — Perplexity
- Agent API — Perplexity
- Search API — Perplexity
- Sandbox API — Perplexity
- Responses API + computing environment — OpenAI
- 1 år med Responses API — OpenAI
- Prompt injection defense — OpenAI
- Meta MTIA chips
- Meta Canopy Height Maps v2
- Gemini CLI v0.33.0
- Gemini in Chrome — expansion
- AlphaEvolve — Ramsey numbers
- Gemini Embedding 2
- Copilot Code Review från CLI
- Copilot JetBrains — agentiska förbättringar
- Copilot — utforska repository på webben
- Nemotron 3 Super — NVIDIA
- ComfyUI + NVIDIA på GDC
- GTC 2026 Live Updates — NVIDIA
- Introducing Runway Labs
- NotebookLM Flashcards update
- Z.ai GLM-5 Lite rollout
Detta dokument har översatts från fr-versionen till språket sv med modellen gpt-5-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator