Rechercher

Claude crée des visuels interactifs, OpenAI lance la Video API Sora 2, Google Maps se réinvente avec Gemini

Claude crée des visuels interactifs, OpenAI lance la Video API Sora 2, Google Maps se réinvente avec Gemini

Le 12 mars 2026 est marqué par trois annonces produit majeures : Claude franchit un cap en générant des visuels interactifs directement dans la conversation, OpenAI ouvre une Video API programmatique propulsée par Sora 2, et Google Maps intègre Gemini pour sa refonte la plus profonde en plus d’une décennie. En parallèle, Claude Code reçoit deux mises à jour (v2.1.73 et v2.1.74), Perplexity élargit Computer aux abonnés Pro, et ElevenLabs lance Flows et Music Finetunes dans sa plateforme créative.


Claude génère des visuels interactifs dans la conversation

12 mars — Claude peut désormais créer des charts interactifs, des diagrammes et des visualisations directement dans la conversation, sans écrire de code. La fonctionnalité est disponible en bêta sur tous les abonnements, y compris le plan gratuit.

Issue de la prévisualisation “Imagine with Claude” annoncée l’automne dernier, cette fonctionnalité change le mode d’interaction avec l’assistant : les visuels apparaissent en ligne dans les réponses, et non dans un panneau latéral séparé. Ils sont temporaires — ils évoluent ou disparaissent au fil de la conversation — contrairement aux Artifacts, qui sont des documents permanents destinés à être partagés ou téléchargés.

Des exemples d’usage concrets : demander comment fonctionnent les intérêts composés génère une courbe interactive à manipuler, demander le tableau périodique produit une visualisation cliquable avec les détails de chaque élément. On peut déclencher un visuel avec des formules comme “draw this as a diagram” ou “visualize how this might change over time”. Claude décide lui-même quand créer un visuel, ou l’utilisateur peut en faire la demande explicite.

Cette fonctionnalité s’inscrit dans une série d’améliorations récentes des réponses Claude : formats dédiés pour les recettes, météo visuelle, et intégrations directes avec Figma, Canva et Slack.

“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”

🇫🇷 Claude peut désormais créer des charts et diagrammes interactifs, directement dans la conversation. Disponible dès aujourd’hui en bêta sur tous les abonnements, y compris gratuit.@claudeai sur X

🔗 Claude now creates interactive charts, diagrams and visualizations


Claude Code v2.1.74 : gestion du contexte et corrections multi-plateformes

12 mars — La version 2.1.74 de Claude Code apporte des améliorations à la gestion du contexte et corrige une série de bugs sur Windows et macOS.

Nouvelles fonctionnalités :

FonctionnalitéDescription
/context amélioréSuggestions actionnables : identifie les outils lourds en contexte, le gonflement de mémoire, et les avertissements de capacité avec des conseils d’optimisation
autoMemoryDirectoryNouveau paramètre pour configurer un répertoire personnalisé pour le stockage auto-mémoire
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MSNouveau paramètre pour configurer le timeout des hooks SessionEnd (auparavant figé à 1,5 s)

Parmi les correctifs notables : une fuite mémoire dans les buffers de réponse API en mode flux (streaming) qui causait une croissance RSS non bornée sur Node.js ; les politiques managed ask ne pouvaient plus être contournées par les règles allow utilisateur ; les IDs de modèles complets (ex : claude-opus-4-5) ignorés silencieusement dans le frontmatter model: des agents sont maintenant correctement acceptés. Les corrections MCP OAuth couvrent le blocage sur callback port déjà utilisé et la ré-authentification manquante après expiration du jeton de renouvellement (refresh token) pour des connecteurs comme Slack. Sur macOS, le binaire natif inclut désormais l’entitlement audio-input pour que macOS affiche correctement la demande d’autorisation microphone en mode vocal.

🔗 CHANGELOG Claude Code


Claude Code v2.1.73 : stabilité, Bedrock ARNs et OAuth SSL

11 mars — La version 2.1.73 corrige plusieurs problèmes de stabilité importants, dont des blocages CPU et des blocages (deadlocks) liés aux skills.

Nouvelles fonctionnalités :

FonctionnalitéDescription
modelOverridesNouveau paramètre pour mapper les entrées du sélecteur de modèle vers des IDs de modèles providers personnalisés (ex : Bedrock inference profile ARNs)
Guidance OAuth SSLGuidance actionnable quand la connexion OAuth ou les vérifications de connectivité échouent à cause d’erreurs de certificat SSL (proxies d’entreprise, NODE_EXTRA_CA_CERTS)

Les correctifs majeurs : blocages et boucles CPU à 100% déclenchés par les prompts de permission sur des commandes bash complexes ; un blocage pouvant geler Claude Code quand de nombreux fichiers skill changent simultanément (ex : git pull dans un dépôt avec un grand dossier .claude/skills/) ; les sous-agents avec model: opus / sonnet / haiku étaient rétrogradés silencieusement vers d’anciennes versions sur Bedrock, Vertex et Microsoft Foundry.

🔗 CHANGELOG Claude Code


Ramp AI Index : Anthropic devient le choix par défaut des entreprises

11 mars — Selon le dernier rapport Ramp AI Index, Anthropic est devenu le fournisseur d’IA privilégié par les entreprises lors de leur premier achat. Le graphique partagé par Ara Kharazian (économiste principal du Ramp Economics Lab) montre que la part de marché d’Anthropic auprès des nouvelles entreprises clientes atteint ~70% début 2026, contre ~25% pour OpenAI — une inversion notable par rapport à 2025.

Les données proviennent de plus de 50 000 entreprises utilisant la plateforme Ramp (carte de crédit et paiements professionnels), ce qui en fait un baromètre fiable des dépenses IA réelles en entreprise. La croissance d’Anthropic est notamment portée par l’adoption de Claude dans les environnements professionnels (API, Claude for Work, intégrations enterprise).

🔗 Ramp AI Index sur X


OpenAI Video API : Sora 2 accessible aux développeurs

12 mars — OpenAI lance la Video API pour les développeurs, une interface programmatique permettant de créer, étendre, modifier et gérer des vidéos. Cette capacité est alimentée par Sora 2, le modèle de génération vidéo de deuxième génération d’OpenAI.

La Video API expose deux variantes : sora-2, conçu pour la vitesse et l’exploration (itérations rapides, contenus pour les réseaux sociaux, prototypes), et sora-2-pro, orienté qualité de production (sorties cinématographiques, assets marketing, résolutions jusqu’à 1920×1080). Les deux variantes supportent des durées de génération de 16 à 20 secondes, avec extension possible jusqu’à 120 secondes au total.

Les principales fonctionnalités disponibles via l’endpoint POST /videos incluent : la génération à partir d’un prompt texte, le guidage par image de référence (qui conditionne la première frame), la cohérence de personnages non-humains réutilisables entre plusieurs générations (POST /v1/videos/characters), et l’édition ciblée via POST /v1/videos/edits. Le traitement est asynchrone, avec support de webhooks pour les notifications de fin de rendu. Un traitement par lots via la Batch API est également disponible pour les files de rendu hors-ligne.

Des restrictions de contenu s’appliquent : pas de représentation de personnes réelles, pas de personnages protégés par le droit d’auteur, pas de contenu pour adultes (cette restriction étant susceptible d’évoluer ultérieurement).

🔗 Documentation Video API


Google Maps : Ask Maps et Immersive Navigation

12 mars — Google Maps reçoit sa plus grande mise à jour de navigation en plus d’une décennie, propulsée par les modèles Gemini. Deux nouvelles expériences sont annoncées simultanément.

Ask Maps est une nouvelle expérience conversationnelle qui permet de poser des questions complexes sur des lieux réels. On peut demander par exemple “Mon téléphone est en train de mourir — où puis-je le charger sans faire la queue pour un café ?” ou “Y a-t-il un terrain de tennis avec éclairage disponible ce soir ?” La fonctionnalité s’appuie sur les données de plus de 300 millions de lieux et les avis de plus de 500 millions de contributeurs. Les réponses sont personnalisées en fonction des lieux sauvegardés ou recherchés précédemment. Ask Maps commence à se déployer aux États-Unis et en Inde sur Android et iOS, avec le bureau à venir.

Immersive Navigation transforme l’expérience de conduite avec une vue 3D qui reflète les bâtiments, ponts et relief environnants. Gemini analyse des images Street View et des photos aériennes pour afficher des détails critiques : voies, passages piétons, feux de signalisation, panneaux de stop. La fonctionnalité propose aussi un guidage vocal naturel (style “Passez cette sortie et prenez la suivante pour Illinois 43 South”), des informations sur les compromis entre itinéraires alternatifs (péage vs trafic), et des alertes en temps réel sur les perturbations. Immersive Navigation se déploie dès aujourd’hui aux États-Unis sur iOS et Android éligibles, CarPlay, Android Auto et voitures avec Google intégré.

🔗 Ask Maps and Immersive Navigation: New AI features in Google Maps


GitHub Copilot : sélection automatique de modèle GA dans JetBrains

12 mars — GitHub a annoncé la mise en disponibilité générale (Generally Available) de la sélection automatique de modèle pour GitHub Copilot dans tous les environnements de développement JetBrains (IntelliJ IDEA, PyCharm, WebStorm, etc.), pour tous les abonnements Copilot.

Le mode “Auto” sélectionne dynamiquement le modèle le plus adapté à la tâche, en tenant compte des limitations de débit. Les développeurs conservent une visibilité complète : en survolant la réponse, ils voient quel modèle a été utilisé, et peuvent à tout moment basculer vers un modèle spécifique. La facturation suit le modèle réellement sélectionné, avec des multiplicateurs actuellement compris entre 0x et 1x.

GitHub annonce que la sélection automatique deviendra progressivement plus intelligente, avec une capacité à choisir le modèle en fonction du contexte précis de la tâche (génération de code, révision, chat, etc.). Cette fonctionnalité était déjà disponible en préversion dans JetBrains et en GA dans VS Code.

🔗 Copilot auto model selection GA dans JetBrains IDEs


GitHub Copilot CLI : historique de sessions en SQLite

11 mars — GitHub Copilot CLI intègre désormais une base de données SQLite locale pour mémoriser l’historique de vos sessions de terminal. Concrètement, si vous avez résolu un problème il y a quelques jours en ligne de commande, Copilot CLI peut vous rappeler la solution — sans avoir besoin de fouiller dans l’historique shell ou vos notes. Cette fonctionnalité s’inscrit dans la phase 2 de la mise en disponibilité générale de GitHub Copilot CLI, accessible via gh copilot.

🔗 GitHub Copilot CLI


Perplexity Computer s’ouvre aux abonnés Pro

12 mars — Perplexity Computer, l’agent capable d’exécuter des workflows complexes en plusieurs étapes sur le web, les fichiers et les outils connectés, est désormais accessible aux abonnés Pro.

Jusqu’ici réservé aux abonnés Max et aux clients Enterprise, Perplexity Computer donne accès à plus de 20 modèles avancés, à des compétences (skills) prédéfinies et personnalisables, ainsi qu’à des centaines de connecteurs. Les abonnés Max conservent un avantage en matière de crédits mensuels et de limites de dépense plus élevées.

🔗 Perplexity Computer


Perplexity Computer for Enterprise : 1,6 M$ économisés en quatre semaines

12 mars — Perplexity a publié un article dédié détaillant le déploiement de Perplexity Computer for Enterprise, disponible dès maintenant pour les clients Enterprise.

Computer for Enterprise s’intègre dans les outils déjà utilisés par les entreprises : Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub, et plus de 400 autres via des connecteurs. Il route chaque tâche sur le modèle le plus adapté parmi une vingtaine, et permet aux équipes de définir des compétences (skills) adaptées à leurs processus internes.

ÉquipeCas d’usage
FinanceSuivi de vérification préalable (due diligence) pour les fusions-acquisitions, analyse des documents et signalement des risques
JuridiqueRévision d’accord fournisseur, comparaison de versions, annotation de contrat (redlining)
MarketingCréation de campagne (créatifs, posts sociaux, pages d’atterrissage) + tableau de bord de performance

Perplexity a partagé des chiffres issus d’une étude interne sur plus de 16 000 requêtes : Computer a permis d’économiser 1,6 million de dollars de coûts de main-d’oeuvre et a accompli l’équivalent de 3,25 ans de travail en quatre semaines. La solution est certifiée SOC 2 Type II, avec SAML SSO et une exécution isolée pour chaque tâche.

🔗 Perplexity Computer for Enterprise


ElevenLabs Flows : un canevas pour unifier image, vidéo, audio

11 mars — ElevenLabs a introduit Flows, un éditeur à base de nœuds (node-based) intégré dans ElevenCreative. En un seul canevas, les créateurs peuvent chaîner et combiner la génération d’images, la vidéo, la synthèse vocale (Text to Speech), le lip-sync, la musique et les effets sonores.

Cette approche rappelle les workflows de ComfyUI, mais appliquée à l’écosystème multimodal d’ElevenLabs, avec l’ensemble des modèles audio et vidéo du studio accessibles en un seul endroit.

🔗 Introducing Flows in ElevenCreative


ElevenLabs Music Finetunes : cohérence stylistique pour la génération musicale

12 mars — ElevenLabs a lancé les Music Finetunes dans ElevenCreative. Cette fonctionnalité permet aux créateurs de générer des voix individuelles, des instruments ou des pistes musicales complètes tout en conservant une cohérence stylistique, grâce à une version affinée (fine-tuned) du modèle musical d’ElevenLabs.

🔗 Introducing Music Finetunes in ElevenCreative


BFL FLUX.2 [klein] 9B : édition d’images 2× plus rapide

12 mars — Black Forest Labs (BFL) a annoncé une mise à jour significative de son modèle FLUX.2 [klein] 9B : l’édition d’images est désormais 2× plus rapide, en particulier lorsque plusieurs images de référence sont utilisées.

DétailValeur
ModèleFLUX.2 [klein] 9B
Amélioration2× plus rapide à l’édition
Cas d’usage renforcéRéférences multiples
PrixInchangé
PoidsHuggingFace (black-forest-labs/FLUX.2-klein-9b-kv)

La mise à niveau est automatique et gratuite pour les utilisateurs existants de FLUX.2 [klein] 9B via l’API. Les utilisateurs du modèle [klein] 4B peuvent accéder à la version 9B améliorée via un nouvel endpoint en préversion.

🔗 Annonce BFL sur X


Mistral AI Now Summit : Paris, 28 mai 2026

12 mars — Mistral AI annonce son premier événement phare : l‘“AI Now Summit”, une journée dédiée à la transformation IA des entreprises, prévue le 28 mai 2026 à Paris.

ThèmeDescription
Open source d’entrepriseL’open source comme socle pour des transformations IA de bout en bout
Mise en productionPasser des pilotes aux déploiements à grande échelle
Infrastructure IAConstruire une infrastructure de niveau entreprise
Innovations 2026Robotique, modèles vision-langage (VLMs), IA multimodale

L’événement réunira des dirigeants du monde entier. Les inscriptions ne sont pas encore ouvertes ; une liste d’attente est disponible sur ainowsummit.com.

🔗 AI Now Summit sur X


Ce que ça signifie

La journée du 12 mars illustre deux tendances convergentes. D’un côté, les assistants IA généralistes — Claude, Perplexity, Google Maps — s’enrichissent de capacités qui réduisent la friction entre la question et la réponse exploitable : plus besoin d’écrire du code pour voir un graphique, plus besoin de reformuler pour trouver un restaurant. De l’autre, les développeurs reçoivent de nouvelles briques programmatiques : la Video API d’OpenAI ouvre la génération vidéo à des workflows automatisés, et Claude Code continue de s’affiner pour les environnements enterprise (Bedrock, proxies SSL, multi-plateformes Windows/macOS).

Le rapport Ramp AI Index confirme que ce mouvement se traduit dans les achats réels : avec ~70% de parts de marché auprès des nouvelles entreprises, Anthropic ne se contente plus d’être une alternative à OpenAI — il est devenu le point d’entrée par défaut. La compétition se joue maintenant sur la qualité des intégrations et la fiabilité en production, pas sur la seule puissance des modèles.


Sources