Semaine chargée : OpenAI pousse GPT-5.5 Instant en remplacement direct de GPT-5.3 pour tous les utilisateurs ChatGPT, xAI lance Grok 4.3 sur son API avec un contexte d’un million de tokens, et Anthropic annonce une nouvelle société de services IA co-fondée avec Blackstone, Hellman & Friedman et Goldman Sachs. Côté outillage, GitHub triple les GA/previews sécurité via son serveur MCP, Perplexity lance un produit dédié aux équipes financières, et Runway présente des agents vidéo temps réel générés depuis une seule image.
GPT-5.5 Instant — nouveau modèle par défaut de ChatGPT
5 mai — OpenAI remplace GPT-5.3 Instant par GPT-5.5 Instant comme modèle par défaut de ChatGPT pour l’ensemble des utilisateurs. Le déploiement s’étale sur deux jours.
| Dimension | Amélioration vs GPT-5.3 Instant |
|---|---|
| Hallucinations (médecine, droit, finance) | -52,5 % |
| Réclamations inexactes (signalées par utilisateurs) | -37,3 % |
| Verbosité des réponses | -30,2 % de mots en moyenne |
Le modèle améliore également l’analyse d’images, les réponses STEM et la décision d’utiliser la recherche web. Les réponses sont plus concises sans perte de substance, avec moins de formatage superflu et moins de questions de suivi inutiles.
Mémoire sources — OpenAI introduit les “memory sources” sur tous les modèles ChatGPT : quand une réponse est personnalisée à partir de souvenirs sauvegardés, de conversations passées ou de Gmail connecté, l’utilisateur voit exactement quelles sources ont été utilisées et peut les corriger ou les supprimer. La personnalisation depuis les conversations passées et les fichiers est d’abord réservée aux abonnés Plus et Pro (web), les autres plans suivront.
Disponibilité :
- Déploiement progressif sur 2 jours pour tous les utilisateurs ChatGPT
- Disponible en API sous l’alias
chat-latest - GPT-5.3 Instant reste accessible 3 mois pour les abonnés payants
🔗 Annonce officielle GPT-5.5 Instant
Grok 4.3 lancé sur l’API xAI — contexte 1M tokens, #1 agentic tool calling
5 mai — xAI annonce via X le lancement de Grok 4.3 sur l’API xAI (console.x.ai). Le modèle est présenté comme le plus rapide et le plus intelligent de la gamme à ce jour.
| Caractéristique | Valeur |
|---|---|
| Fenêtre de contexte | 1 million de tokens |
| Benchmark agentic tool calling | #1 (@ArtificialAnlys leaderboard) |
| Benchmark instruction following | #1 (@ArtificialAnlys leaderboard) |
| Domaines enterprise | #1 case law et corporate finance (@ValsAI) |
| Disponibilité | API xAI (console.x.ai) — pas encore sur grok.com |
Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.
🇫🇷 Grok 4.3 est maintenant disponible sur l’API xAI. Il s’agit de notre modèle le plus rapide et le plus intelligent à ce jour. Il arrive en tête des classements @ArtificialAnlys en agentic tool calling et instruction following, et se classe #1 sur @ValsAI dans les domaines enterprise comme le droit des affaires et la finance d’entreprise. Grok 4.3 prend en charge un contexte d’un million de tokens. — @xai sur X
Le tweet a généré 25,7 millions de vues et 6 029 likes. À noter : aucune page dédiée sur x.ai/news au moment de l’annonce — le lancement est passé exclusivement par X.
Anthropic et Blackstone, Hellman & Friedman, Goldman Sachs — nouvelle société de services IA enterprise
4 mai — Anthropic, Blackstone, Hellman & Friedman et Goldman Sachs annoncent la création d’une nouvelle société de services IA enterprise, soutenue par un consortium d’acteurs alternatifs additionnels.
L’objectif : déployer Claude dans les opérations principales des grandes entreprises pour des tâches qui requièrent une ingénierie intensive et une connaissance sectorielle approfondie. Selon Anthropic, la demande enterprise pour Claude dépasse ce qu’un modèle de distribution unique peut absorber.
Le modèle opérationnel type commence par une petite équipe qui travaille en étroite collaboration avec le client pour identifier les points de friction, puis construit des agents Claude adaptés au métier. L’exemple concret donné : un réseau de cabinets médicaux multi-sites où Claude gère la documentation clinique, les tâches administratives répétitives et la coordination entre spécialités, permettant aux cliniciens de se concentrer sur les soins aux patients.
La nouvelle société rejoindra le Claude Partner Network, aux côtés d’Accenture, Deloitte et PwC. Elle représente une étape structurante dans la stratégie de distribution enterprise d’Anthropic : plutôt que vendre uniquement des licences API, l’entreprise s’engage maintenant dans des déploiements opérationnels complexes avec des partenaires financiers de premier rang.
Agents Claude pour les services financiers et assurances
5 mai — Anthropic lance dix templates d’agents prêts à l’emploi (ready-to-run) pour les services financiers et les assurances. Disponibles comme plugins dans Claude Cowork ou Claude Code, ou comme Claude Managed Agents autonomes sur la plateforme Claude.
Recherche et couverture clients :
| Agent | Rôle |
|---|---|
| Pitch builder | Listes cibles, comparables, pitchbooks |
| Meeting preparer | Briefs clients et contreparties |
| Earnings reviewer | Lecture de transcriptions et mises à jour de modèles |
| Model builder | Création de modèles financiers depuis filings et données |
| Market researcher | Veille sectorielle et synthèse de nouvelles |
Finance et opérations :
| Agent | Rôle |
|---|---|
| Valuation reviewer | Vérification des valorisations |
| General ledger reconciler | Réconciliation comptable et calculs VNI |
| Month-end closer | Clôture mensuelle et journaux comptables |
| Statement auditor | Révision des états financiers |
| KYC screener | Assemblage de dossiers entité et filtrage conformité |
Claude s’intègre désormais dans Microsoft Excel, PowerPoint, Word et Outlook (en cours) via des compléments (add-ins). La fonctionnalité Dispatch de Claude Cowork permet d’assigner des tâches par texte ou vocal depuis n’importe où.
Nouveaux connecteurs de données : Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk, et un MCP Moody’s (ratings et données sur plus de 6 000 entités).
Parmi les clients cités : Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % des employés utilisent Claude Code), Hg, Morningstar, FactSet. Ces agents sont optimisés pour Claude Opus 4.7, classé #1 sur le benchmark Vals AI Finance Agent.
Perplexity Computer for Professional Finance
5 mai — Perplexity lance Computer pour la finance professionnelle, une version de Computer conçue spécifiquement pour les équipes d’analyse et d’investissement : analystes buy-side et sell-side, fonds spéculatifs, capital-investissement.
| Dimension | Valeur |
|---|---|
| Workflows inclus | 35 (10 segments) |
| Fournisseurs de données intégrés | 14 (dont Quartr, Fiscal) |
| Connecteurs MCP premium | Morningstar, PitchBook, Daloopa, Carbon Arc |
| Plateformes disponibles | Microsoft Teams, Agent API |
| À venir | Excel add-in |
| Benchmark FinSearchComp T1 | 1er (précision, coût, latence) |
Les équipes disposant d’abonnements sous licence peuvent connecter leurs propres identifiants via des connecteurs MCP pour accéder à Morningstar, PitchBook, Daloopa et Carbon Arc. Les autres accèdent aux outils financiers intégrés appuyés sur 14 fournisseurs de données.
Chaque valeur numérique renvoie à sa source : pour les valeurs issues de documents SEC, Computer montre le calcul et pointe vers les pages précises du document. Sur le benchmark FinSearchComp T1 (extraction de données sensibles au facteur temps), Perplexity se classe premier en précision, coût par bonne réponse et latence — incluant les cours en temps réel, prix crypto et taux de change.
🔗 Blog Perplexity — Computer for Professional Finance
Runway Characters — agent vidéo temps réel depuis une seule image
4 mai — Runway annonce Characters, une technologie permettant de transformer une seule image en agent vidéo conversationnel temps réel.
| Métrique | Valeur |
|---|---|
| Latence bout-en-bout | 1,75 seconde |
| Qualité vidéo | 24 fps HD |
| Source image requise | 1 seule image |
| Démarrages à froid | 60× plus rapides (GPU pair-à-pair) |
Le délai de 1,75 seconde se mesure depuis le moment où l’utilisateur cesse de parler jusqu’à la première réponse du personnage. Runway a publié simultanément deux articles d’ingénierie : le premier décrit l’architecture de l’agent vidéo temps réel, le second explique comment l’infrastructure GPU pair-à-pair (peer-to-peer) divise les temps de démarrage à froid par 60.
Les cas d’usage visés incluent les agents conversationnels, les personnages interactifs en temps réel et les interfaces vidéo pour applications. La technologie marque un passage du rendu vidéo offline vers une interaction synchrone.
🔗 Tweet annonce Runway Characters
GitHub MCP Server — Triple avancée sécurité
5 mai — GitHub publie simultanément trois mises à jour de sécurité pour son serveur MCP, toutes effectuées le même jour.
Secret scanning GA
Le secret scanning via GitHub MCP Server passe en disponibilité générale (sortie de preview depuis mars 2026). Dans GitHub Copilot CLI, l’installation s’effectue avec /plugin install advanced-security@copilot-plugins ; dans VS Code, le plugin advanced-security expose la commande /secret-scanning.
| Aspect | Détail |
|---|---|
| Statut | GA (disponibilité générale) |
| Disponibilité | Dépôts avec GitHub Secret Protection activé |
| Intégrations | Copilot CLI, VS Code, tout IDE MCP-compatible |
Les outils MCP respectent désormais les personnalisations de push protection existantes — le comportement de contournement (bypass) est cohérent avec la configuration du dépôt ou de l’organisation.
🔗 Changelog — Secret scanning GA
Dependency scanning en préversion publique
La détection de vulnérabilités sur les dépendances via MCP Server passe en préversion publique. Le système interroge la GitHub Advisory Database et retourne des résultats structurés avec paquets affectés, sévérité et versions corrigées recommandées.
| Aspect | Détail |
|---|---|
| Statut | Préversion publique |
| Disponibilité | Dépôts avec Dependabot alerts activé |
| Activation CLI | copilot --add-github-mcp-toolset dependabot |
🔗 Changelog — Dependency scanning
GitHub Advanced Security × Microsoft Defender for Cloud GA
L’intégration GitHub Advanced Security × Microsoft Defender for Cloud passe également en GA. Elle corrèle les images conteneur déployées en environnement cloud avec le code source GitHub, apportant du contexte runtime dans les vues de sécurité.
Nouveaux filtres disponibles dans la vue organisation : has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. Les campagnes de sécurité peuvent être assignées directement à l’agent de codage GitHub Copilot.
🔗 Changelog — Code-to-cloud GA
Model Spec Midtraining (MSM) — alignement agentique réduit de 68 % à 5 %
5 mai — Des chercheurs d’Anthropic publient “Model Spec Midtraining” (MSM), une méthode d’alignement intercalée entre le pré-entraînement et le fine-tuning d’alignement (alignment fine-tuning, AFT).
Le principe : les modèles sont entraînés sur un corpus synthétique de documents qui discutent le contenu de leur Model Spec avant d’apprendre à en suivre les règles. L’idée est que comprendre pourquoi une règle existe améliore la robustesse de son application.
| Modèle | Mauvais alignement (AFT seul) | Avec MSM + AFT |
|---|---|---|
| Qwen2.5-32B | 68 % | 5 % |
| Qwen3-32B | 54 % | 7 % |
MSM rend aussi l’AFT beaucoup plus efficace en données : 40 à 60 fois moins de données AFT nécessaires pour atteindre des performances comparables. Les auteurs montrent également qu’expliquer les motivations derrière les règles (plutôt que de multiplier les sous-règles) améliore la généralisation hors-distribution.
🔗 Article MSM — alignment.anthropic.com
NotebookLM Mind Maps — personnalisation, organisation, navigation
5 mai — NotebookLM améliore ses cartes mentales (Mind Maps) avec trois fonctionnalités déployées simultanément.
| Fonctionnalité | Description |
|---|---|
| Personnalisation | Guider la carte avec des instructions utilisateur spécifiques |
| Organisation | Renommer et partager les cartes Mind Map instantanément |
| Navigation | Transitions fluides entre les nœuds |
Le déploiement est progressif pour tous les utilisateurs. La mise à jour complète la série d’améliorations rapides de NotebookLM depuis début avril : organisation automatique des sources (24 avril, 100 % de déploiement atteint le 5 mai), intégration dans l’application Gemini mobile (30 avril).
Genspark sb-git — serveur Git réécrit pour les agents IA
5 mai — Genspark lance sb-git, un serveur Git réécrit de zéro pour les agents IA. Sémantique Git complète : versionnage, branches, diff, blame, rollback et push.
| Aspect | Détail |
|---|---|
| CLI | gsk (init, clone-url, cat, commit) |
| Compatibilité | Claude Code, OpenClaw, tout agent Git |
| Stockage | 1 GB (gratuit), 10 GB (Plus/Pro) |
| Compte requis | Non — aucun compte GitHub nécessaire |
| Disponibilité | Immédiate (web + mobile) |
Aucun compte GitHub requis, aucune configuration de dépôt préalable. L’accent est mis sur la compatibilité avec les agents IA courants (Claude Code, OpenClaw) sans friction d’installation.
NVIDIA + ServiceNow — Project Arc, agent desktop autonome long-running
5 mai — À la conférence ServiceNow Knowledge 2026, Jensen Huang et Bill McDermott ont annoncé l’expansion de leur partenariat autour des agents IA autonomes en entreprise.
ServiceNow lance Project Arc, un agent desktop autonome long-running conçu pour les travailleurs du savoir : développeurs, équipes IT, administrateurs. L’agent utilise NVIDIA OpenShell (sandbox open source) pour la gouvernance et la sécurité, et se connecte nativement à la plateforme ServiceNow via ServiceNow Action Fabric.
| Métrique | Valeur |
|---|---|
| Efficacité Blackwell vs Hopper | 50× tokens/watt |
| Réduction coût par million de tokens | ~35× |
| Nemotron 3 Super (open source) | #1 EnterpriseOps-Gym (NOWAI-Bench) |
| Tickets résolus autonomement | 90 % (ServiceNow + Apriel/Nemotron) |
NVIDIA NemoClaw + OpenClaw — agent persistant open source dépassant React sur GitHub
30 avril — OpenClaw (créé par Peter Steinberger) a dépassé 250 000 étoiles GitHub en 60 jours, surpassant React pour devenir le projet le plus étoilé de la plateforme. NVIDIA collabore avec la communauté pour sécuriser ce projet d’agent IA self-hosted persistant.
NVIDIA lance NemoClaw, une implémentation de référence installable en une commande, combinant OpenClaw + NVIDIA OpenShell + Nemotron avec des configurations de sécurité renforcées par défaut.
| Métrique | Valeur |
|---|---|
| GitHub stars OpenClaw | 250 000+ (mars 2026) |
| Croissance | #1 projet GitHub en 60 jours (dépasse React) |
| Multiplicateur inférence agents vs reasoning AI | 1 000× |
| Installation NemoClaw | 1 seule commande |
🔗 NVIDIA Blog — OpenClaw/NemoClaw
Luma AI Uni-1.1 API — génération d’images raisonnant sur briefs créatifs
5 mai — Luma AI lance l’API Uni-1.1, un modèle de génération d’images conçu pour raisonner sur des briefs créatifs plutôt que sur des tokens. Contrairement aux APIs traditionnelles qui nécessitent du prompt engineering, Uni-1.1 comprend le contexte esthétique de chaque tradition visuelle et produit des résultats exploitables dès le premier essai.
Cas d’usage cités : outils de mode, rendus d’architecture, pipelines manga, contenu cinématographique. Aucun middleware requis. L’API est disponible sur lumalabs.ai/api.
ChatGPT Ads Manager self-serve et CPC bidding
5 mai — OpenAI étend son programme publicitaire avec deux nouveautés : un outil self-serve (Ads Manager, en beta aux États-Unis) et le lancement du mode d’enchères CPC (coût par clic).
| Mode | Statut | Description |
|---|---|---|
| CPM (coût pour mille impressions) | Existant | Disponible depuis le lancement du programme |
| CPC (coût par clic) | Nouveau | L’annonceur ne paie qu’au clic effectif |
| Ads Manager self-serve (beta) | Nouveau | Disponible aux annonceurs US |
Partenaires agences : Dentsu, Omnicom, Publicis, WPP. Partenaires technologie : Adobe, Criteo, Kargo, Pacvue, StackAdapt. OpenAI a également lancé une Conversions API et un suivi par pixel pour mesurer les actions post-clic sans exposer les conversations individuelles aux annonceurs.
Perplexity Premium Health Sources
5 mai — Perplexity lance les Sources de santé premium. Plus d’une requête sur dix concerne la santé sur la plateforme. Les sources disponibles au lancement sont NEJM, BMJ Journals et BMJ Best Practice — des références médicales habituellement réservées aux abonnements institutionnels.
Dans Computer, ces sources s’activent automatiquement pour les questions de santé sans sélection manuelle. Chaque réponse inclut des citations traçables. Sources à venir : Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.
🔗 Blog Perplexity — Premium Health Sources
Brèves
-
Manus — Recommandation automatique de connecteurs — Manus détecte désormais quel connecteur (Slack, Notion, Gmail, Google Drive) est nécessaire pour accomplir une tâche et le recommande dans la conversation, sans quitter le fil de discussion. L’activation reste soumise à confirmation de l’utilisateur. 🔗 source
-
Black Forest Labs — FLUX Creator Program — BFL ouvre un programme sélectif de créateurs pour accès anticipé aux prochains modèles FLUX, avec amplification de leurs travaux via les canaux BFL. 🔗 source
-
GPT-5.5 Instant System Card — Première System Card de la gamme Instant classée “High capability” dans les catégories Cybersécurité et Biologie & Chimie du Preparedness Framework d’OpenAI. Des mesures de protection renforcées ont été implémentées en conséquence. 🔗 source
-
OpenAI — Architecture WebRTC relay+transceiver — OpenAI publie un article d’ingénierie décrivant la refonte de son infrastructure WebRTC pour la voix temps réel (ChatGPT Voice, Realtime API), servant plus de 900 millions d’utilisateurs hebdomadaires. L’architecture sépare le routage des paquets (relay léger, sans état) de la terminaison du protocole (transceiver, avec état), permettant un déploiement Kubernetes standard avec une empreinte UDP publique réduite. 🔗 source
Ce que ça signifie
La finance comme terrain de jeu prioritaire de l’IA enterprise. En l’espace de 24 heures, Anthropic, Perplexity et xAI ont chacun publié des annonces ciblant explicitement les équipes financières : dix templates d’agents Claude (valorisation, KYC, clôture mensuelle), Computer for Professional Finance avec 35 workflows et 14 fournisseurs de données, et Grok 4.3 classé #1 sur le benchmark Vals AI en corporate finance et case law. La convergence n’est pas un hasard — la finance combine volume de documents structurés, exigence de précision et tolérance aux coûts d’outils premium, ce qui en fait le terrain idéal pour les premiers déploiements d’agents autonomes à forte valeur métier.
La course aux modèles par défaut. GPT-5.5 Instant réduit les hallucinations de 52,5 % par rapport à son prédécesseur immédiat, et Grok 4.3 atteint le contexte d’un million de tokens avec des performances agentic mesurées et publiées. Ces deux modèles sont lancés le même jour. L’enjeu n’est plus uniquement de publier les meilleurs benchmarks académiques, mais d’être le modèle chargé par défaut dans les interfaces grand public (ChatGPT) ou activé en premier dans les pipelines développeurs (API xAI).
MCP comme standard de sécurité développeur. GitHub a publié simultanément trois mises à jour sécurité via son serveur MCP (secret scanning GA, dependency scanning en préversion, code-to-cloud GA). Ce déploiement coordonné transforme le serveur MCP de GitHub en canal d’intégration sécurité natif pour les agents de codage — Copilot CLI, VS Code et tout IDE MCP-compatible peuvent désormais scanner secrets et dépendances vulnérables avant chaque commit, directement dans le flux de travail agent.
Agents persistants et infrastructure temps réel. Runway Characters (agent vidéo à 1,75 s de latence depuis une image), Project Arc de ServiceNow (agent desktop long-running), OpenClaw/NemoClaw (250 000 étoiles GitHub, 1 000× plus de demande d’inférence que les IA de raisonnement) et Genspark sb-git (Git réécrit pour agents) signalent tous le même virage : les agents IA sortent de l’ère des requêtes ponctuelles pour entrer dans celle des processus persistants, avec des besoins d’infrastructure radicalement différents — stockage d’état, latence temps réel, versionnage natif.
Sources
- GPT-5.5 Instant — OpenAI
- GPT-5.5 Instant System Card
- ChatGPT Ads — OpenAI
- Architecture WebRTC OpenAI
- Grok 4.3 — @xai sur X
- Anthropic Finance Agents
- Anthropic Enterprise AI Services Company
- Model Spec Midtraining — Anthropic
- Perplexity Computer for Professional Finance
- Perplexity Premium Health Sources
- Runway Characters — @runwayml sur X
- NVIDIA + ServiceNow Project Arc
- NVIDIA NemoClaw + OpenClaw
- Luma AI Uni-1.1 — @LumaLabsAI sur X
- GitHub MCP Secret Scanning GA
- GitHub MCP Dependency Scanning
- GitHub + Microsoft Defender for Cloud GA
- Genspark sb-git — @genspark_ai sur X
- NotebookLM Mind Maps — @NotebookLM sur X
- Manus Recommended Connectors
- Black Forest Labs FLUX Creator Program — @bfl_ml sur X