Rechercher

OpenAI lève 122 milliards de dollars, Qwen3.5-Omni et 15 features cachées de Claude Code

OpenAI lève 122 milliards de dollars, Qwen3.5-Omni et 15 features cachées de Claude Code

Trois annonces dominent la fin du mois : OpenAI boucle la plus grande levée de fonds privée de l’histoire de la tech avec 122 milliards de dollars à une valorisation de 852 milliards, Qwen franchit une étape avec un modèle omnimodal natif capable de voir, entendre et coder simultanément, et le responsable de Claude Code publie un thread viral révélant 15 fonctionnalités méconnues de l’outil. La semaine est aussi marquée par le lancement du Secure Intelligence Institute de Perplexity, de nouveaux outils GitHub Copilot et d’initiatives infrastructure chez Runway et NVIDIA.


OpenAI lève 122 milliards de dollars

31 mars — OpenAI annonce la clôture de son dernier tour de financement avec 122 milliards de dollars de capital engagé, pour une valorisation post-money de 852 milliards de dollars. C’est l’un des plus grands tours de financement privés de l’histoire de la tech.

Le tour est co-dirigé par SoftBank et a16z, avec la participation stratégique d’Amazon, NVIDIA et Microsoft. Pour la première fois, OpenAI a étendu la participation à des investisseurs individuels via des banques, levant plus de 3 milliards de dollars auprès de particuliers. ARK Invest intégrera également OpenAI dans plusieurs fonds indiciels cotés (Exchange-Traded Funds / ETF).

À l’appui de cette levée, OpenAI publie des métriques de croissance :

IndicateurValeur
Utilisateurs actifs hebdomadaires ChatGPT900 millions
Abonnés payants ChatGPT50 millions
Revenus mensuels2 milliards de dollars
Tokens traités par l’API (par minute)15 milliards
Utilisateurs hebdomadaires Codex2 millions (+5× en 3 mois)
Croissance Codex d’un mois sur l’autre+70%

La société décrit une feuille de route articulée autour d’une “IA superapp” (AI superapp) : une interface unifiée regroupant ChatGPT, Codex, la recherche web et les agents IA. L’objectif affiché est de dépasser le milliard d’utilisateurs actifs hebdomadaires. Les entreprises représentent déjà 40% des revenus.

GPT-5.4, le modèle le plus récent d’OpenAI, est décrit comme apportant des gains en raisonnement, en codage et dans les flux de travail agentiques (agentic workflows). La croissance d’OpenAI est présentée comme 4 fois plus rapide que celle de Google et Meta à leur stade équivalent.

🔗 Annonce officielle OpenAI


Qwen3.5-Omni : modèle omnimodal natif

29 mars — Alibaba Qwen lance Qwen3.5-Omni, un modèle conçu nativement pour traiter texte, images, audio et vidéo en un seul modèle unifié. Contrairement aux approches multimodales classiques qui ajoutent des modalités en couches, ce modèle traite ces entrées simultanément.

Les capacités brutes sont importantes : jusqu’à 10 heures d’audio ou 400 secondes de vidéo 720p nativement, entraîné sur plus de 100 millions d’heures de données, reconnaissance de la parole en 113 langues et expression dans 36 langues.

Fonctionnalité phare : Audio-Visual Vibe Coding

La fonctionnalité la plus directement utilisable est l‘“Audio-Visual Vibe Coding” : l’utilisateur décrit son projet à voix haute devant une caméra, et Qwen3.5-Omni-Plus génère un site web ou un jeu fonctionnel. C’est une application du concept de codage par l’intention (vibe coding) étendu à l’audio et à la vidéo en temps réel.

Performances comparées

CatégorieQwen3.5-Omni-PlusGemini 3.1 Pro
DailyOmni (audio/vision)84,682,7
WorldScene62,865,5
QualocommInteractive68,552,3
OmniClear64,855,5
IFEval (texte)89,793,5
MMLU-Redux94,290,0

Le modèle surpasse Gemini 3.1 Pro sur les benchmarks audio et est équivalent sur la compréhension audio-visuelle.

Capacités vocales

  • Contrôle vocal fin : ajustement de l’émotion, du rythme et du volume en temps réel
  • Clonage vocal (Voice Cloning) depuis un court échantillon (déploiement ingénierie annoncé prochainement)
  • Tour de parole intelligent (Semantic Interruption) qui comprend l’intention réelle et ignore le bruit ambiant
  • Recherche web intégrée et appels de fonctions complexes

Famille de modèles

VariantePositionnement
Qwen3.5-Omni-PlusPerformances SOTA, captioning audio-visuel détaillé
Qwen3.5-Omni-Plus-RealtimeVoice Control, WebSearch, Voice Clone, Semantic Interruption
Qwen3.5-Omni-FlashVitesse
Qwen3.5-Omni-LightLégèreté

Accès via chat.qwen.ai (bouton VoiceChat/VideoChat) et l’API Alibaba Cloud.

Note complémentaire : Qwen 3.6 Plus Preview est disponible gratuitement sur OpenRouter pour une durée limitée — les échanges sont collectés pendant cette période pour améliorer le modèle.

🔗 Tweet @Alibaba_Qwen


15 fonctionnalités cachées de Claude Code

30 mars — Boris Cherny, responsable de Claude Code chez Anthropic, a publié un thread révélant 15 fonctionnalités peu documentées de l’outil. Le thread a atteint 3,6 millions de vues, 2 000 reposts et 22 000 likes.

“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”

🇫🇷 Je voulais partager quelques-unes de mes fonctionnalités préférées, peu connues et sous-utilisées dans Claude Code. Je vais me concentrer sur celles que j’utilise le plus. C’est parti.@bcherny sur X

Mobilité et sessions à distance

  • L’application Claude sur iOS et Android inclut un onglet Code permettant de coder depuis son téléphone
  • --teleport (ou /teleport) permet de basculer une session cloud vers une machine locale ; /remote-control permet de piloter une session locale depuis n’importe quel appareil
  • Cowork Dispatch : contrôle à distance sécurisé de Claude Desktop App depuis mobile, avec accès aux serveurs MCP (Model Context Protocol), au navigateur, etc.

Automatisation

  • /loop et /schedule permettent de lancer Claude automatiquement à intervalles définis, jusqu’à une semaine — Cherny utilise /loop 5m /babysit pour une revue de code et un rebase automatiques en continu
  • Les hooks (SessionStart, PreToolUse, etc.) permettent d’injecter de la logique déterministe dans le cycle de l’agent, par exemple pour router les demandes de permission vers WhatsApp

Parallélisation

  • /batch distribue le travail vers des dizaines, centaines voire milliers d’agents en parallèle — utile pour les migrations de code à grande échelle
  • claude -w démarre des sessions parallèles dans des espaces de travail git (git worktrees) distincts

Productivité quotidienne

  • /btw permet de poser une question rapide pendant qu’un agent travaille, sans interrompre la tâche en cours
  • /branch permet de bifurquer (fork) une session ; ou via CLI : claude --resume <session-id> --fork-session
  • --agent permet de définir des agents personnalisés dans .claude/agents/ avec un système prompt et des outils configurables
  • --add-dir / /add-dir donne à Claude accès à plusieurs dossiers ou dépôts simultanément
  • --bare accélère le démarrage SDK jusqu’à 10× (évite le chargement de CLAUDE.md, des paramètres et des serveurs MCP)
  • /voice active la saisie vocale (barre d’espace en CLI, bouton dédié sur Desktop, dictée iOS)
  • Extension Chrome (bêta) : Claude Code + Chrome pour tester les applications web, déboguer les journaux console et automatiser le navigateur

🔗 Thread complet @bcherny


Claude Code : auto mode étendu à Enterprise et API

30 mars — L’auto mode de Claude Code, lancé le 24 mars pour les utilisateurs Pro et Max, est désormais disponible sur le plan Enterprise et pour les développeurs accédant à l’API. Cette fonctionnalité permet à Claude de prendre lui-même les décisions d’approbation d’actions (écriture de fichiers, commandes bash) au lieu de solliciter l’utilisateur à chaque étape.

Pour l’activer dans un environnement Enterprise ou API :

claude --enable-auto-mode

L’auto mode s’appuie sur des classificateurs internes qui évaluent le risque de chaque action avant de l’exécuter, offrant un équilibre entre le mode permissif (--dangerously-skip-permissions) et les approbations manuelles.

30 mars — Cowork Dispatch peut maintenant démarrer des tâches de codage avec un modèle spécifique, mentionné directement en langage naturel dans l’instruction.

🔗 Tweet @claudeai


Perplexity lance le Secure Intelligence Institute

31 mars — Perplexity lance le Secure Intelligence Institute (SII), un laboratoire de recherche dédié à la sécurité, la confidentialité et la sûreté des systèmes d’IA avancés. L’Institut est dirigé par le Dr. Ninghui Li — Samuel D. Conte Professor à l’Université Purdue, Fellow ACM et IEEE, ancien président d’ACM SIGSAC —, avec des partenariats académiques incluant le groupe de cryptographie appliquée de Dan Boneh et le Gong Lab de Neil Gong.

Le SII publie trois premiers travaux :

PublicationTypeDescription
BrowseSafeBenchmark open-source14 700+ scénarios d’attaque réels, 14 catégories de risque pour la navigation IA
Sécurisation des agents NIST/CAISIPolitiqueRéponse au RFI (Request for Information) sur la sécurisation des agents autonomes
Building Security Into CometArchitectureDéfense en profondeur du navigateur IA Comet

Le SII traduit ses recherches en améliorations concrètes des systèmes Perplexity et partage ses travaux avec l’écosystème IA.

🔗 Secure Intelligence Institute


Cohere et Ensemble : LLM spécialisé en gestion du cycle de revenus pour la santé

31 mars — Cohere et Ensemble annoncent la construction du premier grand modèle de langage (large language model / LLM) natif en gestion du cycle de revenus (Revenue Cycle Management / RCM) de l’industrie de la santé américaine.

Ensemble propose une solution de bout-en-bout pour hôpitaux et groupes médicaux, de la prise de rendez-vous à la facturation finale. Contrairement aux offres concurrentes qui encapsulent des LLM généraux dans des prompts spécialisés, ce modèle est entièrement personnalisé sur la famille Command de Cohere.

DomaineCapacité
FinancierPrédiction de refus avant soumission, contrôle qualité facturation en continu
CliniqueGuidage documentation au point de soin, assemblage de dossiers d’appel
AgentiqueOrchestration multi-étapes du cycle de revenus

Le modèle a été entraîné sur les données de pré-entraînement de Cohere, les journaux opérationnels d’Ensemble, des sources publiques de connaissances RCM et des annotations d’experts métier. Un cadre d’évaluation (benchmark) domaine-spécifique co-développé mesurera les performances par rapport aux LLM généraux sur des tâches RCM réelles.

🔗 Blog Cohere


GitHub Copilot : développement agent-first et intégration Slack

31 mars — Tyler McGoffin, chercheur senior de l’équipe Copilot Applied Science chez GitHub, publie un retour d’expérience sur la construction d’un outil interne avec Copilot comme agent de codage principal. L’outil automatise l’analyse de trajectoires d’agents IA sur des benchmarks comme TerminalBench2 et SWEBench-Pro.

Les pratiques décrites : utilisation du mode /plan avant de coder, création de “tests de contrat” (contract tests) que seul un humain peut modifier, prompts détaillés plutôt que succints, et maintenance automatique hebdomadaire via /plan Review the code for any missing tests.... La conclusion : les qualités d’un bon ingénieur (planification, contexte, communication) sont identiques pour collaborer efficacement avec un agent IA.

30 mars — L’app GitHub pour Slack intègre désormais Copilot pour créer des issues GitHub directement depuis Slack en langage naturel. Il suffit de mentionner @GitHub dans n’importe quel canal et de décrire le travail.

FonctionnalitéDétail
Création en langage naturelDescription → issues structurées (titre, corps, assignés, labels, jalons)
Sous-issuesDécomposer le travail en issues parent/enfant depuis un seul message
Mode conversationItérer sur les issues avant de les créer

31 mars — GitHub présente le Copilot SDK permettant d’intégrer des flux de travail agentiques (agentic workflows) dans des applications tierces selon 3 modèles architecturaux.

🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Issues depuis Slack


Runway : fonds d’investissement et programme startups

31 mars — Runway lance deux initiatives simultanées.

Le Runway Fund est un fonds d’investissement pour startups en phase initiale (early-stage) dans l’IA, les médias et la simulation du monde. Engagement initial jusqu’à 10 millions de dollars, avec des investissements allant jusqu’à 500 000 dollars en pré-amorçage et amorçage (pre-seed/seed). Focus sur trois axes : recherche IA (modèles du monde et IA générative), nouvelles applications (couche applicative sur LLMs), et nouveaux médias et contenus. Des investissements ont déjà été réalisés dans Cartesia, LanceDB et Tamarind Bio.

Runway Builders est un programme d’accompagnement pour startups de l’amorçage à la série C construisant des produits avec de la vidéo générative et de l’IA conversationnelle en temps réel. Les participants reçoivent des crédits API offerts, les limites de taux les plus élevées et un accès à une communauté privée.

🔗 Runway Fund 🔗 Runway Builders


NVIDIA et Emerald AI : usines d’IA flexibles sur le réseau électrique

31 mars — NVIDIA et Emerald AI présentent au CERAWeek une nouvelle approche pour les usines d’IA (AI factories) : les traiter comme des actifs flexibles du réseau électrique plutôt que comme des charges statiques. L’architecture repose sur NVIDIA Vera Rubin DSX et la plateforme Conductor d’Emerald AI.

Partenaires énergie annoncés : AES, Constellation, Invenergy, NextEra Energy, Nscale Energy et Vistra. Annonces associées :

  • Maximo : installation solaire robotique IA de 100 MW opérationnelle à Bellefield avec NVIDIA Isaac Sim
  • TerraPower + SoftServe : jumeau numérique (digital twin) NVIDIA Omniverse pour réduire les délais de conception de centrales nucléaires Natrium
  • Adaptive Construction Solutions : programme national de formation à la construction d’usines d’IA
  • GE Vernova, Schneider Electric, Vertiv : conceptions de référence (reference designs) validées pour Vera Rubin

Jensen Huang décrit l’énergie comme la couche fondamentale d’un “gâteau IA à cinq couches” (five-layer AI cake).

🔗 Blog NVIDIA - AI Factories


En bref

Gemini Live sur Gemini 3.1 Flash Live30 mars — Google a confirmé le déploiement du modèle Gemini 3.1 Flash Live dans l’application Gemini Live, disponible pour tous les utilisateurs. Cette transition (annoncée le 26 mars) apporte des conversations audio plus naturelles et une meilleure précision dans les environnements bruités. 🔗 Tweet @GeminiApp

Manus : contrôle depuis téléphone pour Desktop30 mars — Manus ajoute la possibilité de piloter l’application Desktop depuis son smartphone : démarrage de tâches, accès aux fichiers et lancement de flux de travail sans toucher l’ordinateur. 🔗 Tweet @ManusAI

Midjourney V8 teaser29 mars — David Holz (fondateur de Midjourney) annonce une version “radicalement différente” de V8, “arriving very soon”. Pas de date annoncée. 🔗 Tweet @DavidSHolz

Claude Code v2.1.87 — Correction d’un bug dans Cowork Dispatch où les messages n’étaient pas délivrés. 🔗 CHANGELOG GitHub


Ce que ça signifie

La levée d’OpenAI à 852 milliards de valorisation marque un point d’inflexion : à ces chiffres, l’écart entre les acteurs de premier plan et le reste du secteur se creuse structurellement. Avec 900 millions d’utilisateurs hebdomadaires et une cible d’un milliard, ChatGPT s’impose comme une infrastructure de masse, pas seulement un produit technologique.

Le lancement de Qwen3.5-Omni illustre la compétition croissante sur les modèles omnimodaux. L’Audio-Visual Vibe Coding représente une évolution concrète du codage par l’intention (vibe coding) — passer du texte à la voix et à la vidéo comme interface principale vers l’IA générative.

Du côté des outils développeurs, le thread de Boris Cherny révèle que Claude Code a accumulé des fonctionnalités avancées (parallélisation massive avec /batch, automatisation via hooks, sessions distribuées) qui restaient méconnues faute de documentation visible. L’extension aux plans Enterprise de l’auto mode suit une trajectoire classique : validation en preview, puis déploiement progressif.

Enfin, la création du Secure Intelligence Institute par Perplexity et les initiatives de Cohere dans la santé signalent une tendance : les acteurs de second rang cherchent à se différencier sur des verticaux spécialisés (sécurité IA, santé réglementée) plutôt que de concurrencer frontalement sur les modèles généraux.


Sources