Rechercher

Anthropic lève 30 milliards $, GPT-5.3-Codex-Spark sur Cerebras, Gemini 3 Deep Think

Anthropic lève 30 milliards $, GPT-5.3-Codex-Spark sur Cerebras, Gemini 3 Deep Think

Journée exceptionnelle dans l’IA : Anthropic annonce une levée de fonds de 30 milliards de dollars portant sa valorisation à 380 milliards, OpenAI déploie un modèle de coding temps réel à 1000+ tokens/seconde sur Cerebras, et Google pousse Gemini 3 Deep Think vers de nouveaux records en sciences. Côté écosystème, xAI restructure ses équipes autour de 4 produits, Mistral investit 1,2 milliard d’euros en Suède, et GitHub suspend temporairement GPT-5.3-Codex pour des raisons de fiabilité.


Anthropic lève 30 milliards $ en série G

12 février — Anthropic annonce une levée de fonds de 30 milliards de dollars en série G, portant la valorisation post-money de l’entreprise à 380 milliards de dollars. Le tour est co-dirigé par GIC et Coatue, avec la participation de D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ et MGX. La liste des investisseurs supplémentaires comprend Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft et NVIDIA entre autres.

MétriqueValeur
Montant levé30 milliards $
Valorisation post-money380 milliards $
Revenu annualisé (run-rate)14 milliards $
Croissance annuelle10x par an (3 dernières années)
Clients >100k$/anCroissance de 7x en un an
Clients Enterprise >1M$/anPlus de 500 (vs 12 il y a 2 ans)
Clients Fortune 108 sur 10
Run-rate Claude Code2,5 milliards $ (double depuis janvier 2026)
Utilisateurs hebdo Claude Code2x depuis le 1er janvier 2026
Commits GitHub via Claude Code4% (double en 1 mois)
Abonnements business Claude Code4x depuis début 2026
Part entreprise Claude Code>50% du revenu Claude Code

Les fonds serviront à la recherche fondamentale, au développement produit et à l’expansion de l’infrastructure. Claude reste le seul modèle IA frontier disponible sur les trois principales plateformes cloud : AWS (Bedrock), Google Cloud (Vertex AI) et Microsoft Azure (Foundry). Anthropic entraîne et exécute Claude sur une gamme diversifiée de hardware IA (AWS Trainium, Google TPUs, NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇫🇷 Cette levée de fonds reflète la demande incroyable que nous observons de la part de ces clients, et nous utiliserons cet investissement pour continuer à développer les produits et modèles de qualité professionnelle dont ils dépendent. — Krishna Rao, CFO d’Anthropic (@AnthropicAI sur X)

🔗 Annonce officielle


GPT-5.3-Codex-Spark : modèle temps réel sur Cerebras

12 février — OpenAI lance GPT-5.3-Codex-Spark en research preview, un modèle de coding temps réel optimisé pour l’inférence ultra-rapide sur le Cerebras Wafer-Scale Engine 3. C’est le premier modèle OpenAI déployé sur du hardware non-NVIDIA.

Codex-Spark est une version compacte de GPT-5.3-Codex, conçue pour le travail interactif où la latence compte autant que l’intelligence : éditions ciblées, refactoring de logique, ajustement d’interfaces avec retour immédiat.

SpécificationDétail
Tokens/seconde> 1 000 (vs 50-100 pour les modèles standards)
Fenêtre de contexte128k tokens
FormatTexte uniquement (multimodal prévu ultérieurement)
Réduction overhead client/serveur80% (WebSocket persistant)
Réduction overhead par token30%
Réduction time-to-first-token50%

Le modèle tourne sur le Cerebras Wafer-Scale Engine 3, un processeur monolithique qui maintient le calcul étroitement couplé pour l’inférence haut débit. Ce lancement marque la première étape du partenariat OpenAI-Cerebras annoncé en janvier 2026.

Codex-Spark est disponible en research preview pour les abonnés ChatGPT Pro, dans les dernières versions de l’app Codex, du CLI et de l’extension VS Code. L’accès API est limité à des partenaires sélectionnés, avec un déploiement plus large prévu.

Sur SWE-Bench Pro et Terminal-Bench 2.0, le modèle montre des performances solides en complétant les tâches en une fraction du temps par rapport à GPT-5.3-Codex. Des limites de débit séparées s’appliquent pendant la phase de research preview.

À terme, Codex proposera deux modes complémentaires : raisonnement long-horizon (tâches autonomes de plusieurs heures/jours) et collaboration temps réel (itération rapide). Les deux modes pourront se combiner, avec délégation de tâches longues à des sous-agents en arrière-plan.

🔗 Annonce officielle


Gemini 3 Deep Think : scores record en sciences

12 février — Google annonce une mise à jour majeure de Gemini 3 Deep Think, son mode de raisonnement spécialisé. Le modèle est désormais conçu pour résoudre des défis concrets en science, recherche et ingénierie, au-delà de la théorie abstraite.

Deep Think a été mis à jour en partenariat étroit avec des scientifiques et des chercheurs. L’objectif est de s’attaquer à des problèmes de recherche complexes, où les données sont souvent désordonnées ou incomplètes et où il n’existe pas de solution unique. Le modèle combine connaissances scientifiques profondes et utilité en ingénierie.

Benchmarks record

BenchmarkScoreNote
Humanity’s Last Exam48,4% (sans outils)Nouveau standard pour les modèles frontier
ARC-AGI-284,6%Vérifié par l’ARC Prize Foundation
CodeforcesElo 3455Programmation compétitive
IMO 2025Médaille d’orOlympiade internationale de mathématiques
IPhO 2025 (écrit)Médaille d’orOlympiade internationale de physique
IChO 2025 (écrit)Médaille d’orOlympiade internationale de chimie
CMT-Benchmark50,5%Physique théorique avancée

Cas d’usage réels

  • Mathématiques (Lisa Carbone, Rutgers University) : Deep Think a identifié une faille logique subtile dans un article de mathématiques hautement technique, qui avait échappé à la relecture humaine par les pairs. Elle travaille sur les structures mathématiques nécessaires à la physique des hautes énergies.
  • Science des matériaux (Wang Lab, Duke University) : Optimisation des méthodes de fabrication pour la croissance de cristaux complexes, candidats pour des matériaux semi-conducteurs. Deep Think a conçu une recette pour faire croître des films minces de plus de 100 micromètres.
  • Ingénierie mécanique (Anupam Pathak, Google Platforms & Devices) : Itération sur des prototypes physiques à la vitesse du logiciel. Possibilité de transformer un croquis en objet imprimable en 3D (génération de fichier STL).

Gemini 3 Deep Think est disponible dès aujourd’hui pour les abonnés Google AI Ultra dans l’app Gemini, et pour la première fois via l’API en accès anticipé pour chercheurs, ingénieurs et entreprises.

🔗 Annonce officielle


xAI restructuration : 4 équipes et Macrohard

11 février — xAI publie un all-hands de 45 minutes sur X, révélant une restructuration majeure de l’entreprise suite au départ de la moitié de ses co-fondateurs (6 sur 12). Les derniers départs sont ceux de Tony Wu et Jimmy Ba.

Elon Musk annonce la réorganisation de xAI en 4 équipes principales :

ÉquipeFocusLeader
GrokChatbot + voix-
CodingSystème de code applicatif-
ImagineGénération vidéo-
MacrohardSimulation informatique → entreprisesToby Pohlen

Macrohard est le projet le plus ambitieux : selon Toby Pohlen, le système “est capable de faire tout ce qu’un ordinateur peut faire sur un ordinateur”. L’ambition s’étend jusqu’à la conception de moteurs de fusées par l’IA.

Métriques clés annoncées

  • X a dépassé 1 milliard USD de revenu annuel récurrent (abonnements)
  • Imagine génère 50 millions de vidéos par jour
  • Plus de 6 milliards d’images sur les 30 derniers jours

La vision interplanétaire de Musk s’étend des data centers orbitaux aux bases lunaires. Ces annonces interviennent après l’acquisition de xAI par SpaceX (2 février) et le départ de 6 co-fondateurs sur 12 au cours de la dernière année (Kyle Kosic vers OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).

🔗 Article TechCrunch


Mistral investit 1,2 milliard EUR en Suède

11 février — Mistral AI annonce un investissement de 1,2 milliard d’euros (1,4 milliard USD) pour construire une infrastructure IA en Suède, en partenariat avec EcoDataCenter. C’est le premier investissement d’infrastructure IA de Mistral hors de France.

Le data center sera situé à Borlänge (Suède) sur le site d’EcoDataCenter, avec une ouverture prévue en 2027. L’installation fournira 23 mégawatts de puissance de calcul et hébergera les GPU NVIDIA Vera Rubin de dernière génération.

DétailValeur
Montant1,2 Mrd EUR / 1,4 Mrd USD
PartenaireEcoDataCenter
LocalisationBorlänge, Suède
Ouverture2027
Capacité23 MW
GPUNVIDIA Vera Rubin
Revenu prévu2 Mrd EUR sur 5 ans

Arthur Mensch, CEO de Mistral AI, a déclaré que cet investissement est “une étape concrète vers la construction de capacités indépendantes en Europe, dédiées à l’IA”. Le choix de la Suède s’explique par son accès à une énergie propre et relativement bon marché. L’objectif est de livrer un stack IA entièrement européen — conçu, construit et exploité sur l’ensemble de la chaîne de valeur IA, avec des données traitées et stockées localement en Europe.

🔗 Article Tech.eu


Qwen-Image-2.0 : génération et édition d’images unifiées

10 février — Alibaba lance Qwen-Image-2.0, un modèle fondation de génération d’images de nouvelle génération qui unifie la génération text-to-image et l’édition d’images dans une seule architecture.

Changements majeurs par rapport à la v1 :

  • Architecture unifiée génération + édition (auparavant des modèles séparés)
  • Modèle plus compact : 7B paramètres (contre 20B pour la v1)
  • Rendu texte amélioré avec support de prompts jusqu’à 1K tokens
  • Résolution native 2K (2048x2048)
BenchmarkQwen-Image-2.0FLUX.1
DPG-Bench88,3283,84
AI Arena (blind eval)#1-

Le modèle excelle dans le rendu de texte en chinois et anglais à travers différents formats : infographies, posters, calligraphie, signalétique. Qwen-Image-2.0 est disponible en test API sur la plateforme Alibaba Cloud BaiLian et gratuitement via Qwen Chat (chat.qwen.ai).

🔗 Annonce officielle


Deep Research passe à GPT-5.2

10 février — OpenAI met à jour ChatGPT Deep Research avec le modèle GPT-5.2, remplaçant les précédentes versions o3 et o4-mini. La mise à jour apporte des connexions apps, la recherche sur des sites spécifiques, et des contrôles en temps réel.

FonctionnalitéDétail
ModèleGPT-5.2 (remplace o3 / o4-mini)
Connexions appsGmail, Google Calendar, Google Contacts + tout MCP
Recherche cibléeRestriction aux sites spécifiques et sources de confiance
Contrôles temps réelSuivi de progression, interruption et redirection mid-run
Plan de rechercheCréable et éditable avant le lancement
InterfaceSidebar redesignée + vue rapport plein écran
ExportPDF et DOCX

Les utilisateurs peuvent désormais connecter Deep Research à n’importe quel serveur MCP ou application, et restreindre les recherches web à des sites de confiance pour des rapports plus précis et crédibles. Les apps fonctionnent en mode lecture seule comme sources fiables.

Le déploiement a commencé le 10 février pour les utilisateurs Plus et Pro, avec les utilisateurs Free et Go à suivre dans les jours suivants.

🔗 Annonce officielle


ChatGPT rejoint GenAI.mil du Pentagone

10 février — OpenAI annonce le déploiement d’une version custom de ChatGPT sur GenAI.mil, la plateforme IA enterprise du Département de la Défense américain. ChatGPT rejoint Google Gemini (lancé en décembre 2025) et xAI Grok (ajouté fin décembre 2025) sur la plateforme.

DétailValeur
PlateformeGenAI.mil (DoD)
Utilisateurs potentiels~3 millions (militaires, civils, contractants)
Utilisateurs actifs plateforme1,1 million uniques depuis le lancement
ClassificationDonnées non classifiées uniquement
InfrastructureCloud gouvernemental autorisé
Isolation donnéesDonnées isolées, non utilisées pour entraîner les modèles OpenAI

Les cas d’usage couvrent la synthèse et l’analyse de documents de politique, la rédaction de matériels d’approvisionnement, la génération de rapports internes et checklists de conformité, et l’assistance à la recherche et planification.

🔗 Annonce officielle


ElevenLabs for Government

11 février — ElevenLabs lance ElevenLabs for Government, une initiative dédiée au secteur public annoncée lors du ElevenLabs Summit à Londres. Cette plateforme propose des agents voix et chat IA conçus pour les organisations gouvernementales, disponibles 24h/24, en plusieurs langues, sur téléphone, chat, email et WhatsApp.

La plateforme vise trois objectifs :

  • Accessibilité et inclusion : agents omnicanaux multilingues capables de résoudre les demandes des citoyens instantanément
  • Efficacité et productivité : automatisation des contacts à fort volume et réduction des transferts entre services
  • Confiance et engagement : amélioration de l’accès aux communications alignées sur les politiques publiques
DéploiementDétails
République tchèqueHotlines nationales emploi et prestations, ~5 000 appels/jour, 85% de résolution autonome
UkraineJumeau numérique d’un haut responsable + services publics, en partenariat avec le Ministère de la Transformation Numérique
Midland, Texas (USA)Concierge civique vocal “Jacky”, réduction estimée de 7 000 appels manqués/mois

La plateforme est certifiée SOC 2 Type 2, GDPR, CPRA et HIPAA pour répondre aux exigences de sécurité du secteur public.

🔗 Annonce officielle


Anthropic couvre les hausses d’électricité

11 février — Anthropic annonce qu’il couvrira les augmentations de prix d’électricité pour les consommateurs causées par ses data centers. L’entreprise prend quatre engagements concrets :

EngagementDétail
Coûts d’infrastructure réseauPrise en charge de 100% des coûts de raccordement au réseau
Nouvelle production d’énergieMise en service de nouvelles capacités de production adaptées aux besoins
Réduction de la pression sur le réseauInvestissement dans des systèmes de réduction de consommation en pointe
Investissement communautaireCréation de centaines d’emplois permanents et milliers d’emplois de construction

🔗 Annonce officielle


Anthropic donne 20 millions $ pour la régulation IA

12 février — Anthropic annonce un don de 20 millions de dollars à Public First Action, une nouvelle organisation bipartisane 501(c)(4) américaine. L’objectif est de mobiliser les citoyens et les responsables politiques sur les enjeux de l’IA dans l’intérêt public.

Le tweet d’Anthropic souligne que l’IA est adoptée plus rapidement que toute technologie dans l’histoire, et que la fenêtre pour réussir les politiques publiques se referme.

🔗 Annonce sur X


Claude Code Desktop : plugins locaux et marketplace

11 février — Boris Cherny (lead Claude Code chez Anthropic) publie un thread détaillant ce que les ingénieurs aiment dans Claude Code : sa customisabilité. Il liste hooks, plugins, LSPs, MCPs, skills, effort, custom agents, status lines, output styles comme autant de mécanismes de personnalisation.

En parallèle, Lydia Hallie annonce que Claude Code sur desktop supporte désormais les plugins locaux. Les utilisateurs peuvent installer des commandes slash custom, des skills et des serveurs MCP depuis le marketplace, avec synchronisation automatique entre desktop et CLI.

🔗 Thread Boris Cherny


GitHub Mobile : Model Picker pour Copilot

11 février — GitHub ajoute un sélecteur de modèles au Copilot Coding Agent dans l’application GitHub Mobile, sur iOS et Android.

Les utilisateurs Copilot Pro et Pro+ peuvent désormais choisir le modèle IA qui alimente leurs sessions de coding agent directement depuis leur téléphone, sans avoir à passer par le desktop.

Modèle disponibleÉditeur
Auto (défaut — optimise vitesse et performance)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

Le mode Auto sélectionne automatiquement un modèle pour optimiser vitesse et performance selon la disponibilité. La fonctionnalité est disponible dès maintenant pour les abonnés Copilot Pro et Pro+. Le support Business et Enterprise arrive prochainement. À noter : GPT-5.3-Codex, rendu GA le 9 février, n’est pas encore dans la liste mobile.

🔗 GitHub Changelog


GitHub suspend GPT-5.3-Codex (fiabilité)

10 février — GitHub annonce la suspension temporaire du déploiement de GPT-5.3-Codex dans GitHub Copilot pour des raisons de fiabilité de la plateforme, seulement un jour après l’annonce de sa disponibilité générale.

Le tweet, qui cite en réponse l’annonce du 9 février sur le GA de GPT-5.3-Codex, a généré 357 500 vues et 1 000 likes, témoignant de l’impact sur la communauté développeurs. Plusieurs utilisateurs ont signalé des problèmes de disponibilité du service dans les réponses.

Le fait que le modèle ne figure pas encore dans la liste du Model Picker Mobile (annoncé le 11 février) pourrait être lié à cette suspension.

🔗 Annonce sur X


Manus lance Project Skills

12 février — Manus (désormais sous Meta) lance Project Skills, une fonctionnalité qui permet de créer des bibliothèques de compétences dédiées par projet.

Chaque projet peut assembler un ensemble de skills sélectionnés depuis les pools “Team Skills” ou les collections personnelles. L’idée : transformer un dossier de projet standard en un workspace intelligent et autonome.

FonctionnalitéDescription
Bibliothèques par projetAssemblage de toolkits personnalisés depuis les pools d’équipe ou personnels
Workflows contenusSeuls les skills explicitement ajoutés au projet peuvent être déclenchés
Workflows verrouillésLes admins peuvent verrouiller le set de skills pour standardiser les process

Les bénéfices mis en avant : onboarding plus rapide, scaling de l’expertise individuelle à l’organisation, et construction de “connaissances institutionnelles” qui s’améliorent avec le temps. Disponible immédiatement pour tous les utilisateurs Manus.

🔗 Annonce officielle


Gemini CLI v0.28.0 + Extension Settings

10-11 février — Google publie la version 0.28.0 de Gemini CLI et annonce les Extension Settings, une nouvelle fonctionnalité pour simplifier la configuration des extensions.

Gemini CLI v0.28.0 (10 février)

NouveautéDétail
Commande /prompt-suggestNouvelle commande slash pour suggestions de prompts
Thème automatiqueAdaptation basée sur le fond du terminal
Compatibilité IDESupport ajouté pour Positron IDE
OAuth amélioréConsentement OAuth interactif et non-interactif
Checklist componentComposant pour la gestion de tâches structurées en plan mode
Sous-agentsEnregistrement dynamique de policies pour les sous-agents
Exécution en arrière-planCommandes shell en arrière-plan

Extension Settings (11 février)

Les extensions Gemini CLI peuvent désormais définir des paramètres de configuration que les utilisateurs fournissent à l’installation. Setup automatique avec prompts interactifs, sécurité intégrée (les données sensibles comme les clés API sont stockées dans le keychain système), et gestion centralisée via gemini extensions config. Les extensions Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implémentent déjà cette fonctionnalité.

🔗 Annonce officielle


Shopping IA dans Google Search et Gemini

11 février — Google annonce l’intégration de fonctionnalités d’achat directement dans ses produits IA — Search AI Mode et le chatbot Gemini.

Les utilisateurs peuvent désormais acheter des articles Etsy et Wayfair directement dans le chatbot Gemini. Direct Offers, une nouvelle fonctionnalité dans AI Mode, permet aux marques d’offrir des réductions aux acheteurs potentiels. De nouveaux formats publicitaires sont testés dans AI Mode de Search pour les retailers.

Google travaille avec Walmart, Target et Shopify sur un protocole de checkout permettant aux consommateurs de finaliser leurs achats directement dans les produits IA de Google.

🔗 Article PYMNTS


Rapport GTIG : attaques de distillation sur Gemini

12 février — Le Google Threat Intelligence Group (GTIG) publie un rapport révélant que Gemini a été ciblé par des attaques de distillation — des tentatives de clonage massives via des prompts répétés.

Une campagne a soumis plus de 100 000 prompts à Gemini avant d’être détectée. Les attaques ciblaient spécifiquement les algorithmes de raisonnement de Gemini. Les attaquants sont principalement des entreprises privées et des chercheurs cherchant un avantage compétitif.

Les systèmes de Google ont détecté l’activité en temps réel et ajusté les protections. Google considère la distillation comme du vol de propriété intellectuelle.

🔗 Article NBC News


Codex CLI v0.99.0 : exécution shell concurrente

11 février — OpenAI publie Codex CLI v0.99.0 avec l’exécution shell concurrente, un statusline configurable, et des APIs app-server dédiées.

FonctionnalitéDétail
Exécution shell concurrenteLes commandes shell directes ne bloquent plus un tour en cours
/statuslineConfiguration interactive des métadonnées dans le footer TUI
Resume picker adaptatifNouveau sélecteur pour reprendre les sessions
App-server APIsAPIs dédiées pour l’intégration d’applications
Admin controlsContrôles admin pour web search et networking
ImagesSupport GIF/WebP
SnapshottingSnapshotting d’environnement
Steer modeStable et actif par défaut (Enter envoie, Tab met en file)

Le packaging npm a été retravaillé : les binaires spécifiques aux plateformes sont distribués via des dist-tags @openai/codex, réduisant la taille des packages.

🔗 Changelog Codex CLI


Qwen Chat AI Slides

12 février — Qwen annonce l’arrivée prochaine d’AI Slides dans Qwen Chat. La fonctionnalité permet de convertir différents types de documents en présentations : project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.

La fonctionnalité est construite avec Qwen Agent + Qwen-Image 2.0 (le modèle image lancé quelques jours avant). Chen Cheng a démontré la capacité de transformer des articles académiques en présentations orales en quelques minutes, avec un agent de recherche intégré.

🔗 Annonce sur X


Ce que ça signifie

La levée de fonds de 30 milliards de dollars d’Anthropic à une valorisation de 380 milliards confirme la domination des modèles frontier dans l’économie de l’IA. Le run-rate de 14 milliards de dollars annuel et la part de 2,5 milliards générée par Claude Code montrent que le coding assisté par IA est devenu une infrastructure critique pour les développeurs et les entreprises.

L’arrivée de GPT-5.3-Codex-Spark sur Cerebras marque un tournant dans la diversification du hardware IA au-delà de NVIDIA. L’inférence à 1000+ tokens/seconde change la nature de l’interaction avec les modèles de code, rendant possible une collaboration temps réel fluide.

Gemini 3 Deep Think avec ses médailles d’or aux olympiades scientifiques et son score de 84,6% sur ARC-AGI-2 démontre que les modèles frontier commencent à atteindre un niveau de raisonnement scientifique comparable aux meilleurs humains dans des domaines spécialisés.

La restructuration de xAI en 4 équipes avec Macrohard — visant à faire “tout ce qu’un ordinateur peut faire” — et l’investissement massif de Mistral en Europe montrent que la course à l’infrastructure IA s’accélère au niveau mondial. La suspension de GPT-5.3-Codex par GitHub rappelle toutefois que la fiabilité reste un défi majeur pour le déploiement à grande échelle.


Sources