Semaine chargée dans l’écosystème IA
Du 9 au 15 janvier 2026, les annonces se sont multipliées : restructuration chez Anthropic, partenariats hardware et énergie chez OpenAI, rapprochement historique Google-Apple, et des nouveautés côté Qwen et ElevenLabs.
Anthropic Labs : une nouvelle structure produit
13 janvier 2026 — Anthropic annonce l’expansion de Labs, une équipe dédiée à l’incubation de produits expérimentaux aux frontières des capacités de Claude.
Mike Krieger, co-fondateur d’Instagram et Chief Product Officer d’Anthropic depuis deux ans, rejoint Labs pour construire aux côtés de Ben Mann. Ami Vora prend la direction de l’organisation Produit, en partenariat avec Rahul Patil (CTO).
“The speed of advancement in AI demands a different approach to how we build, how we organize, and where we focus. Labs gives us room to break the mold and explore.”
🇫🇷 “La vitesse des avancées en IA exige une approche différente de notre façon de construire, de nous organiser et de nous concentrer. Labs nous donne l’espace pour sortir des sentiers battus et explorer.” — Daniela Amodei, Présidente d’Anthropic
Cette structure a déjà produit Claude Code (devenu un produit à un milliard de dollars en six mois), le Model Context Protocol (100M téléchargements mensuels), les Skills, Claude in Chrome et Cowork.
OpenAI : partenariats hardware et énergie
Partenariat avec Cerebras
14 janvier 2026 — OpenAI s’associe à Cerebras Systems pour ajouter 750 MW de capacité d’inférence ultra-rapide. Cerebras construit des processeurs IA sur un seul chip géant, combinant compute, mémoire et bande passante pour éliminer les goulots d’étranglement de l’inférence traditionnelle.
“OpenAI’s compute strategy is to build a resilient portfolio that matches the right systems to the right workloads. Cerebras adds a dedicated low-latency inference solution to our platform.”
🇫🇷 “La stratégie compute d’OpenAI est de construire un portefeuille résilient qui associe les bons systèmes aux bonnes charges de travail. Cerebras ajoute une solution d’inférence dédiée à faible latence à notre plateforme.” — Sachin Katti, OpenAI
La capacité sera déployée par tranches jusqu’en 2028.
Investissement dans Merge Labs
15 janvier 2026 — OpenAI investit dans Merge Labs, un laboratoire de recherche sur les interfaces cerveau-ordinateur (BCI). L’objectif : créer des interfaces naturelles et humaines pour interagir avec l’IA.
Les co-fondateurs incluent les chercheurs Mikhail Shapiro, Tyson Aflalo et Sumner Norman, ainsi que Alex Blania, Sandro Herbig et Sam Altman (à titre personnel).
OpenAI collaborera avec Merge Labs sur des modèles fondationnels scientifiques et des outils de pointe pour accélérer la recherche.
US AI Supply Chain
15 janvier 2026 — OpenAI lance un Request for Proposals (RFP) pour renforcer la chaîne d’approvisionnement IA américaine via la fabrication domestique de composants.
| Domaine | Composants recherchés |
|---|---|
| Électronique grand public | Modules, outillage, assemblage final |
| Data centers | Compute, alimentation, refroidissement, hardware |
| Robotique | Réducteurs, moteurs, électronique de puissance |
Cette initiative s’inscrit dans le cadre de Stargate, le projet d’infrastructure IA à 500 milliards de dollars annoncé en janvier. Date limite : juin 2026.
SoftBank et SB Energy
9 janvier 2026 — OpenAI et SoftBank Group investissent chacun 500 millions de dollars dans SB Energy pour construire l’infrastructure IA de nouvelle génération.
Points clés :
- Contrat de location de 1,2 GW pour le premier centre de données (comté de Milam, Texas)
- Campus multi-gigawatts avec entrée en service à partir de 2026
- SB Energy devient client d’OpenAI, déployant ChatGPT pour ses employés
“Le partenariat avec SB Energy permet d’associer la force de l’entreprise dans le domaine du développement de l’infrastructure et de l’énergie des centres de données et l’expertise approfondie d’OpenAI en matière d’ingénierie des centres de données.” — Greg Brockman, cofondateur et président d’OpenAI
Google et Apple : Gemini pour Apple Intelligence
12 janvier 2026 — Google et Apple annoncent une collaboration multi-années historique : les prochaines générations d’Apple Foundation Models seront basées sur les modèles Gemini et la technologie cloud de Google.
Ce que ça implique :
- Un Siri plus personnalisé prévu cette année
- Apple Intelligence continuera de fonctionner sur les appareils Apple et Private Cloud Compute
- Les standards de confidentialité d’Apple seront maintenus
Apple a déterminé, après évaluation, que la technologie IA de Google offre la fondation la plus performante pour les Apple Foundation Models.
🔗 Joint statement Google and Apple
ElevenLabs : partenariat Deutsche Telekom
Janvier 2026 — ElevenLabs annonce un partenariat avec Deutsche Telekom, le plus grand opérateur télécom européen. L’objectif : déployer des agents vocaux IA pour le service client, accessible par application et par téléphone.
Ce partenariat marque l’expansion d’ElevenLabs en Europe avec un acteur majeur des télécommunications.
Qwen : quatre nouveautés majeures
Qwen3Guard — Premier modèle de sécurité
Janvier 2026 — Alibaba lance Qwen3Guard, le premier modèle de sécurité de la famille Qwen. Construit sur les modèles de fondation Qwen3, il assure la détection de contenu dangereux pour les prompts et les réponses.
Caractéristiques clés :
| Aspect | Détails |
|---|---|
| Variantes | Qwen3Guard-Gen (génératif, pour annotation offline) et Qwen3Guard-Stream (temps réel, token par token) |
| Tailles | 0.6B, 4B, 8B paramètres |
| Langues | 119 langues et dialectes |
| Classification | Safe / Controversial / Unsafe (3 niveaux) |
Le modèle Stream permet une modération en temps réel pendant la génération de réponses, permettant une intervention instantanée.
Qwen-Image-Edit — Édition d’images intelligente
Janvier 2026 — Qwen-Image-Edit étend les capacités de Qwen-Image à l’édition d’images. Le modèle de 20B paramètres excelle dans :
- Édition sémantique : modification de style, rotation d’objets (jusqu’à 180°), création IP, style Ghibli
- Édition d’apparence : ajout/suppression d’éléments avec réflexions réalistes, changement de vêtements, arrière-plans
- Édition de texte : modification précise du texte dans les images (chinois et anglais), correction de calligraphie par étapes successives
Qwen-MT — Traduction haute performance
Janvier 2026 — Qwen-MT (qwen-mt-turbo) est un modèle de traduction supportant 92 langues. Basé sur Qwen3 avec une architecture MoE légère, il offre :
- Coût réduit : $0.5 par million de tokens en sortie
- Customisation : intervention terminologique, prompts de domaine, mémoire de traduction
- Performance : surpasse GPT-4.1-mini et Gemini-2.5-Flash sur les benchmarks de traduction
🔗 Qwen-MT
GSPO — Nouvel algorithme de RL
2025 — Qwen publie GSPO (Group Sequence Policy Optimization), un nouvel algorithme de reinforcement learning qui résout les problèmes de stabilité de GRPO.
Avantages :
- Optimisation au niveau séquence plutôt qu’au niveau des tokens
- Stabilité remarquable pour l’entraînement RL de modèles MoE
- Plus tolérant aux écarts de précision, simplifiant l’infrastructure
Cet algorithme alimente les derniers modèles Qwen3 (Instruct, Coder, Thinking).
Ce que ça signifie
Cette semaine illustre plusieurs tendances :
- Restructuration produit : Anthropic crée une structure dédiée à l’innovation rapide avec Labs
- Course au hardware : OpenAI multiplie les partenariats (Cerebras, SB Energy) et les investissements pour sécuriser l’infrastructure
- Convergence des géants : Google et Apple s’allient sur Gemini pour Siri — un rapprochement historique
- Interfaces futures : L’investissement dans Merge Labs (BCI) montre l’intérêt pour les interfaces cerveau-ordinateur
- Sécurité IA : Qwen3Guard montre que les modèles de sécurité deviennent essentiels dans l’écosystème
- Expansion européenne : ElevenLabs continue sa croissance avec Deutsche Telekom