Le tribunal d’Amsterdam interdit à xAI de générer des images sexuelles non consenties avec Grok, sous peine de 100 000 € par jour. La même journée, Google lance Gemini 3.1 Flash Live pour les conversations audio temps réel dans plus de 90 langues, OpenAI intègre des plugins natifs dans Codex (Slack, Figma, Notion, Gmail), et Anthropic publie un article technique sur la conception du mode auto de Claude Code. Cohere, Mistral et Suno complètent une semaine dense en annonces.
xAI : le tribunal d’Amsterdam interdit Grok nudes
27 mars — Le tribunal de district d’Amsterdam a rendu une décision contre xAI, lui interdisant de générer ou distribuer des images sexuelles non consenties aux Pays-Bas. En cas de non-conformité, l’amende court à €100 000 par jour, plafonnée à €10 millions.
La décision fait suite à une plainte conjointe de l’ONG néerlandaise Offlimits et du Victims Support Fund. Selon le Center for Countering Digital Hate (CCDH), Grok a généré 3 millions d’images sexualisées en 11 jours, dont 23 000 impliquant des mineurs. Offlimits souligne que Grok ne tient pas compte de la localisation géographique de la victime représentée, ce qui lui confère une portée mondiale.
La décision intervient le même jour que le vote du Parlement européen approuvant une interdiction des deepfakes sexuels générés par IA — un signal fort de convergence réglementaire. Il s’agit du premier jugement européen de ce type directement opposé à xAI.
🔗 CNBC : Dutch court bans Grok AI nudes 🔗 The Record Media : Dutch court threatens xAI with fines
Gemini 3.1 Flash Live : audio temps réel dans 90+ langues
26 mars — Google lance Gemini 3.1 Flash Live, son modèle multimodal pour les conversations en temps réel. Il prend en charge l’audio, les images, la vidéo et le texte avec une fenêtre de contexte de 128 000 tokens et supporte plus de 90 langues.
Par rapport à la génération précédente, le modèle maintient des conversations deux fois plus longues, gère mieux le bruit de fond et les sons environnementaux, respecte les instructions système complexes avec plus de précision, et déclenche plus fiablement les outils externes en cours de conversation. Tous les audios générés sont marqués avec SynthID.
| Fonctionnalité | Détail |
|---|---|
| Fenêtre de contexte | 128 000 tokens |
| Langues | 90+ |
| Conversations | 2× plus longues qu’avant |
| Watermarking | SynthID sur tous les audios |
Disponibilité : via la Live API dans Google AI Studio (développeurs), via Gemini Live et Search Live (utilisateurs, 200+ pays), et via Vertex AI (entreprises). Search Live étend également son accès à plus de 200 pays et territoires, avec support vidéo Google Lens.
Gemini : import des mémoires et historiques depuis ChatGPT et Claude
26 mars — Google lance un outil d’import dans l’app Gemini pour faciliter la migration depuis d’autres assistants IA.
Deux fonctionnalités sont disponibles :
-
Import de mémoires (“Add Memory”) : Gemini suggère un prompt à taper dans ChatGPT, Claude ou Copilot. La réponse générée (résumé des données personnelles mémorisées par l’autre assistant) est copiée-collée dans Gemini, qui en extrait les préférences, centres d’intérêt, informations de localisation, etc.
-
Import d’historique (“Import Chats”) : upload d’un fichier
.zipexporté depuis ChatGPT ou Claude, jusqu’à 5 Go. Les conversations passées deviennent cherchables et peuvent être reprises dans Gemini.
🔗 Blog Google : Switch to Gemini
Gemini CLI v0.35.2 : subagents par défaut, Vim amélioré — et accès Pro restreint
25-26 mars — La version stable v0.35.2 du Gemini CLI introduit plusieurs fonctionnalités notables.
| Fonctionnalité | Description |
|---|---|
| Subagents activés par défaut | Planificateur de tâches parallèles + découpage de code |
| Raccourcis clavier personnalisables | Support keybindings, caractères littéraux, protocole Kitty |
| Mode Vim amélioré | Motions X, ~, r, f/F/t/T ; copier-coller avec registre unnamed |
| SandboxManager unifié | Isolation des outils avec bubblewrap/seccomp Linux |
| Découverte de contexte JIT | Chargement optimisé pour les outils filesystem |
| gRPC natif | Intégration native et routage de protocole |
Changement de politique notable : à partir du 25 mars, les utilisateurs gratuits n’ont plus accès qu’à Gemini Flash. L’accès à Gemini Pro est réservé aux abonnés payants (plans Pro et Ultra). La réaction de la communauté est largement négative. Google renforce également la détection d’abus : l’utilisation de l’authentification OAuth Gemini CLI avec des logiciels tiers peut désormais entraîner des restrictions.
🔗 Changelog Gemini CLI 🔗 Discussion communauté
Gemini Drop mars 2026 : Personal Intelligence gratuit et Lyria 3 Pro
27 mars — La mise à jour mensuelle “Gemini Drops” de mars 2026 présente les nouvelles fonctionnalités de l’app Gemini déployées ce mois-ci.
| Fonctionnalité | Description | Disponibilité |
|---|---|---|
| Personal Intelligence gratuit | Connexion Gmail, Photos, YouTube pour planifier voyages/projets | Gratuit, États-Unis |
| Gemini Live amélioré | Basé sur Gemini 3.1 Flash Live, contexte 2× plus long | Tous utilisateurs |
| Import ChatGPT/Claude | Transfert mémoires et historique | Tous utilisateurs |
| Lyria 3 Pro | Création de musique jusqu’à 3 minutes, photos → anthèmes | Abonnés |
| Google TV | Réponses visuelles Gemini et narrations | Google TV |
Codex : plugins natifs pour Slack, Figma, Notion et Gmail
26-27 mars — OpenAI déploie les plugins comme fonctionnalité de première classe dans Codex. Les développeurs peuvent connecter Codex aux outils qu’ils utilisent au quotidien sans configuration manuelle.
| Plugin | Cas d’usage |
|---|---|
| Slack | Envoyer des messages, lire des canaux |
| Figma | Accéder aux designs, générer du code |
| Notion | Lire et écrire des pages |
| Gmail | Lire et rédiger des e-mails |
Les plugins se synchronisent automatiquement au démarrage de Codex et sont accessibles via la commande /plugins. L’installation et la désinstallation se font directement depuis l’interface TUI avec gestion de l’authentification intégrée.
Le 27 mars, OpenAI a publié une galerie de cas d’usage pratiques accessibles en un clic : construction d’apps iOS, analyse de datasets, génération de rapports et de présentations. Le changelog Codex v0.117.0 détaille les fonctionnalités techniques, dont le support des mentions de plugins dans les prompts.
🔗 Documentation plugins Codex 🔗 Tweet @OpenAIDevs
Anthropic : la conception du mode auto de Claude Code expliquée
26 mars — Anthropic a publié un article de blog technique sur la conception de son mode auto (auto mode) dans Claude Code, disponible sur le blog Engineering.
Le problème adressé : les utilisateurs de Claude Code subissent une fatigue d’approbation (approval fatigue). Les statistiques montrent que 93 % des demandes de permission sont acceptées — ce qui suggère qu’une automatisation partielle est possible sans sacrifier la sécurité.
La solution : deux couches de classifieurs
Le mode auto repose sur deux niveaux de protection basés sur des modèles (Sonnet 4.6) :
- Couche d’entrée : une sonde de détection d’injection de prompt (prompt injection probe) analyse les résultats des outils avant qu’ils n’atteignent l’agent.
- Couche de sortie : un classifieur de transcription évalue chaque action proposée via un processus en deux étapes avant son exécution.
| Niveau | Type d’action | Traitement |
|---|---|---|
| Tier 1 | Outils sûrs (lecture de fichiers, recherche) | Passage direct, sans classifieur |
| Tier 2 | Modifications de fichiers dans le projet | Contournement du classifieur (révisables via contrôle de version) |
| Tier 3 | Actions dangereuses (commandes shell, opérations externes) | Évaluation complète par le classifieur |
Métriques de performance :
| Étape | Taux de faux positifs (trafic réel) | Taux de faux négatifs (actions risquées) |
|---|---|---|
| Étape 1 (rapide) | 8,5 % | 6,6 % |
| Pipeline complet | 0,4 % | 17 % |
Le taux de faux positifs de 0,4 % sur le pipeline complet signifie que le mode auto n’interrompt presque jamais le travail à tort. Le taux de faux négatifs de 17 % reflète des cas où le classifieur détecte un danger mais interprète mal le périmètre d’autorisation accordé par l’utilisateur.
“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”
🇫🇷 Sur le blog Engineering : comment nous avons conçu le mode auto de Claude Code. De nombreux utilisateurs laissent Claude travailler sans demandes de permission. Le mode auto est un compromis plus sûr : nous avons construit et testé des classifieurs qui prennent les décisions d’approbation à leur place. — @AnthropicAI sur X
🔗 Claude Code auto mode: a safer way to skip permissions
GitHub Copilot : résolution des conflits de merge et visibilité des agents
26 mars — Deux mises à jour majeures de GitHub Copilot améliorent le flux de travail des équipes.
Résolution des conflits de merge : il est désormais possible de mentionner @copilot dans un commentaire de pull request pour lui demander de résoudre les conflits. L’agent travaille dans son environnement cloud, résout les conflits, vérifie que le build et les tests passent, puis pousse les changements. Disponible avec tous les plans Copilot payants (Business/Enterprise nécessite une activation admin).
Visibilité des agents dans Issues et Projects : quand un agent de code (Copilot, Claude, Codex) est assigné à une issue, sa session apparaît sous l’assignee dans la sidebar avec un statut en temps réel — en file d’attente, en cours, en attente de revue, terminé. Les sessions sont également visibles dans les vues table et board de Projects (à activer via “View menu > Show agent sessions”).
🔗 Copilot résout les conflits de merge 🔗 Activité des agents dans Issues et Projects
GitHub : nouveau tableau de bord PRs et Copilot for Jira
25-26 mars — Deux améliorations supplémentaires pour les développeurs GitHub.
Tableau de bord Pull Requests (preview publique) : un tableau de bord repensé sur github.com/pulls centralise les PRs nécessitant attention — revues demandées, corrections à apporter, prêtes à merger. Des vues sauvegardées personnalisées, des filtres avancés avec autocomplétion et le support des requêtes AND/OR complètent l’interface. À activer via les paramètres Feature Preview.
Copilot for Jira : depuis le lancement en preview publique, plusieurs améliorations : choix du modèle IA directement depuis Jira, inclusion automatique du numéro de ticket Jira dans le titre de la PR et le nom de branche, et accès aux pages Confluence via le serveur MCP Atlassian (configurable avec un PAT).
🔗 Nouveau tableau de bord PRs 🔗 Copilot for Jira améliorations
Cohere Transcribe : n°1 du classement ASR open-source
26 mars — Cohere lance Cohere Transcribe, son premier modèle de reconnaissance automatique de la parole (Automatic Speech Recognition — ASR). Disponible en open-source sous licence Apache 2.0, il se hisse directement en première position du classement Open ASR de Hugging Face pour l’anglais.
Le modèle repose sur une architecture Fast-Conformer Transformer encoder-decoder de 2 milliards de paramètres. Plus de 90 % des paramètres sont alloués à l’encodeur, avec un décodeur léger pour minimiser le calcul autorégressif et maximiser la vitesse. Entraîné sur 500 000 heures de paires audio-transcription.
| Modèle | WER moyen |
|---|---|
| Cohere Transcribe | 5,42 |
| Zoom Scribe v1 | 5,47 |
| IBM Granite 4.0 1B | 5,52 |
| NVIDIA Canary Qwen 2.5B | 5,63 |
| OpenAI Whisper Large v3 | 7,44 |
Le WER (Word Error Rate — taux d’erreur de mots) de 5,42 % place Cohere Transcribe en tête. La vitesse d’inférence est 3× supérieure aux concurrents de taille comparable. 14 langues supportées (dont le français, l’allemand, l’arabe, le chinois mandarin, le japonais et le coréen).
Limites à noter : le modèle n’est pas conçu pour le code-switching (changements de langue en cours d’audio) et peut transcrire les sons non-vocaux — recommande l’ajout d’un filtre VAD (Voice Activity Detection).
🔗 Blog Cohere : Transcribe 🔗 Modèle sur Hugging Face
Suno v5.5 : voix personnelle, modèles sur mesure, préférences adaptatives
26 mars — Suno lance la version 5.5 de son outil de génération musicale, avec trois nouvelles fonctionnalités centrées sur la personnalisation.
| Fonctionnalité | Description | Disponibilité |
|---|---|---|
| Voices | Capturer et utiliser sa propre voix chantée (reste privée) | Tous utilisateurs |
| Custom Models | Fine-tuning à partir de ses compositions originales, jusqu’à 3 modèles | Abonnés Pro/Premier |
| My Taste | Apprentissage adaptatif des préférences en genres et ambiances | Tous utilisateurs |
Ces outils sont présentés comme les fondations des modèles de prochaine génération développés en partenariat avec l’industrie musicale.
Mistral Voxtral TTS : clone de voix en 3 secondes, open-weight
23 mars (couverture presse 26-27 mars) — Mistral publie Voxtral TTS, son premier modèle de synthèse vocale (Text-to-Speech) open-weight. Le modèle voxtral-tts-2603 compte 4 milliards de paramètres et supporte 9 langues (anglais, français, allemand, espagnol, néerlandais, portugais, italien, hindi, arabe).
La latence annoncée est de 70 ms pour une configuration type (échantillon de 10 secondes + 500 caractères). Le clonage de voix fonctionne à partir de seulement 3 secondes d’audio de référence. En termes de naturalité, Mistral indique que Voxtral dépasse ElevenLabs Flash v2.5 et atteint la parité avec ElevenLabs v3. Le modèle peut tourner sur un laptop grand public, un GPU mid-range ou un appareil mobile haut de gamme.
Accès : poids disponibles sur Hugging Face (licence Creative Commons) et via l’API Mistral Studio à 0,016 dollar par 1 000 caractères. Intégration voice mode disponible dans Le Chat.
xAI : SuperGrok Lite à 10 dollars/mois et vidéos stories 15 secondes
25 mars — xAI a annoncé deux nouveautés autour de Grok.
SuperGrok Lite : un nouveau plan d’abonnement à 10 dollars par mois, actuellement en test restreint. Il inclut des sessions de chat deux fois plus longues qu’au niveau gratuit, un agent IA, et la génération vidéo en résolution 480p (maximum 6 secondes). Le plan se positionne entre le niveau gratuit et SuperGrok Standard (30 dollars par mois).
Video stories via Grok Imagine : Grok Imagine génère désormais des “vidéos stories” de 15 secondes en 720p avec audio synchronisé, musique de fond et effets sonores. Elon Musk a déclaré vouloir “doubler la mise” sur la vidéo. Cette annonce intervient dans le contexte de la fermeture de Sora par OpenAI la même semaine.
🔗 Bloomberg : xAI doubling down on AI videos
Kimi/Moonshot AI envisage une introduction en bourse à Hong Kong
26 mars — Moonshot AI, l’entreprise chinoise derrière le modèle Kimi, étudie une introduction en bourse à la bourse de Hong Kong, selon Bloomberg. Les banques conseillères seraient CICC et Goldman Sachs, avec une valorisation cible d’environ 18 milliards de dollars et un financement en cours allant jusqu’à 1 milliard de dollars. Les actionnaires actuels incluent Alibaba, Tencent et 5Y Capital. Le calendrier de l’IPO reste incertain.
🔗 Bloomberg : Moonshot considers Hong Kong IPO
NVIDIA GTC : l’IA propriétaire et ouverte ne s’opposent pas
25 mars — Dans le cadre du GTC 2026, NVIDIA et des leaders du secteur (Mistral, Perplexity, Cursor, Reflection AI, LangChain) ont affirmé que l’avenir de l’IA réside dans la complémentarité des modèles ouverts et propriétaires. Jensen Huang a résumé la position de NVIDIA : “Proprietary versus open is not a thing. It’s proprietary and open.”
L’article de blog souligne le besoin d’orchestration multi-modèles, multi-cloud et multimodale pour les entreprises. NVIDIA confirme son engagement open source en devenant la plus grande organisation sur Hugging Face.
🔗 Blog NVIDIA : AI Open and Proprietary
Claude Code v2.1.85 et v2.1.84 : hooks conditionnels et PowerShell Windows
26-27 mars — Deux nouvelles versions de Claude Code ont été publiées.
v2.1.85 (27 mars) : introduction d’un champ conditionnel if dans la configuration des hooks, permettant de déclencher un hook uniquement sur certaines commandes ou fichiers. Également : variables d’environnement pour les scripts d’aide MCP, horodatages dans les transcriptions pour les tâches planifiées, support OAuth conforme à la RFC 9728, et possibilité pour les hooks PreToolUse de satisfaire AskUserQuestion en retournant updatedInput.
v2.1.84 (~26 mars) : PowerShell sur Windows disponible en aperçu (opt-in preview) comme outil natif, hook TaskCreated (déclenché lors de la création d’une tâche par Claude), support HTTP pour WorktreeCreate, et prompt de retour affiché après 75 minutes d’inactivité. Correction d’un bug de permission sur les scripts de plugins officiels sur macOS/Linux.
🔗 Tweet @lydiahallie — v2.1.85
Z.ai GLM-5.1 disponible pour tous les abonnés Coding Plan
27 mars — Z.ai (Zhipu) annonce que GLM-5.1 est désormais accessible à tous les abonnés du GLM Coding Plan, quel que soit le niveau d’abonnement (Lite, Pro ou Max).
🔗 PANews : GLM-5.1 Coding Plan
Genspark intègre Grok Imagine dans son agent vidéo
26 mars — Genspark a intégré Grok Imagine (génération vidéo multi-images et extension vidéo) dans son Genspark AI Video Agent. Les utilisateurs peuvent utiliser jusqu’à 7 images pour créer une vidéo, ou étendre une vidéo existante jusqu’à 10 secondes.
Meta SAM 3.1 : suivi de 16 objets en temps réel, vitesse doublée
27 mars — Meta publie SAM 3.1, une mise à jour du modèle Segment Anything Model 3 pour la détection et le suivi d’objets en vidéo en temps réel. L’innovation centrale est le multiplexage d’objets (object multiplexing) : au lieu d’un passage séparé par objet suivi, tous les objets sont traités en un seul passage (forward pass). Résultat : jusqu’à 16 objets simultanément, avec une vitesse qui passe de 16 à 32 images par seconde sur un GPU H100 — soit le double — tout en réduisant significativement la consommation mémoire.
L’architecture repose sur un encodeur/décodeur Mux-Demux qui partage une seule computation pour tous les objets. Un mécanisme de raisonnement global (global reasoning) améliore la précision dans les scènes avec de nombreux éléments. SAM 3.1 est un remplacement direct (drop-in replacement) de SAM 3 — aucun changement d’API requis.
Le modèle est publié en open source : checkpoint téléchargeable sur Hugging Face, code source mis à jour sur GitHub, article de recherche publié, et démo interactive disponible.
🔗 Blog Meta : SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta
Meta TRIBE v2 : un jumeau numérique de l’activité cérébrale humaine
26 mars — Meta publie TRIBE v2, un modèle de fondation prédictif conçu comme “jumeau numérique” (digital twin) de l’activité neuronale. Le modèle prédit les réponses cérébrales fMRI haute résolution à presque tout son, image ou texte, avec une résolution 70× supérieure aux approches précédentes. Entraîné sur les données de plus de 700 volontaires, il fonctionne en mode zéro-shot (zero-shot) pour de nouveaux sujets, langues et tâches sans ré-entraînement. L’objectif est de permettre aux neuroscientifiques de tester des hypothèses rapidement sans expériences humaines et d’accélérer la recherche sur les troubles neurologiques. Le modèle, le code et l’article scientifique sont publiés sous licence CC BY-NC.
🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta
Ce que ça signifie
La décision du tribunal d’Amsterdam marque un tournant réglementaire : c’est la première fois qu’une juridiction européenne condamne directement xAI pour des contenus générés par Grok, avec une astreinte dissuasive. Combinée au vote du Parlement européen sur les deepfakes sexuels le même jour, cela dessine un cadre légal qui va s’imposer progressivement à tous les fournisseurs d’IA générative.
Du côté des outils pour développeurs, la semaine illustre la course à l’intégration : Codex avec ses plugins natifs, Copilot avec la résolution de conflits de merge et la visibilité des agents dans Issues/Projects, et Claude Code avec ses hooks conditionnels. Les assistants IA s’intègrent de plus en plus profondément dans les workflows existants plutôt que de les remplacer.
La restriction de l’accès à Gemini Pro dans le CLI gratuit est un signal que la période de générosité gratuite dans les outils CLI commence à se réduire. Gemini, comme GitHub Copilot avant lui, converge vers un modèle freemium où les capacités avancées requièrent un abonnement.
Enfin, l’IPO envisagée de Kimi à Hong Kong pour 18 milliards de dollars confirme l’attractivité des valorisations dans le secteur IA chinois, tandis que Mistral, avec Voxtral TTS, continue à positionner ses modèles open-weight comme alternative aux services propriétaires dans la synthèse vocale.
Sources
- CNBC : Dutch court bans Grok AI nudes
- The Record Media : Dutch court threatens xAI with fines
- Al Jazeera : Dutch court bans xAI Grok nudification
- Blog Google : Gemini 3.1 Flash Live
- Blog Google : Développeurs Gemini 3.1 Flash Live
- Blog Google : Switch to Gemini
- Blog Google : Gemini Drop mars 2026
- Changelog Gemini CLI
- Discussion politique Gemini CLI
- TechCrunch : Gemini import ChatGPT/Claude
- Documentation plugins Codex
- Tweet @OpenAIDevs — plugins
- Anthropic Engineering : Claude Code auto mode
- Tweet @AnthropicAI — auto mode
- GitHub Changelog : Copilot résout conflits de merge
- GitHub Changelog : Activité agents dans Issues et Projects
- GitHub Changelog : Tableau de bord PRs
- GitHub Changelog : Copilot for Jira
- Blog Cohere : Transcribe
- Hugging Face : Cohere Transcribe
- TechCrunch : Cohere Transcribe
- Suno Blog v5.5
- Mistral Voxtral TTS
- TechCrunch : Mistral Voxtral
- Bloomberg : xAI doubling down on videos
- Bloomberg : Moonshot IPO Hong Kong
- Blog NVIDIA GTC : Open and Proprietary AI
- Tweet @lydiahallie — Claude Code v2.1.85
- PANews : GLM-5.1 Coding Plan
- Tweet @genspark_ai
- Blog Meta : SAM 3.1
- GitHub SAM 3
- Tweet @AIatMeta — SAM 3.1
- Blog Meta : TRIBE v2
- Tweet @AIatMeta — TRIBE v2