Rechercher

Grok banni aux Pays-Bas, Gemini 3.1 Flash Live, plugins natifs Codex

Le tribunal d’Amsterdam interdit à xAI de générer des images sexuelles non consenties avec Grok, sous peine de 100 000 € par jour. La même journée, Google lance Gemini 3.1 Flash Live pour les conversations audio temps réel dans plus de 90 langues, OpenAI intègre des plugins natifs dans Codex (Slack, Figma, Notion, Gmail), et Anthropic publie un article technique sur la conception du mode auto de Claude Code. Cohere, Mistral et Suno complètent une semaine dense en annonces.


xAI : le tribunal d’Amsterdam interdit Grok nudes

27 mars — Le tribunal de district d’Amsterdam a rendu une décision contre xAI, lui interdisant de générer ou distribuer des images sexuelles non consenties aux Pays-Bas. En cas de non-conformité, l’amende court à €100 000 par jour, plafonnée à €10 millions.

La décision fait suite à une plainte conjointe de l’ONG néerlandaise Offlimits et du Victims Support Fund. Selon le Center for Countering Digital Hate (CCDH), Grok a généré 3 millions d’images sexualisées en 11 jours, dont 23 000 impliquant des mineurs. Offlimits souligne que Grok ne tient pas compte de la localisation géographique de la victime représentée, ce qui lui confère une portée mondiale.

La décision intervient le même jour que le vote du Parlement européen approuvant une interdiction des deepfakes sexuels générés par IA — un signal fort de convergence réglementaire. Il s’agit du premier jugement européen de ce type directement opposé à xAI.

🔗 CNBC : Dutch court bans Grok AI nudes 🔗 The Record Media : Dutch court threatens xAI with fines


Gemini 3.1 Flash Live : audio temps réel dans 90+ langues

26 mars — Google lance Gemini 3.1 Flash Live, son modèle multimodal pour les conversations en temps réel. Il prend en charge l’audio, les images, la vidéo et le texte avec une fenêtre de contexte de 128 000 tokens et supporte plus de 90 langues.

Par rapport à la génération précédente, le modèle maintient des conversations deux fois plus longues, gère mieux le bruit de fond et les sons environnementaux, respecte les instructions système complexes avec plus de précision, et déclenche plus fiablement les outils externes en cours de conversation. Tous les audios générés sont marqués avec SynthID.

FonctionnalitéDétail
Fenêtre de contexte128 000 tokens
Langues90+
Conversations2× plus longues qu’avant
WatermarkingSynthID sur tous les audios

Disponibilité : via la Live API dans Google AI Studio (développeurs), via Gemini Live et Search Live (utilisateurs, 200+ pays), et via Vertex AI (entreprises). Search Live étend également son accès à plus de 200 pays et territoires, avec support vidéo Google Lens.

🔗 Annonce officielle Google


Gemini : import des mémoires et historiques depuis ChatGPT et Claude

26 mars — Google lance un outil d’import dans l’app Gemini pour faciliter la migration depuis d’autres assistants IA.

Deux fonctionnalités sont disponibles :

  1. Import de mémoires (“Add Memory”) : Gemini suggère un prompt à taper dans ChatGPT, Claude ou Copilot. La réponse générée (résumé des données personnelles mémorisées par l’autre assistant) est copiée-collée dans Gemini, qui en extrait les préférences, centres d’intérêt, informations de localisation, etc.

  2. Import d’historique (“Import Chats”) : upload d’un fichier .zip exporté depuis ChatGPT ou Claude, jusqu’à 5 Go. Les conversations passées deviennent cherchables et peuvent être reprises dans Gemini.

🔗 Blog Google : Switch to Gemini


Gemini CLI v0.35.2 : subagents par défaut, Vim amélioré — et accès Pro restreint

25-26 mars — La version stable v0.35.2 du Gemini CLI introduit plusieurs fonctionnalités notables.

FonctionnalitéDescription
Subagents activés par défautPlanificateur de tâches parallèles + découpage de code
Raccourcis clavier personnalisablesSupport keybindings, caractères littéraux, protocole Kitty
Mode Vim amélioréMotions X, ~, r, f/F/t/T ; copier-coller avec registre unnamed
SandboxManager unifiéIsolation des outils avec bubblewrap/seccomp Linux
Découverte de contexte JITChargement optimisé pour les outils filesystem
gRPC natifIntégration native et routage de protocole

Changement de politique notable : à partir du 25 mars, les utilisateurs gratuits n’ont plus accès qu’à Gemini Flash. L’accès à Gemini Pro est réservé aux abonnés payants (plans Pro et Ultra). La réaction de la communauté est largement négative. Google renforce également la détection d’abus : l’utilisation de l’authentification OAuth Gemini CLI avec des logiciels tiers peut désormais entraîner des restrictions.

🔗 Changelog Gemini CLI 🔗 Discussion communauté


Gemini Drop mars 2026 : Personal Intelligence gratuit et Lyria 3 Pro

27 mars — La mise à jour mensuelle “Gemini Drops” de mars 2026 présente les nouvelles fonctionnalités de l’app Gemini déployées ce mois-ci.

FonctionnalitéDescriptionDisponibilité
Personal Intelligence gratuitConnexion Gmail, Photos, YouTube pour planifier voyages/projetsGratuit, États-Unis
Gemini Live amélioréBasé sur Gemini 3.1 Flash Live, contexte 2× plus longTous utilisateurs
Import ChatGPT/ClaudeTransfert mémoires et historiqueTous utilisateurs
Lyria 3 ProCréation de musique jusqu’à 3 minutes, photos → anthèmesAbonnés
Google TVRéponses visuelles Gemini et narrationsGoogle TV

🔗 Gemini Drop mars 2026


Codex : plugins natifs pour Slack, Figma, Notion et Gmail

26-27 mars — OpenAI déploie les plugins comme fonctionnalité de première classe dans Codex. Les développeurs peuvent connecter Codex aux outils qu’ils utilisent au quotidien sans configuration manuelle.

PluginCas d’usage
SlackEnvoyer des messages, lire des canaux
FigmaAccéder aux designs, générer du code
NotionLire et écrire des pages
GmailLire et rédiger des e-mails

Les plugins se synchronisent automatiquement au démarrage de Codex et sont accessibles via la commande /plugins. L’installation et la désinstallation se font directement depuis l’interface TUI avec gestion de l’authentification intégrée.

Le 27 mars, OpenAI a publié une galerie de cas d’usage pratiques accessibles en un clic : construction d’apps iOS, analyse de datasets, génération de rapports et de présentations. Le changelog Codex v0.117.0 détaille les fonctionnalités techniques, dont le support des mentions de plugins dans les prompts.

🔗 Documentation plugins Codex 🔗 Tweet @OpenAIDevs


Anthropic : la conception du mode auto de Claude Code expliquée

26 mars — Anthropic a publié un article de blog technique sur la conception de son mode auto (auto mode) dans Claude Code, disponible sur le blog Engineering.

Le problème adressé : les utilisateurs de Claude Code subissent une fatigue d’approbation (approval fatigue). Les statistiques montrent que 93 % des demandes de permission sont acceptées — ce qui suggère qu’une automatisation partielle est possible sans sacrifier la sécurité.

La solution : deux couches de classifieurs

Le mode auto repose sur deux niveaux de protection basés sur des modèles (Sonnet 4.6) :

  1. Couche d’entrée : une sonde de détection d’injection de prompt (prompt injection probe) analyse les résultats des outils avant qu’ils n’atteignent l’agent.
  2. Couche de sortie : un classifieur de transcription évalue chaque action proposée via un processus en deux étapes avant son exécution.
NiveauType d’actionTraitement
Tier 1Outils sûrs (lecture de fichiers, recherche)Passage direct, sans classifieur
Tier 2Modifications de fichiers dans le projetContournement du classifieur (révisables via contrôle de version)
Tier 3Actions dangereuses (commandes shell, opérations externes)Évaluation complète par le classifieur

Métriques de performance :

ÉtapeTaux de faux positifs (trafic réel)Taux de faux négatifs (actions risquées)
Étape 1 (rapide)8,5 %6,6 %
Pipeline complet0,4 %17 %

Le taux de faux positifs de 0,4 % sur le pipeline complet signifie que le mode auto n’interrompt presque jamais le travail à tort. Le taux de faux négatifs de 17 % reflète des cas où le classifieur détecte un danger mais interprète mal le périmètre d’autorisation accordé par l’utilisateur.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇫🇷 Sur le blog Engineering : comment nous avons conçu le mode auto de Claude Code. De nombreux utilisateurs laissent Claude travailler sans demandes de permission. Le mode auto est un compromis plus sûr : nous avons construit et testé des classifieurs qui prennent les décisions d’approbation à leur place.@AnthropicAI sur X

🔗 Claude Code auto mode: a safer way to skip permissions


GitHub Copilot : résolution des conflits de merge et visibilité des agents

26 mars — Deux mises à jour majeures de GitHub Copilot améliorent le flux de travail des équipes.

Résolution des conflits de merge : il est désormais possible de mentionner @copilot dans un commentaire de pull request pour lui demander de résoudre les conflits. L’agent travaille dans son environnement cloud, résout les conflits, vérifie que le build et les tests passent, puis pousse les changements. Disponible avec tous les plans Copilot payants (Business/Enterprise nécessite une activation admin).

Visibilité des agents dans Issues et Projects : quand un agent de code (Copilot, Claude, Codex) est assigné à une issue, sa session apparaît sous l’assignee dans la sidebar avec un statut en temps réel — en file d’attente, en cours, en attente de revue, terminé. Les sessions sont également visibles dans les vues table et board de Projects (à activer via “View menu > Show agent sessions”).

🔗 Copilot résout les conflits de merge 🔗 Activité des agents dans Issues et Projects


GitHub : nouveau tableau de bord PRs et Copilot for Jira

25-26 mars — Deux améliorations supplémentaires pour les développeurs GitHub.

Tableau de bord Pull Requests (preview publique) : un tableau de bord repensé sur github.com/pulls centralise les PRs nécessitant attention — revues demandées, corrections à apporter, prêtes à merger. Des vues sauvegardées personnalisées, des filtres avancés avec autocomplétion et le support des requêtes AND/OR complètent l’interface. À activer via les paramètres Feature Preview.

Copilot for Jira : depuis le lancement en preview publique, plusieurs améliorations : choix du modèle IA directement depuis Jira, inclusion automatique du numéro de ticket Jira dans le titre de la PR et le nom de branche, et accès aux pages Confluence via le serveur MCP Atlassian (configurable avec un PAT).

🔗 Nouveau tableau de bord PRs 🔗 Copilot for Jira améliorations


Cohere Transcribe : n°1 du classement ASR open-source

26 mars — Cohere lance Cohere Transcribe, son premier modèle de reconnaissance automatique de la parole (Automatic Speech Recognition — ASR). Disponible en open-source sous licence Apache 2.0, il se hisse directement en première position du classement Open ASR de Hugging Face pour l’anglais.

Le modèle repose sur une architecture Fast-Conformer Transformer encoder-decoder de 2 milliards de paramètres. Plus de 90 % des paramètres sont alloués à l’encodeur, avec un décodeur léger pour minimiser le calcul autorégressif et maximiser la vitesse. Entraîné sur 500 000 heures de paires audio-transcription.

ModèleWER moyen
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

Le WER (Word Error Rate — taux d’erreur de mots) de 5,42 % place Cohere Transcribe en tête. La vitesse d’inférence est 3× supérieure aux concurrents de taille comparable. 14 langues supportées (dont le français, l’allemand, l’arabe, le chinois mandarin, le japonais et le coréen).

Limites à noter : le modèle n’est pas conçu pour le code-switching (changements de langue en cours d’audio) et peut transcrire les sons non-vocaux — recommande l’ajout d’un filtre VAD (Voice Activity Detection).

🔗 Blog Cohere : Transcribe 🔗 Modèle sur Hugging Face


Suno v5.5 : voix personnelle, modèles sur mesure, préférences adaptatives

26 mars — Suno lance la version 5.5 de son outil de génération musicale, avec trois nouvelles fonctionnalités centrées sur la personnalisation.

FonctionnalitéDescriptionDisponibilité
VoicesCapturer et utiliser sa propre voix chantée (reste privée)Tous utilisateurs
Custom ModelsFine-tuning à partir de ses compositions originales, jusqu’à 3 modèlesAbonnés Pro/Premier
My TasteApprentissage adaptatif des préférences en genres et ambiancesTous utilisateurs

Ces outils sont présentés comme les fondations des modèles de prochaine génération développés en partenariat avec l’industrie musicale.

🔗 Suno Blog v5.5


Mistral Voxtral TTS : clone de voix en 3 secondes, open-weight

23 mars (couverture presse 26-27 mars) — Mistral publie Voxtral TTS, son premier modèle de synthèse vocale (Text-to-Speech) open-weight. Le modèle voxtral-tts-2603 compte 4 milliards de paramètres et supporte 9 langues (anglais, français, allemand, espagnol, néerlandais, portugais, italien, hindi, arabe).

La latence annoncée est de 70 ms pour une configuration type (échantillon de 10 secondes + 500 caractères). Le clonage de voix fonctionne à partir de seulement 3 secondes d’audio de référence. En termes de naturalité, Mistral indique que Voxtral dépasse ElevenLabs Flash v2.5 et atteint la parité avec ElevenLabs v3. Le modèle peut tourner sur un laptop grand public, un GPU mid-range ou un appareil mobile haut de gamme.

Accès : poids disponibles sur Hugging Face (licence Creative Commons) et via l’API Mistral Studio à 0,016 dollar par 1 000 caractères. Intégration voice mode disponible dans Le Chat.

🔗 Annonce Mistral Voxtral


xAI : SuperGrok Lite à 10 dollars/mois et vidéos stories 15 secondes

25 mars — xAI a annoncé deux nouveautés autour de Grok.

SuperGrok Lite : un nouveau plan d’abonnement à 10 dollars par mois, actuellement en test restreint. Il inclut des sessions de chat deux fois plus longues qu’au niveau gratuit, un agent IA, et la génération vidéo en résolution 480p (maximum 6 secondes). Le plan se positionne entre le niveau gratuit et SuperGrok Standard (30 dollars par mois).

Video stories via Grok Imagine : Grok Imagine génère désormais des “vidéos stories” de 15 secondes en 720p avec audio synchronisé, musique de fond et effets sonores. Elon Musk a déclaré vouloir “doubler la mise” sur la vidéo. Cette annonce intervient dans le contexte de la fermeture de Sora par OpenAI la même semaine.

🔗 Bloomberg : xAI doubling down on AI videos


Kimi/Moonshot AI envisage une introduction en bourse à Hong Kong

26 mars — Moonshot AI, l’entreprise chinoise derrière le modèle Kimi, étudie une introduction en bourse à la bourse de Hong Kong, selon Bloomberg. Les banques conseillères seraient CICC et Goldman Sachs, avec une valorisation cible d’environ 18 milliards de dollars et un financement en cours allant jusqu’à 1 milliard de dollars. Les actionnaires actuels incluent Alibaba, Tencent et 5Y Capital. Le calendrier de l’IPO reste incertain.

🔗 Bloomberg : Moonshot considers Hong Kong IPO


NVIDIA GTC : l’IA propriétaire et ouverte ne s’opposent pas

25 mars — Dans le cadre du GTC 2026, NVIDIA et des leaders du secteur (Mistral, Perplexity, Cursor, Reflection AI, LangChain) ont affirmé que l’avenir de l’IA réside dans la complémentarité des modèles ouverts et propriétaires. Jensen Huang a résumé la position de NVIDIA : “Proprietary versus open is not a thing. It’s proprietary and open.”

L’article de blog souligne le besoin d’orchestration multi-modèles, multi-cloud et multimodale pour les entreprises. NVIDIA confirme son engagement open source en devenant la plus grande organisation sur Hugging Face.

🔗 Blog NVIDIA : AI Open and Proprietary


Claude Code v2.1.85 et v2.1.84 : hooks conditionnels et PowerShell Windows

26-27 mars — Deux nouvelles versions de Claude Code ont été publiées.

v2.1.85 (27 mars) : introduction d’un champ conditionnel if dans la configuration des hooks, permettant de déclencher un hook uniquement sur certaines commandes ou fichiers. Également : variables d’environnement pour les scripts d’aide MCP, horodatages dans les transcriptions pour les tâches planifiées, support OAuth conforme à la RFC 9728, et possibilité pour les hooks PreToolUse de satisfaire AskUserQuestion en retournant updatedInput.

v2.1.84 (~26 mars) : PowerShell sur Windows disponible en aperçu (opt-in preview) comme outil natif, hook TaskCreated (déclenché lors de la création d’une tâche par Claude), support HTTP pour WorktreeCreate, et prompt de retour affiché après 75 minutes d’inactivité. Correction d’un bug de permission sur les scripts de plugins officiels sur macOS/Linux.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 disponible pour tous les abonnés Coding Plan

27 mars — Z.ai (Zhipu) annonce que GLM-5.1 est désormais accessible à tous les abonnés du GLM Coding Plan, quel que soit le niveau d’abonnement (Lite, Pro ou Max).

🔗 PANews : GLM-5.1 Coding Plan


Genspark intègre Grok Imagine dans son agent vidéo

26 mars — Genspark a intégré Grok Imagine (génération vidéo multi-images et extension vidéo) dans son Genspark AI Video Agent. Les utilisateurs peuvent utiliser jusqu’à 7 images pour créer une vidéo, ou étendre une vidéo existante jusqu’à 10 secondes.

🔗 Tweet @genspark_ai


Meta SAM 3.1 : suivi de 16 objets en temps réel, vitesse doublée

27 mars — Meta publie SAM 3.1, une mise à jour du modèle Segment Anything Model 3 pour la détection et le suivi d’objets en vidéo en temps réel. L’innovation centrale est le multiplexage d’objets (object multiplexing) : au lieu d’un passage séparé par objet suivi, tous les objets sont traités en un seul passage (forward pass). Résultat : jusqu’à 16 objets simultanément, avec une vitesse qui passe de 16 à 32 images par seconde sur un GPU H100 — soit le double — tout en réduisant significativement la consommation mémoire.

L’architecture repose sur un encodeur/décodeur Mux-Demux qui partage une seule computation pour tous les objets. Un mécanisme de raisonnement global (global reasoning) améliore la précision dans les scènes avec de nombreux éléments. SAM 3.1 est un remplacement direct (drop-in replacement) de SAM 3 — aucun changement d’API requis.

Le modèle est publié en open source : checkpoint téléchargeable sur Hugging Face, code source mis à jour sur GitHub, article de recherche publié, et démo interactive disponible.

🔗 Blog Meta : SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta


Meta TRIBE v2 : un jumeau numérique de l’activité cérébrale humaine

26 mars — Meta publie TRIBE v2, un modèle de fondation prédictif conçu comme “jumeau numérique” (digital twin) de l’activité neuronale. Le modèle prédit les réponses cérébrales fMRI haute résolution à presque tout son, image ou texte, avec une résolution 70× supérieure aux approches précédentes. Entraîné sur les données de plus de 700 volontaires, il fonctionne en mode zéro-shot (zero-shot) pour de nouveaux sujets, langues et tâches sans ré-entraînement. L’objectif est de permettre aux neuroscientifiques de tester des hypothèses rapidement sans expériences humaines et d’accélérer la recherche sur les troubles neurologiques. Le modèle, le code et l’article scientifique sont publiés sous licence CC BY-NC.

🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta


Ce que ça signifie

La décision du tribunal d’Amsterdam marque un tournant réglementaire : c’est la première fois qu’une juridiction européenne condamne directement xAI pour des contenus générés par Grok, avec une astreinte dissuasive. Combinée au vote du Parlement européen sur les deepfakes sexuels le même jour, cela dessine un cadre légal qui va s’imposer progressivement à tous les fournisseurs d’IA générative.

Du côté des outils pour développeurs, la semaine illustre la course à l’intégration : Codex avec ses plugins natifs, Copilot avec la résolution de conflits de merge et la visibilité des agents dans Issues/Projects, et Claude Code avec ses hooks conditionnels. Les assistants IA s’intègrent de plus en plus profondément dans les workflows existants plutôt que de les remplacer.

La restriction de l’accès à Gemini Pro dans le CLI gratuit est un signal que la période de générosité gratuite dans les outils CLI commence à se réduire. Gemini, comme GitHub Copilot avant lui, converge vers un modèle freemium où les capacités avancées requièrent un abonnement.

Enfin, l’IPO envisagée de Kimi à Hong Kong pour 18 milliards de dollars confirme l’attractivité des valorisations dans le secteur IA chinois, tandis que Mistral, avec Voxtral TTS, continue à positionner ses modèles open-weight comme alternative aux services propriétaires dans la synthèse vocale.


Sources