Le 17 avril, Anthropic Labs lance Claude Design, un outil de prototypage par conversation qui étend les capacités de Claude Opus 4.7 au design d’interfaces. Côté agents en ligne de commande, Claude Code passe à un binaire natif par plateforme, Codex CLI v0.121 ouvre un marketplace de plugins, et Copilot CLI atteint la disponibilité générale pour la sélection automatique de modèle. Google étend NotebookLM aux utilisateurs Free dans Gemini App, NVIDIA publie un tutoriel NemoClaw pour agents locaux, et Runway déploie Seedance 2.0 sur iOS.
Claude Design — prototypage par conversation
17 avril — Anthropic Labs lance Claude Design, un produit permettant de créer des prototypes interactifs (interactive prototypes), des diapositives et des pages récapitulatives (one-pagers) par simple conversation avec Claude. Le produit est propulsé par Claude Opus 4.7, le modèle de vision le plus avancé d’Anthropic, et est disponible en aperçu de recherche (research preview) sur les plans Pro, Max, Team et Enterprise.
Fonctionnement
Le workflow de Claude Design s’articule autour d’un système de design intégré : lors de la prise en main (onboarding), Claude lit le code source et les fichiers de design de l’équipe pour construire automatiquement le système de design maison. L’import peut se faire depuis n’importe quel format — texte, images, documents DOCX, PPTX, XLSX — ou une URL.
L’édition reste fine : commentaires en ligne sur des éléments spécifiques, modification directe du texte, molettes d’ajustement pour l’espacement, les couleurs et la typographie. Les créations peuvent inclure voix, vidéo, shaders, contenu 3D et IA intégrée.
| Public cible | Usage |
|---|---|
| Designers | Prototypes interactifs, explorations de directions |
| Chefs de produit | Maquettes fonctionnelles (wireframes), handoff vers Claude Code |
| Fondateurs / commerciaux | Présentations complètes en quelques minutes |
| Marketeurs | Pages de destination, visuels de campagne |
Export et collaboration
Le partage s’opère au niveau de l’organisation (privé, interne ou public). Quand un design est prêt à être développé, Claude génère un lot de transfert (handoff bundle) transmissible directement à Claude Code. L’export est disponible vers Canva, PDF et PPTX. Des intégrations supplémentaires sont annoncées pour les semaines à venir.
Le partenariat avec Canva est intégré dès le lancement. Melanie Perkins, co-fondatrice et PDG de Canva, déclare :
“We’ve loved collaborating with Anthropic over the past couple of years and share a deep focus on making creativity more accessible. Claude Design is a perfect complement to Canva’s mission.”
🇫🇷 “Nous avons adoré collaborer avec Anthropic ces deux dernières années et partageons la même volonté de rendre la créativité plus accessible. Claude Design s’inscrit parfaitement dans la mission de Canva.” — Melanie Perkins, Co-fondatrice et PDG de Canva
🔗 Annonce Anthropic 🔗 Tweet @claudeai
Claude Code v2.1.113 — binaire natif et améliorations CLI
17 avril — Claude Code v2.1.113 apporte un changement architectural notable : le CLI utilise désormais un binaire natif par plateforme plutôt qu’un code JavaScript embarqué (bundled JavaScript). Cette transition améliore les performances de démarrage et la fiabilité de l’interface.
| Fonctionnalité | Description |
|---|---|
| Binaire natif | CLI compilé par plateforme, plus de JavaScript bundlé |
sandbox.network.deniedDomains | Blocage de domaines spécifiques même si un joker (wildcard) les autoriserait |
| Fullscreen Shift+↑/↓ | Défilement du viewport lors d’une sélection étendue hors vue |
| Ctrl+A / Ctrl+E | Début/fin de ligne logique dans les entrées multilignes (comportement readline) |
| Windows Ctrl+Backspace | Suppression du mot précédent |
| URLs longues (OSC 8) | Restent cliquables même sur plusieurs lignes |
/loop amélioré | Esc annule les réveils (wakeups) en attente |
/extra-usage | Fonctionne depuis les clients Remote Control (mobile/web) |
Autocomplete @-file | Disponible depuis les clients Remote Control |
/ultrareview amélioré | Lancement plus rapide grâce à des vérifications parallélisées |
Codex CLI v0.121.0 — marketplace de plugins, mémoire et MCP renforcés
15 avril — OpenAI a publié la version 0.121.0 de Codex CLI, son agent de codage en ligne de commande. Cette mise à jour apporte plusieurs fonctionnalités centrées sur l’extensibilité, la gestion de la mémoire et le support MCP.
Marketplace de plugins
La commande codex marketplace add permet d’installer des marketplaces de plugins directement depuis GitHub, des URLs git, des répertoires locaux ou des fichiers marketplace.json. L’écosystème de plugins de Codex CLI s’ouvre ainsi sans passer par un store centralisé.
Interface TUI améliorée
L’interface en ligne de commande (TUI) gagne la recherche inversée dans l’historique via Ctrl+R, avec rappel local des commandes slash acceptées. La gestion de la mémoire fait son entrée : menu dédié, reset, suppression d’entrées et nettoyage des extensions mémoire. Le modèle mémoire de phase 2 est mis à jour vers gpt-5.4.
MCP et API Realtime
Le support MCP s’étend avec les MCP Apps tool calls (part 3), l’enregistrement des outils MCP avec espace de noms (namespace), l’opt-in aux appels parallèles et la transmission des métadonnées de sandbox aux serveurs MCP. L’API Realtime intègre les modalités de sortie (output modality) et les événements de transcription.
| Aspect | Détail |
|---|---|
| Marketplace | codex marketplace add — GitHub, git URLs, local, marketplace.json |
| Recherche TUI | Ctrl+R — historique des prompts avec rappel local |
| Mémoire | Menu dédié, reset, nettoyage, modèle mis à jour vers gpt-5.4 |
| MCP Apps | Tool calls part 3, namespace, parallel-call opt-in |
| Devcontainer | Profil bubblewrap sécurisé pour Docker + Unix socket allowlists macOS |
🔗 Notes de version v0.121.0 🔗 Changelog Codex
Copilot CLI — sélection automatique de modèle en disponibilité générale
17 avril — GitHub lance en disponibilité générale (generally available) la sélection automatique de modèle dans GitHub Copilot CLI pour tous les plans Copilot. En mode auto, Copilot choisit dynamiquement le modèle le plus efficace pour chaque requête.
Le routage s’effectue selon le plan et les politiques administrateur vers : GPT-5.4, GPT-5.3-Codex, Sonnet 4.6 et Haiku 4.5. Le modèle utilisé est visible directement dans le CLI, avec la possibilité de basculer à tout moment entre auto et un modèle spécifique.
| Aspect | Détail |
|---|---|
| Modèles | GPT-5.4, GPT-5.3-Codex, Sonnet 4.6, Haiku 4.5 (selon plan et policies) |
| Remise | 10% sur le multiplicateur de requêtes premium quand auto sélectionne un modèle |
| Transparence | Modèle utilisé visible dans le CLI |
| Contrôle | Bascule auto ↔ modèle spécifique à tout moment |
| Facturation | Basée sur le modèle sélectionné (multiplicateurs 0x–1x actuellement) |
🔗 Changelog GitHub Copilot CLI
NotebookLM — extension aux utilisateurs Free dans Gemini App
17 avril — Google étend l’accès à NotebookLM dans Gemini App aux utilisateurs Free (gratuits) sur le web. La fonctionnalité était disponible depuis le 8 avril uniquement pour les abonnés payants.
Les utilisateurs peuvent désormais accéder à leurs notebooks personnels non partagés directement dans Gemini App, et utiliser leurs conversations Gemini comme sources dans de nouveaux notebooks ou des notebooks existants.
NVIDIA NemoClaw + OpenClaw — agents locaux sans cloud
17 avril — NVIDIA publie un tutoriel technique pour construire un agent IA local, toujours actif et sécurisé, grâce à la stack NemoClaw et OpenClaw sur DGX Spark. L’approche cible les organisations souhaitant des agents autonomes sans infrastructure cloud tierce — répondant aux problématiques de confidentialité et de contrôle des données.
| Composant | Rôle |
|---|---|
| NVIDIA NemoClaw | Stack open-source orchestrant OpenShell pour exécuter OpenClaw ; onboarding, cycle de vie, durcissement d’image |
| OpenClaw | Gateway auto-hébergé connectant les plateformes de messagerie aux agents de code |
| NVIDIA Nemotron | Modèle de langage open source alimentant l’agent |
| NVIDIA DGX Spark | Matériel local pour l’inférence |
| Telegram | Interface de communication distante avec l’agent |
Le tutoriel couvre la configuration de l’environnement d’exécution (runtime), le déploiement local du modèle, l’installation de NemoClaw et la connexion à Telegram.
🔗 Blog NVIDIA Developer 🔗 Tweet @NVIDIAAI
Media : Runway Seedance 2.0 iOS et hackathon Built with 4.7
17 avril — Runway lance Seedance 2.0 sur l’application iOS. Le modèle vidéo développé en partenariat avec ByteDance, disponible sur le web depuis le 9 avril et en rendu 1080p depuis le 16 avril, est désormais accessible depuis iPhone. Les nouveaux abonnés bénéficient de 50% de réduction sur 3 mois pour tout plan souscrit via l’app iOS.
Runway lance également le Big Pitch Contest : un concours créatif sur 2 semaines invitant les créateurs à pitcher un show télévisé imaginaire avec les outils Runway. Prix : 100 000$ en cash. Aucune contrainte de budget de production réelle.
Anthropic et Cerebral Valley lancent de leur côté le hackathon Built with 4.7 : une semaine ouverte aux développeurs du monde entier pour construire avec Claude Code et Opus 4.7.
🔗 Runway Seedance 2.0 iOS 🔗 Runway Big Pitch Contest 🔗 Hackathon Built with 4.7
Ce que ça signifie
Claude Design marque l’entrée d’Anthropic sur le segment du design outillé par IA — un espace jusqu’ici dominé par des outils comme Figma AI ou Canva AI, mais sans la profondeur conversationnelle de Claude. La boucle design → handoff vers Claude Code est particulièrement structurante : elle connecte deux outils Anthropic dans un flux de travail continu, de l’idée au déploiement.
La convergence des mises à jour CLI — Claude Code v2.1.113 en binaire natif, Codex CLI v0.121 avec marketplace, Copilot CLI Auto Model GA — confirme que les agents en ligne de commande sont devenus le terrain d’innovation principal dans les environnements développeurs. Chaque éditeur construit son propre écosystème de plugins ou d’extensions, et la compétition se joue désormais sur l’extensibilité autant que sur les capacités du modèle sous-jacent.
NVIDIA NemoClaw illustre une tendance parallèle : face à la centralisation des agents cloud, une offre “local-first” émerge pour les organisations sensibles à la confidentialité des données. DGX Spark comme plateforme d’inférence locale commence à structurer un marché alternatif au-delà des API publiques.
Sources
- Anthropic — Claude Design par Anthropic Labs
- Tweet @claudeai — Claude Design
- CHANGELOG Claude Code — v2.1.113
- GitHub openai/codex — Release v0.121.0
- Changelog Codex CLI
- GitHub Changelog — Copilot CLI Auto Model Selection GA
- Tweet @NotebookLM — Notebooks Free dans Gemini App
- NVIDIA Developer Blog — NemoClaw + OpenClaw
- Tweet @NVIDIAAI — NemoClaw
- Tweet @runwayml — Seedance 2.0 iOS
- Tweet @runwayml — Big Pitch Contest
- Tweet @claudeai — Hackathon Built with 4.7