Rechercher

Claude Design par Anthropic Labs, Codex CLI v0.121, Copilot CLI Auto Model GA

Claude Design par Anthropic Labs, Codex CLI v0.121, Copilot CLI Auto Model GA

Le 17 avril, Anthropic Labs lance Claude Design, un outil de prototypage par conversation qui étend les capacités de Claude Opus 4.7 au design d’interfaces. Côté agents en ligne de commande, Claude Code passe à un binaire natif par plateforme, Codex CLI v0.121 ouvre un marketplace de plugins, et Copilot CLI atteint la disponibilité générale pour la sélection automatique de modèle. Google étend NotebookLM aux utilisateurs Free dans Gemini App, NVIDIA publie un tutoriel NemoClaw pour agents locaux, et Runway déploie Seedance 2.0 sur iOS.


Claude Design — prototypage par conversation

17 avril — Anthropic Labs lance Claude Design, un produit permettant de créer des prototypes interactifs (interactive prototypes), des diapositives et des pages récapitulatives (one-pagers) par simple conversation avec Claude. Le produit est propulsé par Claude Opus 4.7, le modèle de vision le plus avancé d’Anthropic, et est disponible en aperçu de recherche (research preview) sur les plans Pro, Max, Team et Enterprise.

Fonctionnement

Le workflow de Claude Design s’articule autour d’un système de design intégré : lors de la prise en main (onboarding), Claude lit le code source et les fichiers de design de l’équipe pour construire automatiquement le système de design maison. L’import peut se faire depuis n’importe quel format — texte, images, documents DOCX, PPTX, XLSX — ou une URL.

L’édition reste fine : commentaires en ligne sur des éléments spécifiques, modification directe du texte, molettes d’ajustement pour l’espacement, les couleurs et la typographie. Les créations peuvent inclure voix, vidéo, shaders, contenu 3D et IA intégrée.

Public cibleUsage
DesignersPrototypes interactifs, explorations de directions
Chefs de produitMaquettes fonctionnelles (wireframes), handoff vers Claude Code
Fondateurs / commerciauxPrésentations complètes en quelques minutes
MarketeursPages de destination, visuels de campagne

Export et collaboration

Le partage s’opère au niveau de l’organisation (privé, interne ou public). Quand un design est prêt à être développé, Claude génère un lot de transfert (handoff bundle) transmissible directement à Claude Code. L’export est disponible vers Canva, PDF et PPTX. Des intégrations supplémentaires sont annoncées pour les semaines à venir.

Le partenariat avec Canva est intégré dès le lancement. Melanie Perkins, co-fondatrice et PDG de Canva, déclare :

“We’ve loved collaborating with Anthropic over the past couple of years and share a deep focus on making creativity more accessible. Claude Design is a perfect complement to Canva’s mission.”

🇫🇷 “Nous avons adoré collaborer avec Anthropic ces deux dernières années et partageons la même volonté de rendre la créativité plus accessible. Claude Design s’inscrit parfaitement dans la mission de Canva.” — Melanie Perkins, Co-fondatrice et PDG de Canva

🔗 Annonce Anthropic 🔗 Tweet @claudeai


Claude Code v2.1.113 — binaire natif et améliorations CLI

17 avril — Claude Code v2.1.113 apporte un changement architectural notable : le CLI utilise désormais un binaire natif par plateforme plutôt qu’un code JavaScript embarqué (bundled JavaScript). Cette transition améliore les performances de démarrage et la fiabilité de l’interface.

FonctionnalitéDescription
Binaire natifCLI compilé par plateforme, plus de JavaScript bundlé
sandbox.network.deniedDomainsBlocage de domaines spécifiques même si un joker (wildcard) les autoriserait
Fullscreen Shift+↑/↓Défilement du viewport lors d’une sélection étendue hors vue
Ctrl+A / Ctrl+EDébut/fin de ligne logique dans les entrées multilignes (comportement readline)
Windows Ctrl+BackspaceSuppression du mot précédent
URLs longues (OSC 8)Restent cliquables même sur plusieurs lignes
/loop amélioréEsc annule les réveils (wakeups) en attente
/extra-usageFonctionne depuis les clients Remote Control (mobile/web)
Autocomplete @-fileDisponible depuis les clients Remote Control
/ultrareview amélioréLancement plus rapide grâce à des vérifications parallélisées

🔗 CHANGELOG Claude Code


Codex CLI v0.121.0 — marketplace de plugins, mémoire et MCP renforcés

15 avril — OpenAI a publié la version 0.121.0 de Codex CLI, son agent de codage en ligne de commande. Cette mise à jour apporte plusieurs fonctionnalités centrées sur l’extensibilité, la gestion de la mémoire et le support MCP.

Marketplace de plugins

La commande codex marketplace add permet d’installer des marketplaces de plugins directement depuis GitHub, des URLs git, des répertoires locaux ou des fichiers marketplace.json. L’écosystème de plugins de Codex CLI s’ouvre ainsi sans passer par un store centralisé.

Interface TUI améliorée

L’interface en ligne de commande (TUI) gagne la recherche inversée dans l’historique via Ctrl+R, avec rappel local des commandes slash acceptées. La gestion de la mémoire fait son entrée : menu dédié, reset, suppression d’entrées et nettoyage des extensions mémoire. Le modèle mémoire de phase 2 est mis à jour vers gpt-5.4.

MCP et API Realtime

Le support MCP s’étend avec les MCP Apps tool calls (part 3), l’enregistrement des outils MCP avec espace de noms (namespace), l’opt-in aux appels parallèles et la transmission des métadonnées de sandbox aux serveurs MCP. L’API Realtime intègre les modalités de sortie (output modality) et les événements de transcription.

AspectDétail
Marketplacecodex marketplace add — GitHub, git URLs, local, marketplace.json
Recherche TUICtrl+R — historique des prompts avec rappel local
MémoireMenu dédié, reset, nettoyage, modèle mis à jour vers gpt-5.4
MCP AppsTool calls part 3, namespace, parallel-call opt-in
DevcontainerProfil bubblewrap sécurisé pour Docker + Unix socket allowlists macOS

🔗 Notes de version v0.121.0 🔗 Changelog Codex


Copilot CLI — sélection automatique de modèle en disponibilité générale

17 avril — GitHub lance en disponibilité générale (generally available) la sélection automatique de modèle dans GitHub Copilot CLI pour tous les plans Copilot. En mode auto, Copilot choisit dynamiquement le modèle le plus efficace pour chaque requête.

Le routage s’effectue selon le plan et les politiques administrateur vers : GPT-5.4, GPT-5.3-Codex, Sonnet 4.6 et Haiku 4.5. Le modèle utilisé est visible directement dans le CLI, avec la possibilité de basculer à tout moment entre auto et un modèle spécifique.

AspectDétail
ModèlesGPT-5.4, GPT-5.3-Codex, Sonnet 4.6, Haiku 4.5 (selon plan et policies)
Remise10% sur le multiplicateur de requêtes premium quand auto sélectionne un modèle
TransparenceModèle utilisé visible dans le CLI
ContrôleBascule auto ↔ modèle spécifique à tout moment
FacturationBasée sur le modèle sélectionné (multiplicateurs 0x–1x actuellement)

🔗 Changelog GitHub Copilot CLI


NotebookLM — extension aux utilisateurs Free dans Gemini App

17 avril — Google étend l’accès à NotebookLM dans Gemini App aux utilisateurs Free (gratuits) sur le web. La fonctionnalité était disponible depuis le 8 avril uniquement pour les abonnés payants.

Les utilisateurs peuvent désormais accéder à leurs notebooks personnels non partagés directement dans Gemini App, et utiliser leurs conversations Gemini comme sources dans de nouveaux notebooks ou des notebooks existants.

🔗 Tweet @NotebookLM


NVIDIA NemoClaw + OpenClaw — agents locaux sans cloud

17 avril — NVIDIA publie un tutoriel technique pour construire un agent IA local, toujours actif et sécurisé, grâce à la stack NemoClaw et OpenClaw sur DGX Spark. L’approche cible les organisations souhaitant des agents autonomes sans infrastructure cloud tierce — répondant aux problématiques de confidentialité et de contrôle des données.

ComposantRôle
NVIDIA NemoClawStack open-source orchestrant OpenShell pour exécuter OpenClaw ; onboarding, cycle de vie, durcissement d’image
OpenClawGateway auto-hébergé connectant les plateformes de messagerie aux agents de code
NVIDIA NemotronModèle de langage open source alimentant l’agent
NVIDIA DGX SparkMatériel local pour l’inférence
TelegramInterface de communication distante avec l’agent

Le tutoriel couvre la configuration de l’environnement d’exécution (runtime), le déploiement local du modèle, l’installation de NemoClaw et la connexion à Telegram.

🔗 Blog NVIDIA Developer 🔗 Tweet @NVIDIAAI


Media : Runway Seedance 2.0 iOS et hackathon Built with 4.7

17 avril — Runway lance Seedance 2.0 sur l’application iOS. Le modèle vidéo développé en partenariat avec ByteDance, disponible sur le web depuis le 9 avril et en rendu 1080p depuis le 16 avril, est désormais accessible depuis iPhone. Les nouveaux abonnés bénéficient de 50% de réduction sur 3 mois pour tout plan souscrit via l’app iOS.

Runway lance également le Big Pitch Contest : un concours créatif sur 2 semaines invitant les créateurs à pitcher un show télévisé imaginaire avec les outils Runway. Prix : 100 000$ en cash. Aucune contrainte de budget de production réelle.

Anthropic et Cerebral Valley lancent de leur côté le hackathon Built with 4.7 : une semaine ouverte aux développeurs du monde entier pour construire avec Claude Code et Opus 4.7.

🔗 Runway Seedance 2.0 iOS 🔗 Runway Big Pitch Contest 🔗 Hackathon Built with 4.7


Ce que ça signifie

Claude Design marque l’entrée d’Anthropic sur le segment du design outillé par IA — un espace jusqu’ici dominé par des outils comme Figma AI ou Canva AI, mais sans la profondeur conversationnelle de Claude. La boucle design → handoff vers Claude Code est particulièrement structurante : elle connecte deux outils Anthropic dans un flux de travail continu, de l’idée au déploiement.

La convergence des mises à jour CLI — Claude Code v2.1.113 en binaire natif, Codex CLI v0.121 avec marketplace, Copilot CLI Auto Model GA — confirme que les agents en ligne de commande sont devenus le terrain d’innovation principal dans les environnements développeurs. Chaque éditeur construit son propre écosystème de plugins ou d’extensions, et la compétition se joue désormais sur l’extensibilité autant que sur les capacités du modèle sous-jacent.

NVIDIA NemoClaw illustre une tendance parallèle : face à la centralisation des agents cloud, une offre “local-first” émerge pour les organisations sensibles à la confidentialité des données. DGX Spark comme plateforme d’inférence locale commence à structurer un marché alternatif au-delà des API publiques.


Sources