Buscar

GPT-5.4 mini y nano lanzados por OpenAI, Mistral se une a la Nemotron Coalition de NVIDIA, Perplexity Comet Enterprise disponible

GPT-5.4 mini y nano lanzados por OpenAI, Mistral se une a la Nemotron Coalition de NVIDIA, Perplexity Comet Enterprise disponible

El 17 de marzo de 2026 se inscribe bajo el signo del GTC de NVIDIA y de varios lanzamientos importantes. OpenAI publica GPT-5.4 mini y nano, sus modelos compactos más capaces hasta la fecha, que se acercan al modelo completo en varios benchmarks. La NVIDIA Nemotron Coalition gana impulso con la adhesión de Mistral AI y Perplexity. Perplexity abre al mismo tiempo Comet Enterprise con una gobernanza MDM completa, Claude Code v2.1.77 duplica el límite de generación para Opus 4.6, y GitHub, Anthropic, Google y OpenAI se unen para financiar la seguridad open source con 12,5 millones de dólares.


GPT-5.4 mini y nano: los modelos compactos de OpenAI

17 de marzo — OpenAI lanza GPT-5.4 mini y GPT-5.4 nano, sus modelos compactos más potentes hasta la fecha. Estas dos variantes aportan las capacidades de GPT-5.4 en formatos optimizados para cargas de trabajo de alto volumen, con menor latencia y un coste más bajo.

GPT-5.4 mini mejora significativamente GPT-5 mini en código, razonamiento, comprensión multimodal y uso de herramientas, al mismo tiempo que funciona más del doble de rápido. Se acerca al rendimiento del modelo GPT-5.4 completo en varias evaluaciones clave, incluidas SWE-Bench Pro y OSWorld-Verified.

GPT-5.4 nano es la versión más pequeña y menos costosa de la familia GPT-5.4, diseñada para tareas en las que priman la rapidez y el coste: clasificación, extracción de datos, ranking y subagentes de código simples.

EvaluaciónGPT-5.4GPT-5.4 miniGPT-5.4 nanoGPT-5 mini
SWE-Bench Pro (public)57,7 %54,4 %52,4 %45,7 %
Terminal-Bench 2.075,1 %60,0 %46,3 %38,2 %
Toolathlon54,6 %42,9 %35,5 %26,9 %
GPQA Diamond93,0 %88,0 %82,8 %81,6 %
OSWorld-Verified75,0 %72,1 %39,0 %42,0 %

Los casos de uso se dividen en tres registros: los asistentes de código (GPT-5.4 mini destaca en los flujos de trabajo de codificación rápida, los bucles de depuración y la generación frontend), los subagentes (en Codex, GPT-5.4 puede delegar subtareas a GPT-5.4 mini utilizando solo el 30 % del cupo de GPT-5.4), y el control de interfaz (computer use), donde GPT-5.4 mini interpreta rápidamente las capturas de pantalla de interfaces densas.

ModeloDisponibilidadPrecio de entradaPrecio de salidaContexto
GPT-5.4 miniAPI, Codex, ChatGPT Free/Go0,75 $/million tokens4,50 $/million tokens400 000 tokens
GPT-5.4 nanoSolo API0,20 $/million tokens1,25 $/million tokens

En ChatGPT, GPT-5.4 mini está accesible para los usuarios Free y Go a través de la funcionalidad “Thinking” en el menú +. Para los planes de pago, sirve como modelo de respaldo en caso de límite de velocidad de GPT-5.4 Thinking.

🔗 Introducción a GPT-5.4 mini y nano


NVIDIA GTC 2026: la Nemotron Coalition y Dynamo 1.0

La conferencia GTC de NVIDIA, que tenía lugar a partir del 16 de marzo, fue el catalizador de varios anuncios importantes del sector: la formación de una coalición abierta en torno a los modelos frontier open source, la salida a producción de un sistema operativo de inferencia y el anuncio de un blueprint de datos para la IA física.

Mistral se une a la NVIDIA Nemotron Coalition

16 de marzo — Mistral AI anuncia una asociación estratégica con NVIDIA para codesarrollar modelos de IA frontier open source. Mistral se convierte en miembro fundador de la NVIDIA Nemotron Coalition, combinando su arquitectura frontier con la infraestructura de cómputo de NVIDIA y sus herramientas de desarrollo.

AspectoDetalle
Rol de MistralMiembro fundador, arquitectura frontier + oferta full-stack de IA
Aporte de NVIDIAInfraestructura GPU + herramientas de desarrollo
ObjetivoCodesarrollar modelos abiertos de nivel frontier

🔗 Anuncio de Mistral en X

Perplexity también se une a la coalición

16 de marzo — Perplexity anuncia su adhesión a la misma NVIDIA Nemotron Coalition. Puntos clave: Perplexity afina diferentes modelos abiertos para cada etapa de su pipeline de respuesta (análisis de la consulta, razonamiento, respuesta final). El modelo Nemotron 3 Super (120 mil millones de parámetros, arquitectura MoE) está ahora disponible en la barra de búsqueda de Perplexity, la Agent API y Perplexity Computer.

🔗 Blog de Perplexity – Nemotron Coalition 🔗 Anuncio de NVIDIA

Dynamo 1.0: el sistema operativo de inferencia pasa a producción

16 de marzo — NVIDIA anuncia en el GTC la puesta en producción de Dynamo 1.0, presentado como el “sistema operativo de inferencia” (inference operating system) para las fábricas de IA (AI factories). Dynamo impulsa el rendimiento de inferencia en las GPU Blackwell hasta 7x respecto a los despliegues no optimizados. El paso a la v1.0 marca su entrada de la fase experimental a la producción industrial.

🔗 Anuncio de NVIDIA Dynamo 1.0

Physical AI Data Factory Blueprint

16 de marzo — NVIDIA presenta el Physical AI Data Factory Blueprint: una arquitectura de referencia para transformar el cómputo acelerado en datos de entrenamiento de alta calidad destinados a la robótica, a los agentes de visión de IA y a los vehículos autónomos. Este blueprint permite a las empresas generar sintéticamente datos de entrenamiento para la IA física a gran escala.

🔗 Anuncio de NVIDIA Physical AI

Cohere + NVIDIA: IA soberana sobre DGX Spark

16 de marzo — Cohere y NVIDIA se asocian para desarrollar una IA soberana, segura y eficiente, anunciado también en el GTC. Dos ejes principales: los modelos NVIDIA ecosystem-native (modelos personalizados optimizados para la última arquitectura de NVIDIA, dirigidos a workloads enterprise especializados) y North en DGX Spark (la plataforma agentiva North de Cohere estará disponible en NVIDIA DGX Spark, en local y con baja latencia para datos sensibles). Los sectores objetivo son finanzas, salud y sector público.

🔗 Blog de Cohere – IA soberana NVIDIA


Perplexity Comet Enterprise: gobernanza MDM e integración con CrowdStrike

17 de marzo — Perplexity lanza Comet Enterprise para todos los abonados Enterprise. El navegador de IA pasa a versión enterprise con una gobernanza de despliegue completa.

FuncionalidadDescripción
Despliegue MDMInstalador silencioso, despliegue en miles de máquinas, logs de auditoría
Telemetría granularSeguimiento por usuario
CrowdStrike FalconProtección anti-phishing, detección de exfiltración (capturas de pantalla, descargas)
Intervención en tiempo realPosible mediante la integración de CrowdStrike
PrivacidadPerplexity nunca entrena sus modelos con los datos enterprise

Entre los primeros usuarios: empresas del ranking Fortune, AWS, AlixPartners, Gunderson Dettmer y Bessemer Venture Partners. Los casos de uso documentados abarcan la preparación de reuniones con clientes (noticias en tiempo real), el análisis de contratos SOW, los cálculos financieros y la investigación sectorial.

🔗 Blog de Perplexity – Comet Enterprise


Claude Code v2.1.77: 64k tokens por defecto para Opus 4.6

17 de marzo — Claude Code v2.1.77 sale con un aumento significativo de los límites de generación y varias correcciones de errores críticos.

ModeloLímite por defectoLímite máximo
Claude Opus 4.664 000 tokens128 000 tokens
Claude Sonnet 4.6128 000 tokens

El límite por defecto para Opus 4.6 se duplica (de 32k a 64k tokens), lo que permite respuestas mucho más largas sin configuración adicional.

Nuevas funcionalidades:

  • allowRead en los sandbox : nuevo parámetro de configuración filesystem que permite volver a autorizar la lectura en zonas cubiertas por una regla denyRead. Útil para configuraciones de seguridad granulares.
  • /copy N : el comando /copy acepta ahora un índice opcional — /copy 2 copia la segunda respuesta anterior del asistente sin navegar por el historial.

Correcciones destacadas:

  • “Always Allow” en los comandos bash compuestos : la regla se guardaba para la cadena completa (cd src && npm test) en lugar de por subcomando. Corregido.
  • Auto-updater : iniciaba descargas paralelas durante aperturas y cierres repetidos de la ventana, pudiendo acumular decenas de gigabytes en memoria. Corregido.
  • --resume truncando el historial : una condición de carrera (race condition) entre las escrituras de extracción de memoria y el transcript principal podía provocar una truncación silenciosa. Corregido.
  • Hooks PreToolUse eludiendo las reglas deny : un hook que devolvía "allow" eludía las reglas de permiso deny, incluidos los parámetros gestionados por la empresa. Importante corrección de seguridad.

🔗 CHANGELOG Claude Code


Artículo técnico: cómo el equipo de Claude Code usa los Skills

17 de marzo — Thariq (@trq212), ingeniero del equipo Claude Code en Anthropic, publica “Lessons from Building Claude Code: How We Use Skills”, segundo artículo de la serie después de “Seeing like an Agent” (27 de febrero, 3,6 millones de vistas).

El artículo documenta cómo los Skills se han convertido en uno de los puntos de extensión más utilizados de Claude Code — flexibles, fáciles de mantener y que permiten a los equipos definir workflows reutilizables directamente en su entorno de desarrollo. Boris Cherny (@bcherny), responsable de Claude Code, compartió el artículo calificándolo de “Really great writeup”. El autor anuncia también la próxima publicación de un skill iMessage en open source como ejemplo concreto.

“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”

🇪🇸 Usar bien los Skills es una cuestión de habilidad. No me había dado cuenta de hasta qué punto antes de escribir este artículo.@trq212 en X

🔗 Tweet de publicación


Codex Security: por qué no hay informe SAST

16 de marzo — OpenAI publica un artículo técnico explicando la decisión de diseño detrás de Codex Security: por qué el sistema no se apoya en el análisis estático (SAST) como punto de partida.

El enfoque se basa en cuatro pilares: la lectura contextual (analizar la ruta de código completa con el contexto del repositorio), el micro-fuzzing dirigido (reducir al fragmento más pequeño testeable para escribir micro-fuzzers), el razonamiento sobre las restricciones (usar un entorno Python con z3-solver para formalizar los problemas complejos) y la validación en sandbox (distinguir “esto podría ser un problema” de “esto es un problema” con un PoC compilado). El artículo ilustra estos principios con CVE-2024-29041 (Express), una redirección abierta en la que URLs malformadas eludían las implementaciones de allowlist.

🔗 Por qué Codex Security no incluye un informe SAST


Gemini Personal Intelligence: expansión gratuita en Estados Unidos

17 de marzo — Google amplía Personal Intelligence a más usuarios de forma gratuita en Estados Unidos. Esta funcionalidad, hasta ahora reservada a los abonados de pago, es ahora accesible para las cuentas gratuitas (free-tier) a través de tres superficies: AI Mode en Google Search, la aplicación Gemini (iOS/Android) y la extensión Gemini in Chrome.

Personal Intelligence conecta de forma segura las aplicaciones Google del usuario (Gmail, Google Photos, YouTube, Search) para proporcionar respuestas personalizadas. Ejemplos: recomendaciones de compra adaptadas a compras anteriores, asistencia técnica dirigida al dispositivo exacto comprado (extraído de los recibos de Gmail), itinerarios de viaje personalizados basados en las confirmaciones de hotel. El usuario elige qué aplicaciones conectar y puede desactivar en cualquier momento. Disponible solo para cuentas Google personales (no Workspace enterprise/educación).

🔗 Blog de Google – Personal Intelligence


AlphaFold Database: millones de nuevas estructuras de complejos proteicos

17 de marzo — Google DeepMind anuncia la expansión de la base de datos AlphaFold Database (AFDB) con millones de nuevas estructuras de complejos proteicos predichas por IA, en colaboración con EMBL-EBI (Instituto Europeo de Bioinformática), NVIDIA y la Universidad Nacional de Seúl. Las nuevas estructuras cubren, en particular, los patógenos bacterianos prioritarios de la OMS — las bacterias más peligrosas y resistentes a los antibióticos. Esta expansión pasa del nivel de las proteínas individuales al de los complejos proteicos (interacciones entre varias proteínas), un salto cualitativo para la investigación médica y farmacéutica.

🔗 Anuncio de Pushmeet Kohli en X


xAI: API Text-to-Speech de Grok y primer puesto en edición de vídeo

API Text-to-Speech

16 de marzo — xAI anuncia la disponibilidad de la API Text-to-Speech de Grok, que ofrece voces naturales y expresivas para los desarrolladores. LiveKit ha integrado esta TTS en LiveKit Inference desde el lanzamiento.

🔗 Anuncio de xAI en X

Grok Imagine #1 en edición de vídeo

15 de marzo — Grok Imagine alcanza el primer puesto en edición de vídeo en el ranking Design Arena, con un Elo de 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.

🔗 Annonce Grok sur X


Perplexity Computer : contrôle total de Comet et Android

Computer contrôle Comet sans MCP

16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.

🔗 Tweet Perplexity

Computer sur Android

16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.

🔗 Tweet Perplexity Android


Manus : bureau local et Google Workspace au niveau développeur

Manus “My Computer” sur macOS et Windows

16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.

Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.

🔗 Tweet Manus · 🔗 Blog Manus

Manus maîtrise Google Workspace avec précision

17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :

DomaineNouvelles capacités
Google DocsRemplacements de texte chirurgicaux, réponses à des commentaires spécifiques
Google SheetsLecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets
Google SlidesÉdition de présentations existantes (titre d’une diapositive, mise à jour de chronologie)
Google DriveRéorganisation de dossiers

La mise à jour est gratuite et rétrocompatible.

🔗 Tweet Manus · 🔗 Blog Manus


GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source

Copilot /fleet : maintenance sur toute la flotte de dépôts

15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.

🔗 Tweet GitHub

12,5 M$ pour la sécurité open source

17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.

Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.

Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.

🔗 Article GitHub Blog 🔗 Annonce Linux Foundation


Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents

15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.

🔗 Annonce Z.ai sur X


Kimi publie un paper sur les Attention Residuals

16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).

🔗 Tweet Kimi · 🔗 arXiv 2603.15031


ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise

14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).

🔗 Blog ElevenLabs


Brèves

Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X


Ce que ça signifie

La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.

GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.

La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.


Sources

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator