ai-powered-markdown-translatorArtículo traducido del fr al es con gpt-5.4-mini.
Semana intensa: OpenAI impulsa GPT-5.5 Instant como reemplazo directo de GPT-5.3 para todos los usuarios de ChatGPT, xAI lanza Grok 4.3 en su API con un contexto de un millón de tokens, y Anthropic anuncia una nueva empresa de servicios IA enterprise cofundada con Blackstone, Hellman & Friedman y Goldman Sachs. En herramientas, GitHub triplica los GA/previews de seguridad mediante su servidor MCP, Perplexity lanza un producto dedicado a los equipos financieros y Runway presenta agentes de vídeo en tiempo real generados a partir de una sola imagen.
GPT-5.5 Instant — nuevo modelo predeterminado de ChatGPT
5 de mayo — OpenAI reemplaza GPT-5.3 Instant por GPT-5.5 Instant como modelo predeterminado de ChatGPT para todos los usuarios. El despliegue se extiende durante dos días.
| Dimensión | Mejora vs GPT-5.3 Instant |
|---|---|
| Alucinaciones (medicina, derecho, finanzas) | -52,5 % |
| Reclamaciones inexactas (reportadas por usuarios) | -37,3 % |
| Verbosidad de las respuestas | -30,2 % de palabras de media |
El modelo también mejora el análisis de imágenes, las respuestas STEM y la decisión de usar la búsqueda web. Las respuestas son más concisas sin perder sustancia, con menos formato superfluo y menos preguntas de seguimiento innecesarias.
Memoria de fuentes — OpenAI introduce las “memory sources” en todos los modelos de ChatGPT: cuando una respuesta se personaliza a partir de recuerdos guardados, conversaciones pasadas o Gmail conectado, el usuario ve exactamente qué fuentes se han usado y puede corregirlas o eliminarlas. La personalización a partir de conversaciones pasadas y archivos queda primero reservada a los abonados Plus y Pro (web); los demás planes llegarán después.
Disponibilidad:
- Despliegue progresivo durante 2 días para todos los usuarios de ChatGPT
- Disponible en API bajo el alias
chat-latest - GPT-5.3 Instant sigue accesible durante 3 meses para los abonados de pago
🔗 Anuncio oficial GPT-5.5 Instant
Grok 4.3 lanzado en la API xAI — contexto 1M tokens, #1 agentic tool calling
5 de mayo — xAI anuncia a través de X el lanzamiento de Grok 4.3 en la API xAI (console.x.ai). El modelo se presenta como el más rápido y el más inteligente de la gama hasta la fecha.
| Característica | Valor |
|---|---|
| Ventana de contexto | 1 millón de tokens |
| Benchmark agentic tool calling | #1 (@ArtificialAnlys leaderboard) |
| Benchmark instruction following | #1 (@ArtificialAnlys leaderboard) |
| Ámbitos enterprise | #1 case law y corporate finance (@ValsAI) |
| Disponibilidad | API xAI (console.x.ai) — todavía no en grok.com |
Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.
🇪🇸 Grok 4.3 ya está disponible en la API xAI. Es nuestro modelo más rápido y más inteligente hasta la fecha. Encabeza las clasificaciones de @ArtificialAnlys en agentic tool calling e instruction following, y ocupa el puesto #1 en @ValsAI en ámbitos enterprise como el derecho mercantil y las finanzas corporativas. Grok 4.3 admite un contexto de un millón de tokens. — @xai en X
El tuit generó 25,7 millones de visualizaciones y 6 029 me gusta. A tener en cuenta: no había ninguna página dedicada en x.ai/news en el momento del anuncio: el lanzamiento se hizo exclusivamente a través de X.
Anthropic y Blackstone, Hellman & Friedman, Goldman Sachs — nueva empresa de servicios IA enterprise
4 de mayo — Anthropic, Blackstone, Hellman & Friedman y Goldman Sachs anuncian la creación de una nueva empresa de servicios IA enterprise, respaldada por un consorcio de actores alternativos adicionales.
El objetivo: desplegar Claude en las operaciones principales de las grandes empresas para tareas que requieren una ingeniería intensiva y un conocimiento sectorial profundo. Según Anthropic, la demanda enterprise de Claude supera lo que un único modelo de distribución puede absorber.
El modelo operativo típico empieza con un pequeño equipo que trabaja en estrecha colaboración con el cliente para identificar los puntos de fricción y luego construye agentes Claude adaptados al negocio. El ejemplo concreto dado: una red de consultas médicas multisede en la que Claude gestiona la documentación clínica, las tareas administrativas repetitivas y la coordinación entre especialidades, permitiendo que los clínicos se centren en la atención a los pacientes.
La nueva empresa se unirá a la Claude Partner Network, junto con Accenture, Deloitte y PwC. Representa un paso estructural en la estrategia de distribución enterprise de Anthropic: en lugar de vender únicamente licencias API, la empresa se compromete ahora en implementaciones operativas complejas con socios financieros de primer nivel.
Agentes Claude para los servicios financieros y los seguros
5 de mayo — Anthropic lanza diez plantillas de agentes listas para usar (ready-to-run) para los servicios financieros y los seguros. Disponibles como plugins en Claude Cowork o Claude Code, o como Claude Managed Agents autónomos en la plataforma Claude.
Búsqueda y cobertura de clientes:
| Agente | Función |
|---|---|
| Pitch builder | Listas objetivo, comparables, pitchbooks |
| Meeting preparer | Briefings para clientes y contrapartes |
| Earnings reviewer | Lectura de transcripciones y actualizaciones de modelos |
| Model builder | Creación de modelos financieros desde filings y datos |
| Market researcher | Seguimiento sectorial y síntesis de noticias |
Finanzas y operaciones:
| Agente | Función |
|---|---|
| Valuation reviewer | Verificación de valoraciones |
| General ledger reconciler | Conciliación contable y cálculos de VAN |
| Month-end closer | Cierre mensual y asientos contables |
| Statement auditor | Revisión de los estados financieros |
| KYC screener | Preparación de expedientes de entidad y filtrado de cumplimiento |
Claude ahora se integra en Microsoft Excel, PowerPoint, Word y Outlook (en curso) mediante complementos (add-ins). La función Dispatch de Claude Cowork permite asignar tareas por texto o voz desde cualquier lugar.
Nuevos conectores de datos: Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk y un MCP Moody’s (ratings y datos sobre más de 6 000 entidades).
Entre los clientes citados: Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % de los empleados usan Claude Code), Hg, Morningstar, FactSet. Estos agentes están optimizados para Claude Opus 4.7, clasificado #1 en el benchmark Vals AI Finance Agent.
Perplexity Computer para Professional Finance
5 de mayo — Perplexity lanza Computer para la finanza profesional, una versión de Computer diseñada específicamente para equipos de análisis e inversión: analistas buy-side y sell-side, fondos especulativos, capital riesgo.
| Dimensión | Valor |
|---|---|
| Workflows incluidos | 35 (10 segmentos) |
| Proveedores de datos integrados | 14 (entre ellos Quartr, Fiscal) |
| Conectores MCP premium | Morningstar, PitchBook, Daloopa, Carbon Arc |
| Plataformas disponibles | Microsoft Teams, Agent API |
| Próximamente | Excel add-in |
| Benchmark FinSearchComp T1 | 1.º (precisión, coste, latencia) |
Los equipos con suscripciones bajo licencia pueden conectar sus propios identificadores mediante conectores MCP para acceder a Morningstar, PitchBook, Daloopa y Carbon Arc. Los demás acceden a las herramientas financieras integradas respaldadas por 14 proveedores de datos.
Cada valor numérico remite a su fuente: para los valores procedentes de documentos SEC, Computer muestra el cálculo y enlaza con las páginas precisas del documento. En el benchmark FinSearchComp T1 (extracción de datos sensibles al factor tiempo), Perplexity se sitúa primero en precisión, coste por respuesta correcta y latencia, incluidos los precios en tiempo real, los precios cripto y los tipos de cambio.
🔗 Blog de Perplexity — Computer para Professional Finance
Runway Characters — agente de vídeo en tiempo real a partir de una sola imagen
4 de mayo — Runway anuncia Characters, una tecnología que permite transformar una sola imagen en un agente de vídeo conversacional en tiempo real.
| Métrica | Valor |
|---|---|
| Latencia de extremo a extremo | 1,75 segundos |
| Calidad de vídeo | 24 fps HD |
| Imagen de origen requerida | 1 sola imagen |
| Arranques en frío | 60× más rápidos (GPU peer-to-peer) |
El retraso de 1,75 segundos se mide desde el momento en que el usuario deja de hablar hasta la primera respuesta del personaje. Runway publicó simultáneamente dos artículos de ingeniería: el primero describe la arquitectura del agente de vídeo en tiempo real; el segundo explica cómo la infraestructura GPU peer-to-peer (peer-to-peer) divide por 60 los tiempos de arranque en frío.
Los casos de uso previstos incluyen agentes conversacionales, personajes interactivos en tiempo real e interfaces de vídeo para aplicaciones. La tecnología marca un paso del renderizado de vídeo offline a una interacción síncrona.
🔗 Tuit de anuncio de Runway Characters
GitHub MCP Server — triple avance en seguridad
5 de mayo — GitHub publica simultáneamente tres actualizaciones de seguridad para su servidor MCP, todas realizadas el mismo día.
Secret scanning GA
El secret scanning mediante GitHub MCP Server pasa a disponibilidad general (sale de preview desde marzo de 2026). En GitHub Copilot CLI, la instalación se realiza con /plugin install advanced-security@copilot-plugins; en VS Code, el plugin advanced-security expone el comando /secret-scanning.
| Aspecto | Detalle |
|---|---|
| Estado | GA (disponibilidad general) |
| Disponibilidad | Repositorios con GitHub Secret Protection activado |
| Integraciones | Copilot CLI, VS Code, cualquier IDE compatible con MCP |
Las herramientas MCP respetan ahora las personalizaciones de push protection existentes; el comportamiento de omisión (bypass) es coherente con la configuración del repositorio o de la organización.
🔗 Changelog — Secret scanning GA
Dependency scanning en preversión pública
La detección de vulnerabilidades en dependencias mediante MCP Server pasa a preversión pública. El sistema consulta la GitHub Advisory Database y devuelve resultados estructurados con paquetes afectados, severidad y versiones corregidas recomendadas.
| Aspecto | Detalle |
|---|---|
| Estado | Preversión pública |
| Disponibilidad | Repositorios con Dependabot alerts activado |
| Activación CLI | copilot --add-github-mcp-toolset dependabot |
🔗 Changelog — Dependency scanning
GitHub Advanced Security × Microsoft Defender for Cloud GA
La integración GitHub Advanced Security × Microsoft Defender for Cloud también pasa a GA. Correlaciona las imágenes de contenedor desplegadas en el entorno cloud con el código fuente de GitHub, aportando contexto de runtime en las vistas de seguridad.
Nuevos filtros disponibles en la vista de organización: has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. Las campañas de seguridad pueden asignarse directamente al agente de codificación GitHub Copilot.
🔗 Changelog — Code-to-cloud GA
Model Spec Midtraining (MSM) — alineación agéntica reducida del 68 % al 5 %
5 de mayo — Investigadores de Anthropic publican “Model Spec Midtraining” (MSM), un método de alineación intercalado entre el preentrenamiento y el fine-tuning de alineación (alignment fine-tuning, AFT).
El principio: los modelos se entrenan con un corpus sintético de documentos que discuten el contenido de su Model Spec antes de aprender a seguir sus reglas. La idea es que entender por qué existe una regla mejora la robustez de su aplicación.
| Modelo | Desalineación (solo AFT) | Con MSM + AFT |
|---|---|---|
| Qwen2.5-32B | 68 % | 5 % |
| Qwen3-32B | 54 % | 7 % |
MSM también hace que el AFT sea mucho más eficiente en datos: se necesitan entre 40 y 60 veces menos datos AFT para alcanzar un rendimiento comparable. Los autores también muestran que explicar las motivaciones detrás de las reglas (en lugar de multiplicar las subreglas) mejora la generalización fuera de distribución.
🔗 Artículo MSM — alignment.anthropic.com
NotebookLM Mind Maps — personalización, organización, navegación
5 de mayo — NotebookLM mejora sus mapas mentales (Mind Maps) con tres funciones desplegadas simultáneamente.
| Funcionalidad | Descripción |
|---|---|
| Personalización | Guiar el mapa con instrucciones de usuario específicas |
| Organización | Renombrar y compartir los mapas Mind Map al instante |
| Navegación | Transiciones fluidas entre los nodos |
El despliegue es progresivo para todos los usuarios. La actualización completa la serie de mejoras rápidas de NotebookLM desde principios de abril: organización automática de las fuentes (24 de abril, 100 % del despliegue alcanzado el 5 de mayo), integración en la aplicación Gemini móvil (30 de abril).
Genspark sb-git — servidor Git reescrito para agentes IA
5 de mayo — Genspark lanza sb-git, un servidor Git reescrito desde cero para agentes IA. Semántica Git completa: versionado, ramas, diff, blame, rollback y push.
| Aspecto | Detalle |
|---|---|
| CLI | gsk (init, clone-url, cat, commit) |
| Compatibilidad | Claude Code, OpenClaw, cualquier agente Git |
| Almacenamiento | 1 GB (gratis), 10 GB (Plus/Pro) |
| Cuenta requerida | No — no hace falta ninguna cuenta de GitHub |
| Disponibilidad | Inmediata (web + móvil) |
No se requiere ninguna cuenta de GitHub, ni configuración previa del repositorio. El foco está en la compatibilidad con los agentes IA habituales (Claude Code, OpenClaw) sin fricción de instalación.
NVIDIA + ServiceNow — Project Arc, agente desktop autónomo long-running
5 de mayo — En la conferencia ServiceNow Knowledge 2026, Jensen Huang y Bill McDermott anunciaron la expansión de su asociación en torno a los agentes IA autónomos en la empresa.
ServiceNow lanza Project Arc, un agente desktop autónomo long-running diseñado para los trabajadores del conocimiento: desarrolladores, equipos IT, administradores. El agente utiliza NVIDIA OpenShell (sandbox open source) para la gobernanza y la seguridad, y se conecta de forma nativa a la plataforma ServiceNow mediante ServiceNow Action Fabric.
| Métrica | Valor |
|---|---|
| Eficiencia Blackwell vs Hopper | 50× tokens/watt |
| Reducción del coste por millón de tokens | ~35× |
| Nemotron 3 Super (open source) | #1 EnterpriseOps-Gym (NOWAI-Bench) |
| Tickets resueltos autónomamente | 90 % (ServiceNow + Apriel/Nemotron) |
NVIDIA NemoClaw + OpenClaw — agente persistente de código abierto que supera a React en GitHub
30 de abril — OpenClaw (creado por Peter Steinberger) superó las 250 000 estrellas de GitHub en 60 días, superando a React para convertirse en el proyecto más estrella de la plataforma. NVIDIA colabora con la comunidad para asegurar este proyecto de agente de IA self-hosted persistente.
NVIDIA lanza NemoClaw, una implementación de referencia instalable con un solo comando, que combina OpenClaw + NVIDIA OpenShell + Nemotron con configuraciones de seguridad reforzadas por defecto.
| Métrica | Valor |
|---|---|
| GitHub stars OpenClaw | 250 000+ (marzo de 2026) |
| Crecimiento | Proyecto GitHub #1 en 60 días (supera a React) |
| Multiplicador inferencia agentes vs reasoning AI | 1 000× |
| Instalación NemoClaw | 1 solo comando |
🔗 Blog de NVIDIA — OpenClaw/NemoClaw
Luma AI Uni-1.1 API — generación de imágenes razonando sobre briefs creativos
5 de mayo — Luma AI lanza la API Uni-1.1, un modelo de generación de imágenes diseñado para razonar sobre briefs creativos en lugar de sobre tokens. A diferencia de las APIs tradicionales que requieren prompt engineering, Uni-1.1 comprende el contexto estético de cada tradición visual y produce resultados utilizables desde el primer intento.
Casos de uso citados: herramientas de moda, renders de arquitectura, pipelines manga, contenido cinematográfico. No se requiere middleware. La API está disponible en lumalabs.ai/api.
ChatGPT Ads Manager self-serve y CPC bidding
5 de mayo — OpenAI amplía su programa publicitario con dos novedades: una herramienta self-serve (Ads Manager, en beta en Estados Unidos) y el lanzamiento del modo de pujas CPC (coste por clic).
| Modo | Estado | Descripción |
|---|---|---|
| CPM (coste por mil impresiones) | Existente | Disponible desde el lanzamiento del programa |
| CPC (coste por clic) | Nuevo | El anunciante solo paga por clic efectivo |
| Ads Manager self-serve (beta) | Nuevo | Disponible para anunciantes de EE. UU. |
Socios agencias: Dentsu, Omnicom, Publicis, WPP. Socios tecnológicos: Adobe, Criteo, Kargo, Pacvue, StackAdapt. OpenAI también lanzó una Conversions API y un seguimiento por píxel para medir las acciones posteriores al clic sin exponer las conversaciones individuales a los anunciantes.
🔗 Anuncio publicitario de OpenAI
Perplexity Premium Health Sources
5 de mayo — Perplexity lanza las Fuentes de salud premium. Más de una de cada diez consultas en la plataforma está relacionada con la salud. Las fuentes disponibles en el lanzamiento son NEJM, BMJ Journals y BMJ Best Practice — referencias médicas habitualmente reservadas a suscripciones institucionales.
En Computer, estas fuentes se activan automáticamente para preguntas de salud sin selección manual. Cada respuesta incluye citas trazables. Fuentes próximas: Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.
🔗 Blog de Perplexity — Premium Health Sources
Breves
-
Manus — Recomendación automática de conectores — Manus ahora detecta qué conector (Slack, Notion, Gmail, Google Drive) es necesario para completar una tarea y lo recomienda en la conversación, sin salir del hilo de discusión. La activación sigue sujeta a la confirmación del usuario. 🔗 fuente
-
Black Forest Labs — FLUX Creator Program — BFL abre un programa selectivo de creadores para acceso anticipado a los próximos modelos FLUX, con amplificación de su trabajo a través de los canales de BFL. 🔗 fuente
-
GPT-5.5 Instant System Card — Primera System Card de la gama Instant clasificada como “High capability” en las categorías Ciberseguridad y Biología y Química del Preparedness Framework de OpenAI. Se han implementado medidas de protección reforzadas en consecuencia. 🔗 fuente
-
OpenAI — Arquitectura WebRTC relay+transceiver — OpenAI publica un artículo de ingeniería que describe el rediseño de su infraestructura WebRTC para la voz en tiempo real (ChatGPT Voice, Realtime API), que sirve a más de 900 millones de usuarios semanales. La arquitectura separa el enrutamiento de paquetes (relay ligero, sin estado) de la terminación del protocolo (transceiver, con estado), permitiendo un despliegue estándar de Kubernetes con una huella UDP pública reducida. 🔗 fuente
Lo que eso significa
Las finanzas como terreno de juego prioritario de la IA empresarial. En 24 horas, Anthropic, Perplexity y xAI publicaron anuncios dirigidos explícitamente a equipos financieros: diez plantillas de agentes Claude (valoración, KYC, cierre mensual), Computer for Professional Finance con 35 flujos de trabajo y 14 proveedores de datos, y Grok 4.3 clasificado #1 en el benchmark Vals AI en corporate finance y case law. La convergencia no es casualidad: las finanzas combinan volumen de documentos estructurados, exigencia de precisión y tolerancia a los costes de herramientas premium, lo que la convierte en el terreno ideal para los primeros despliegues de agentes autónomos de alto valor de negocio.
La carrera por los modelos por defecto. GPT-5.5 Instant reduce las alucinaciones en un 52,5 % respecto a su predecesor inmediato, y Grok 4.3 alcanza el contexto de un millón de tokens con rendimientos agentic medidos y publicados. Estos dos modelos se lanzan el mismo día. La cuestión ya no es solo publicar los mejores benchmarks académicos, sino ser el modelo cargado por defecto en las interfaces de consumo (ChatGPT) o activado primero en los pipelines de desarrolladores (API xAI).
MCP como estándar de seguridad para desarrolladores. GitHub publicó simultáneamente tres actualizaciones de seguridad a través de su servidor MCP (secret scanning GA, dependency scanning en previsualización, code-to-cloud GA). Este despliegue coordinado transforma el servidor MCP de GitHub en un canal de integración de seguridad nativo para agentes de código — Copilot CLI, VS Code y cualquier IDE compatible con MCP ahora pueden escanear secretos y dependencias vulnerables antes de cada commit, directamente en el flujo de trabajo del agente.
Agentes persistentes e infraestructura en tiempo real. Runway Characters (agente de vídeo con 1,75 s de latencia desde una imagen), Project Arc de ServiceNow (agente de escritorio de larga duración), OpenClaw/NemoClaw (250 000 estrellas en GitHub, 1 000× más demanda de inferencia que las IA de razonamiento) y Genspark sb-git (Git reescrito para agentes) señalan todos el mismo giro: los agentes de IA salen de la era de las consultas puntuales para entrar en la de los procesos persistentes, con necesidades de infraestructura radicalmente distintas — almacenamiento de estado, latencia en tiempo real, versionado nativo.
Fuentes
- GPT-5.5 Instant — OpenAI
- GPT-5.5 Instant System Card
- ChatGPT Ads — OpenAI
- Arquitectura WebRTC de OpenAI
- Grok 4.3 — @xai en X
- Anthropic Finance Agents
- Anthropic Enterprise AI Services Company
- Model Spec Midtraining — Anthropic
- Perplexity Computer for Professional Finance
- Perplexity Premium Health Sources
- Runway Characters — @runwayml en X
- NVIDIA + ServiceNow Project Arc
- NVIDIA NemoClaw + OpenClaw
- Luma AI Uni-1.1 — @LumaLabsAI en X
- GitHub MCP Secret Scanning GA
- GitHub MCP Dependency Scanning
- GitHub + Microsoft Defender for Cloud GA
- Genspark sb-git — @genspark_ai en X
- NotebookLM Mind Maps — @NotebookLM en X
- Manus Recommended Connectors
- Black Forest Labs FLUX Creator Program — @bfl_ml en X