El 16 de abril fue una jornada excepcionalmente cargada: Anthropic lanza Claude Opus 4.7 en disponibilidad general con mejoras significativas en los benchmarks agénticos, OpenAI presenta simultáneamente Codex con computer use en macOS y GPT-Rosalind, su primer modelo frontier dedicado a las ciencias de la vida. Google enriquece la aplicación Gemini con la generación de imágenes personalizadas mediante Nano Banana 2 y Google Photos, Perplexity lanza Personal Computer para Mac, y GitHub abre el comando gh skill para la gestión entre agentes de las competencias (skills).
Claude Opus 4.7 : disponibilidad general
16 de abril — Anthropic lanza Claude Opus 4.7 en acceso general (generally available). El modelo sucede a Opus 4.6 con avances notables en tareas largas, autonomía agéntica y precisión de instrucciones.
“Opus 4.7 handles complex, long-running tasks with rigor and consistency, pays precise attention to instructions, and devises ways to verify its own outputs before reporting back.”
🇪🇸 Opus 4.7 gestiona tareas largas y complejas con rigor y constancia, presta una atención precisa a las instrucciones y diseña formas de verificar sus propias salidas antes de transmitirlas. — @claudeai en X
Capacidades clave
| Funcionalidad | Descripción |
|---|---|
| Visión de alta resolución | Imágenes de hasta 2 576 px en el lado largo (~3,75 megapíxeles), 3× la resolución anterior |
| Nivel de esfuerzo xhigh | Nivel intermedio entre high y max, control fino razonamiento/latencia |
| Memoria del sistema de archivos | Mejor persistencia entre sesiones de trabajo |
| Autonomía reforzada | Verificación de las salidas antes de transmitirlas, seguimiento de instrucciones al pie de la letra |
| Calidad profesional | Interfaces, diapositivas y documentos de mejor calidad |
Benchmarks
| Benchmark | Opus 4.7 | Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|
| SWE-bench Pro | 64.3% | 53.4% | 57.7% | 54.2% |
| SWE-bench Verified | 87.6% | 80.8% | — | 80.6% |
| Terminal-Bench 2.0 | 69.4% | 65.4% | 75.1%* | 68.5% |
| Razonamiento multidisciplinar (con herramientas) | 54.7% | 53.3% | 58.7% | 51.4% |
| Uso de herramientas a escala – MCP-Atlas | 77.3% | 75.8% | 68.1% | 73.9% |
| Computer use – OSWorld Verified | 78.0% | 72.7% | 75.0% | — |
| Razonamiento avanzado – GPQA Diamond | 94.2% | 91.3% | 94.4% | 94.3% |
| Razonamiento visual (con herramientas) | 91.0% | 84.7% | — | — |
* GPT-5.4 : resultado autoinformado con arnés específico
Las mejoras más destacadas se sitúan en SWE-bench Pro (+10.9 puntos), el razonamiento visual (+6.3 puntos con herramientas) y MCP-Atlas (+1.5 puntos) — benchmarks directamente vinculados a usos agénticos.
Precios y disponibilidad
Opus 4.7 está disponible desde hoy a través de la API Claude (identificador claude-opus-4-7), Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry y en todos los productos Claude. El precio es idéntico al de Opus 4.6: 25 de salida.
Dos puntos de atención para los desarrolladores que migran desde Opus 4.6: el nuevo tokenizer puede generar de 1,0× a 1,35× más tokens según el tipo de contenido, y Opus 4.7 produce más tokens de razonamiento en los niveles de esfuerzo altos. Anthropic ha publicado una guía de migración específica.
Opus 4.7 es también el primer modelo en beneficiarse de las nuevas salvaguardas de ciberseguridad del proyecto Glasswing. Un programa de verificación cibernética (Cyber Verification Program) está abierto a profesionales legítimos.
🔗 Artículo oficial de Anthropic
Claude Code v2.1.111 : /ultrareview, auto mode Max, xhigh por defecto
16 de abril — La versión 2.1.111 de Claude Code acompaña el lanzamiento de Opus 4.7 con varias incorporaciones significativas.
| Funcionalidad | Descripción |
|---|---|
/ultrareview | Revisión de código en profundidad en paralelo multiagente. Sin argumento = rama actual; /ultrareview <PR#> para una PR GitHub. 3 intentos gratis para Pro y Max. |
| Auto mode para Max | El auto mode (Claude decide por sí solo los permisos) está ahora disponible para los suscriptores Max con Opus 4.7. |
| Effort xhigh por defecto | El nivel de esfuerzo por defecto sube a xhigh para todos los planes. |
/less-permission-prompts | Escanea los transcripts y propone una lista de autorización priorizada para .claude/settings.json. |
| PowerShell tool | Compatibilidad con PowerShell (despliegue progresivo). Activable mediante CLAUDE_CODE_USE_POWERSHELL_TOOL=1 en Linux/macOS. |
| Planes nombrados | Planes nombrados según el prompt inicial (fix-auth-race-snug-otter.md) en lugar de aleatoriamente. |
| Comandos read-only | cd, ls, cat y los comandos read-only ya no desencadenan una solicitud de permiso. |
La versión 2.1.112 (desplegada la noche del 16 de abril) corrige inmediatamente un error “claude-opus-4-7 is temporarily unavailable” que aparecía en modo auto.
Boris Cherny (@bcherny) también anunció el aumento de los rate limits para todos los suscriptores, para compensar el mayor volumen de tokens de razonamiento de Opus 4.7. Se corrigió un bug de rate limiting en las solicitudes de largo contexto y se restablecieron los límites de 5h y semanales.
GitHub Copilot también integra Opus 4.7 en GA desde hoy, con un despliegue progresivo en VS Code, Visual Studio, el CLI, GitHub Mobile y los demás clientes Copilot. Para Copilot Pro+, sustituirá a Opus 4.5 y 4.6 en las próximas semanas. Se aplica una tarificación promocional (multiplicador 7.5×) hasta el 30 de abril.
🔗 CHANGELOG Claude Code 🔗 Tweet @bcherny 🔗 Claude Opus 4.7 en GitHub Copilot
OpenAI : Codex pasa al computer use, GPT-Rosalind y cyber ecosystem
Codex — computer use en macOS, browser integrado, memoria persistente
16 de abril — OpenAI publica una actualización importante de Codex, utilizada por más de 3 millones de desarrolladores por semana. Esta release amplía Codex mucho más allá del código.
“Codex can now use your computer alongside you, seeing, clicking, and typing with its own cursor.”
🇪🇸 Codex ahora puede usar tu ordenador a tu lado, ver, hacer clic y escribir con su propio cursor. — @OpenAI
Computer use (uso del ordenador) — Varios agentes Codex pueden trabajar simultáneamente en macOS sin interferir con las aplicaciones abiertas. Casos de uso: iterar sobre interfaces (frontend), probar aplicaciones, trabajar en apps sin API expuesta. Disponibilidad en la UE/Reino Unido próximamente.
| Funcionalidad | Descripción |
|---|---|
| Browser integrado | Comentar directamente las páginas web para instruir al agente sobre el desarrollo frontend y los juegos |
| Generación de imágenes | Integración gpt-image-1.5 para crear assets y maquetas en el mismo flujo de trabajo |
| 90+ nuevos plugins | Atlassian Rovo, CircleCI, CodeRabbit, GitLab Issues, Microsoft Suite, Neon, Remotion, Render, Superpowers… |
| Memoria persistente | Preferencias, correcciones y contexto acumulados entre sesiones |
| Automatizaciones programadas | Tareas recurrentes durante días o semanas, con activación automática |
| SSH devboxes | Conexión a servidores remotos (alpha) |
| Pestañas de terminal múltiples | Varios terminales simultáneos |
GPT-Rosalind — primer modelo frontier de ciencias de la vida
16 de abril — OpenAI lanza GPT-Rosalind, su primer modelo frontier dedicado a la biología, al drug discovery y a la medicina traslacional. El nombre es un homenaje a Rosalind Franklin, cuyos trabajos contribuyeron a revelar la estructura del ADN.
GPT-Rosalind está optimizado para la síntesis de literatura científica, la generación de hipótesis, la planificación experimental y el análisis de datos biológicos.
| Benchmark | Resultado |
|---|---|
| BixBench (bioinformática real) | Mejor rendimiento entre los modelos con puntuaciones publicadas |
| LABBench2 | Supera a GPT-5.4 en 6 tareas de 11 |
| Predicción de secuencia ARN (Dyno Therapeutics) | Top 95 percentil de los expertos humanos (best-of-10) |
| Generación de secuencia ARN (Dyno Therapeutics) | ~84 percentil de los expertos humanos (best-of-10) |
Un plugin Life Sciences gratuito para Codex está disponible en GitHub: acceso a más de 50 bases de datos biológicas públicas (genómica humana, proteómica, bioquímica). GPT-Rosalind es accesible en preview de investigación (research preview) para clientes Enterprise cualificados en Estados Unidos a través del programa Trusted Access. El uso no consume los créditos existentes durante la preview.
Socios anunciados: Amgen, Novo Nordisk, Moderna, Thermo Fisher Scientific, NVIDIA, Allen Institute, UCSF School of Pharmacy, Los Alamos National Laboratory.
Cyber defense ecosystem — $10M de créditos API
16 de abril — OpenAI compromete 10 millones de dólares en créditos API para apoyar a los equipos de seguridad open source y a los investigadores de vulnerabilidades. Primeros beneficiarios: Socket, Semgrep, Calif, Trail of Bits.
El programa Trusted Access for Cyber se amplía a nuevas organizaciones: Bank of America, BlackRock, BNY, Citi, Cisco, CrowdStrike, Goldman Sachs, JPMorgan Chase, Morgan Stanley, NVIDIA, Oracle, Zscaler. GPT-5.4-Cyber también se proporciona al Centro estadounidense para los estándares y la innovación en IA (CAISI) y al Instituto de seguridad IA del Reino Unido (UK AISI) para evaluaciones independientes.
Gemini : imágenes personalizadas con Nano Banana 2 y Google Photos
16 de abril — Google presenta nuevas funcionalidades de generación de imágenes personalizadas en la aplicación Gemini, impulsadas por Personal Intelligence (inteligencia personal), Nano Banana 2 y la biblioteca Google Photos del usuario.
Hasta ahora, crear una imagen realmente personal con Gemini requería prompts detallados y fotos subidas manualmente. Personal Intelligence da ahora a Gemini una comprensión implícita del contexto del usuario: basta con formular frases simples como «Dibuja mi casa de ensueño» o «Crea una imagen de mis imprescindibles para una isla desierta», y Gemini completa automáticamente los detalles desde las aplicaciones de Google conectadas.
Al conectar su biblioteca Google Photos, el usuario puede generar imágenes en las que él mismo y sus seres queridos aparecen directamente. Gracias a las etiquetas ya creadas en Photos (personas, animales de compañía), basta una solicitud como «Crea una imagen en claymation de mí y mi familia haciendo nuestra actividad favorita».
| Funcionalidad | Detalle |
|---|---|
| Estilos disponibles | Acuarela, carbón, pintura al óleo, claymation |
| Botón Fuentes | Muestra qué foto se seleccionó automáticamente |
| Refinamiento | Indicar qué estaba incorrecto, elegir otra foto de referencia |
| Privacidad | Gemini NO entrena sobre la biblioteca privada de Google Photos |
| Opt-in | La conexión de las aplicaciones de Google sigue siendo opcional y configurable |
Disponibilidad: despliegue en curso durante unos días para los suscriptores Google AI Plus, Pro y Ultra, por ahora solo en Estados Unidos. Llegada prevista a Gemini en Chrome desktop y a más usuarios.
Gemini CLI v0.38.0
14 de abril — La versión v0.38.0 de Gemini CLI está disponible con varias mejoras de la experiencia en línea de comandos.
| Funcionalidad | Detalle |
|---|---|
| Chapters (flujo narrativo) | Agrupa las interacciones en «capítulos» según la intención y el uso de las herramientas |
| Context Compression Service | Destila inteligentemente el historial para las sesiones largas |
| Aprobaciones persistentes | Aprobar la ejecución de herramientas sin volver a pedirlo cada vez |
| Corrección de parpadeo de la UI | Resolución del renderizado inestable mediante el modo Terminal Buffer |
Perplexity Personal Computer : agente local en Mac
16 de abril — Perplexity lanza Personal Computer, una funcionalidad de agente local integrada en la aplicación Mac.
“Today we’re releasing Personal Computer. Personal Computer integrates with the Perplexity Mac App for secure orchestration across your local files, native apps, and browser. We’re rolling this out to all Perplexity Max subscribers and everyone on the waitlist starting today.”
🇪🇸 Hoy lanzamos Personal Computer. Personal Computer se integra en la aplicación Mac de Perplexity para una orquestación segura de tus archivos locales, aplicaciones nativas y navegador. Desplegamos esto para todos los suscriptores de Perplexity Max y para las personas en lista de espera a partir de hoy. — @perplexity_ai en X
El agente orquesta de forma segura los archivos locales, las aplicaciones nativas y el navegador, sin pasar por la nube para los datos sensibles. El despliegue es progresivo: primero los suscriptores de Perplexity Max, luego la lista de espera.
Se trata de un giro notable para Perplexity: tras construir su reputación sobre la búsqueda web con IA, la empresa se enfrenta ahora a la orquestación local en el puesto de trabajo — un terreno ya explorado por Apple Intelligence y Operator de OpenAI.
GitHub : la commande gh skill en preview publique
16 de abril — GitHub lanza gh skill en preview pública en GitHub CLI (v2.90.0+). Este nuevo comando permite instalar, descubrir, actualizar y publicar agent skills — conjuntos portables de instrucciones, scripts y recursos que configuran el comportamiento de los agentes IA.
gh skill install github/awesome-copilot documentation-writer
gh skill install github/awesome-copilot doc-writer --agent claude-code
gh skill search mcp-apps
gh skill update --all
Los skills funcionan en varias plataformas: GitHub Copilot, Claude Code, Cursor, Codex, Gemini CLI y Antigravity. El comando integra mecanismos de seguridad de cadena de suministro (supply chain): fijación por tag o SHA de commit, releases inmutables y seguimiento de procedencia mediante frontmatter. La especificación abierta está disponible en agentskills.io.
Qwen3.6-35B-A3B open-source y Meta Muse Spark Safety
Qwen3.6-35B-A3B : MoE open-source bajo Apache 2.0
15–16 de abril — Alibaba anuncia la puesta en open source de Qwen3.6-35B-A3B, un modelo MoE (mixture-of-experts) sparse con 35 mil millones de parámetros en total pero solo 3 mil millones de parámetros activos por inferencia.
| Aspecto | Detalle |
|---|---|
| Arquitectura | MoE sparse : 35B parámetros, 3B activos |
| Licencia | Apache 2.0 |
| Multimodal | Nativo (visión + razonamiento) |
| Modos | Thinking / non-thinking |
| Benchmark | Qwen3.6-35B-A3B |
|---|---|
| SWE-bench Verified | 73,4 |
| SWE-bench Multilingual | 67,2 |
| AIME 2026 | 92,7 |
| GPQA | 86,0 |
Disponible en Hugging Face / ModelScope, Qwen Studio y vía la API Alibaba Cloud (qwen3.6-flash). Compatible de forma nativa con Claude Code, Qwen Code y OpenClaw. 🔗 Blog oficial de Qwen
Meta Muse Spark: informe de seguridad publicado
15 de abril — Meta AI publica el informe de seguridad y preparación (Safety & Preparedness Report) de Muse Spark, su primer modelo multimodal sin open-weights desarrollado por Meta Superintelligence Labs.
| Aspecto | Detalle |
|---|---|
| Marco utilizado | Meta Advanced AI Scaling Framework |
| Riesgos evaluados | Químico/biológico, ciberseguridad, pérdida de control |
| Resultado chem/bio | Riesgo inicialmente «potencialmente alto» → mitigaciones validadas → riesgo residual aceptable |
Este informe marca un hito notable: Meta sigue ahora un procedimiento formal de evaluación de seguridad antes del despliegue para sus modelos avanzados, similar a los enfoques de Anthropic y OpenAI.
🔗 Informe de seguridad de Muse Spark
Medios y diversas actualizaciones
Runway publica dos actualizaciones el 16 de abril: Seedance 2.0 pasa a renderizado 1080p, y Runway Characters integra ahora la animación mediante script de texto (elegir un personaje, escribir el script, generar). NVIDIA está presente en el NAB Show 2026 para demostrar la IA en la producción media, la interacción con los fans y la monetización de contenidos.
Grok iOS recibe un indicador visual animado en el modo de voz: un pequeño círculo indica ahora que Grok está escuchando activamente.
🔗 Runway — Seedance 2.0 en 1080p 🔗 Runway Characters — animación por script
Lo que significa
El 16 de abril ilustra una jornada de convergencia agentiva en todos los frentes: Claude Opus 4.7, Codex con computer use, Perplexity Personal Computer y gh skill comparten la misma lógica: agentes capaces de actuar sobre el sistema local (archivos, aplicaciones, ordenador), coordinados entre varias plataformas mediante estándares portables.
El comando gh skill es especialmente estructurante: al establecer una especificación abierta de instalación inter-agentes (Copilot, Claude Code, Cursor, Codex, Gemini CLI), GitHub establece una infraestructura común que podría convertirse en el npm install del mundo agentivo.
GPT-Rosalind marca a su vez una evolución en la estrategia de OpenAI: tras los modelos generalistas, la empresa comienza a crear modelos frontier especializados por dominio, un enfoque que recuerda la diversificación por verticales ya explorada por Google DeepMind en biología computacional.
Fuentes
- Anthropic — Presentamos Claude Opus 4.7
- Tweet @claudeai — Opus 4.7 GA
- Tweet @bcherny — Límites de tasa aumentados
- CHANGELOG Claude Code (GitHub)
- Registro de cambios de GitHub — Claude Opus 4.7 en Copilot
- OpenAI — Codex para casi todo
- OpenAI — Presentamos GPT-Rosalind
- OpenAI — Acelerando el ecosistema de defensa cibernética
- blog.google — Gemini: imágenes personalizadas con Nano Banana 2
- Registro de cambios de Gemini CLI
- perplexity.ai/computer
- Tweet @perplexity_ai — Personal Computer
- Registro de cambios de GitHub — gh skill
- Blog de Qwen — Qwen3.6-35B-A3B
- Meta AI — Informe de seguridad de Muse Spark
- Tweet @runwayml — Seedance 2.0 1080p
- Tweet @runwayml — Script de Runway Characters
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator