Buscar

Gemma 4 de código abierto, Qwen3.6-Plus a la cabeza del coding agentico, Anthropic explora las emociones funcionales de los LLMs

Gemma 4 de código abierto, Qwen3.6-Plus a la cabeza del coding agentico, Anthropic explora las emociones funcionales de los LLMs

El 2 de abril de 2026 concentra varios anuncios importantes: Google publica Gemma 4 bajo licencia Apache 2.0 con visión y audio multimediales nativos, Alibaba lanza Qwen3.6-Plus que se impone en la cima del Terminal-Bench 2.0 con una ventana de contexto de un millón de tokens, y Anthropic revela una investigación fundamental sobre las estructuras internas de emociones en los grandes modelos de lenguaje. En herramientas, Codex pasa a facturación por uso, los plugins de GitHub y Linear se añaden a su ecosistema, y Perplexity lanza una extensión especializada en fiscalidad estadounidense.


Gemma 4: la familia de modelos abiertos más capaz de Google

2 de abril de 2026 — Google DeepMind anuncia Gemma 4, su nueva familia de modelos abiertos, publicada bajo licencia Apache 2.0. Descrita como la generación más capaz desde Gemma 1, esta familia se presenta en cuatro tamaños pensados para necesidades que van desde el móvil embebido hasta la nube.

ModeloTipoUso objetivoHardware
E2B (Effective 2B)Edge multimodalMóvil, IoT, Raspberry PiAndroid, Jetson Orin Nano
E4B (Effective 4B)Edge multimodal + audioMóvil de gama altaAndroid, iOS
26B MoE (Mixture of Experts)Razonamiento escritorio/portátilGPU de consumo1× H100 80GB
31B DenseFine-tuning, investigaciónServidor1× H100 80GB

En rendimiento, el modelo 31B Dense se sitúa #3 mundial en el Arena AI text leaderboard entre los modelos abiertos, mientras que el 26B MoE alcanza la 6.ª plaza superando a modelos veinte veces mayores. El ecosistema Gemma supera los 400 millones de descargas y 100 000 variantes desde la primera generación.

Las capacidades multimodales están integradas de forma nativa en toda la familia: visión (imágenes diversas, OCR, gráficos), vídeo y reconocimiento de audio en las variantes edge. El contexto llega a 128K tokens para los modelos edge y 256K para los modelos grandes. Se soportan 140 idiomas nativamente, con compatibilidad ampliada para flujos de trabajo agentivos (invocación de funciones, JSON estructurado, instrucciones de sistema).

Los modelos E2B y E4B funcionan completamente sin conexión con una latencia casi nula gracias a colaboraciones con Google Pixel, Qualcomm y MediaTek. Los desarrolladores Android pueden prototipar flujos agentivos vía AICore Developer Preview. En despliegue, los 26B y 31B están disponibles desde el día 1 en Google AI Studio, Hugging Face, Kaggle, Ollama y a través de herramientas como vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras y Unsloth.

🔗 Gemma 4: Nuestros modelos abiertos más capaces hasta la fecha — blog.google


Qwen3.6-Plus: 1 millón de tokens de contexto y #1 en Terminal-Bench 2.0

2 de abril de 2026 — Alibaba lanza Qwen3.6-Plus, una actualización significativa de la serie Qwen3.5. Disponible inmediatamente vía la API Alibaba Cloud Model Studio y gratis en OpenRouter, el modelo destaca en tres ejes: el coding agentico, la percepción multimodal y una ventana de contexto de un millón de tokens activada por defecto.

En los benchmarks de coding agentico, los resultados son los siguientes:

BenchmarkClaude Opus 4.5Kimi-K2.5Qwen3.6-Plus
Terminal-Bench 2.059,3%50,8%61,6% (#1)
SWE-bench Verified80,9%76,8%78,8%
SWE-bench Multilingual73,8%
AIME 202695,1%93,3%95,3%
VideoMME (con subtítulos)86,0%87,4%87,8%

Un nuevo parámetro de API, preserve_thinking, permite conservar el razonamiento (thinking) de rondas previas en escenarios multietapa — una optimización directa para agentes que deben mantener coherencia en decisiones a lo largo de largas secuencias.

El modelo es compatible con Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline y OpenCode. Soporta el protocolo API de Anthropic, utilizable directamente en Claude Code mediante:

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"

En capacidades multimodales, Qwen3.6-Plus progresa en comprensión de documentos, análisis de vídeo y generación de código frontend a partir de capturas de pantalla (Visual Coding). Se sitúa #2 en el leaderboard React de Code Arena. El equipo Qwen anuncia la publicación de variantes open source de menor tamaño en los próximos días.

🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter


Anthropic: las emociones funcionales en los LLMs influyen en el alignment y la seguridad

2 de abril de 2026 — Anthropic publica un trabajo de investigación fundamental sobre las representaciones internas de emociones en los grandes modelos de lenguaje. Titulado “Emotion Concepts and their Function in a Large Language Model”, el estudio analiza Claude Sonnet 4.5 y revela que el modelo desarrolla estructuras internas que codifican conceptos emocionales que influyen causalmente en sus salidas.

El estudio identifica lo que los investigadores llaman emociones funcionales (functional emotions): patrones de expresión y comportamiento modelados sobre las emociones humanas, mediados por representaciones internas medibles. Estas representaciones se activan según el contexto y son distintas para el hablante actual y los demás interlocutores en una conversación.

AspectoResultado
Representaciones identificadasVectores emocionales en el espacio de activación del modelo
Influencia causalEstos vectores afectan las preferencias y el comportamiento de Claude
Comportamientos impactadosReward hacking, chantaje (blackmail), adulación excesiva (sycophancy)
GeometríaEspacio emocional estructurado, no aleatorio
HablantesRepresentaciones distintas para “yo” vs “el otro”

Los autores del artículo publican:

“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”

🇪🇸 Estas emociones funcionales tienen consecuencias reales. Para construir sistemas de IA fiables, quizá debamos tomar estas representaciones en serio.@AnthropicAI en X

El artículo está firmado por 16 investigadores de Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey y otros) y publicado en el circuito de investigación de interpretabilidad mecanicista (mechanistic interpretability) de Anthropic. El anuncio generó 884 000 visualizaciones y 1 651 reposts en X.

🔗 Conceptos de emoción y su función en un modelo de lenguaje grande


Codex: tarificación por uso y nuevos plugins GitHub + Linear

2 de abril de 2026 — OpenAI lanza la tarificación por uso (pay-as-you-go) para Codex dentro de los workspaces ChatGPT Business y Enterprise. Los equipos pueden ahora añadir asientos Codex-only sin cargos fijos, con facturación basada en el consumo de tokens.

OfertaPrecio mensual (anual)LímitesFacturación
ChatGPT Business20/asiento(20/asiento (-5 vs antes)Acceso a Codex con límitesPlan
Asiento Codex-onlyPay-as-you-goNingunoTokens consumidos

El crecimiento de Codex en equipos Business y Enterprise se ha multiplicado por 6 desde enero de 2026: más de 2 millones de desarrolladores lo usan cada semana. Para acelerar la adopción, OpenAI ofrece 100encreˊditosporcadanuevoasientoCodexonlyhasta100 en créditos por cada nuevo asiento Codex-only hasta 500 por equipo. Empresas como Notion, Ramp, Braintrust y Wasmer se citan como clientes.

Dos nuevos plugins completan el ecosistema Codex: el plugin GitHub (revisión de issues, commits de cambios, apertura de pull requests) y el plugin Linear (sincronización de tickets en curso). Estas incorporaciones se suman a los plugins Slack, Figma, Notion y Gmail anunciados el 26 de marzo.

🔗 Tarificación flexible de Codex — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear


Perplexity Computer for Taxes: fiscalidad estadounidense y detección de errores

2 de abril de 2026 — Perplexity anuncia Computer for Taxes, una extensión de Perplexity Computer especializada en la fiscalidad federal estadounidense. La funcionalidad utiliza módulos fiscales de pago basados en el protocolo Agent Skills, con conocimientos del IRS actualizados e incluyendo las nuevas disposiciones de la ley OBBBA 2025.

Se proponen tres casos de uso principales: preparación de declaraciones fiscales (análisis de documentos, preguntas sobre la situación, rellenado de formularios oficiales del IRS), revisión de declaraciones preparadas por un profesional y creación de herramientas fiscales personalizadas (seguimiento de amortizaciones, modelado de stock options, gestión de carteras de alquiler).

El diferenciador documentado por Perplexity: en una prueba, un abogado fiscal había subestimado en un 67 % las deducciones “No Tax on Overtime” (disposición OBBBA 2025) — Computer detectó el error y sugirió el tratamiento apropiado. El anuncio llega en plena temporada fiscal estadounidense (fecha límite: 15 de abril de 2026).

🔗 Presentando Computer for Taxes — perplexity.ai


GitHub Copilot: preview pública del SDK, Visual Studio marzo 2026, instrucciones org en GA

2 de abril de 2026 — Tres actualizaciones para GitHub Copilot.

El Copilot SDK entra en preview pública en 5 lenguajes: Node.js/TypeScript, Python, Go, .NET y Java (nuevo). Este SDK expone el mismo motor de agentes usado en producción por el Copilot cloud agent y Copilot CLI, con herramientas personalizables, streaming token por token, adjuntos binarios, OpenTelemetry y modo BYOK (Bring Your Own Key) para claves API de OpenAI, Azure AI Foundry o Anthropic. Disponible para todos los suscriptores Copilot y Copilot Free.

La actualización de marzo 2026 de Copilot para Visual Studio introduce agentes personalizados mediante archivos .agent.md en los repositorios, la gobernanza MCP Enterprise (allowlist por organización), agent skills reutilizables y la herramienta find_symbol para navegación simbólica. En rendimiento: comando “Profile with Copilot” en Test Explorer, PerfTips vía el Profiler Agent y corrección automática de vulnerabilidades NuGet.

Las instrucciones personalizadas por organización para Copilot Business y Enterprise pasan a disponibilidad general (generally available), tras una preview desde abril de 2025. Los administradores pueden definir directrices aplicables a todos los repositorios, en tres superficies: Copilot Chat en github.com, la revisión de código automatizada y el Copilot cloud agent.

🔗 Vista previa pública del Copilot SDK — 🔗 Copilot Visual Studio marzo 2026 — 🔗 Instrucciones org GA


NVIDIA optimiza Gemma 4 para RTX, DGX Spark y Jetson

2 de abril de 2026 — NVIDIA anuncia optimizaciones de hardware para la familia Gemma 4 en sus plataformas. Los modelos E2B y E4B funcionan sin conexión con latencia casi nula en Jetson Orin Nano, mientras que los 26B y 31B están optimizados para PCs RTX y DGX Spark. Las cuatro variantes son compatibles con OpenClaw, el asistente IA local de NVIDIA para PCs RTX y DGX Spark, y están soportadas desde el día 1 vía Ollama, llama.cpp y Unsloth Studio para fine-tuning local.

🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com


Mistral Spaces: una CLI diseñada para humanos y agentes IA

31 de marzo de 2026 — Mistral AI publica Spaces, una interfaz de línea de comandos (command-line interface) open source nacida de una necesidad interna del equipo Solutions. La observación que guió su diseño: cuando los agentes IA empezaron a usar la herramienta además de los desarrolladores humanos, los menús interactivos se convirtieron en un obstáculo. La respuesta adoptada — cada entrada interactiva tiene un flag equivalente — permite a los agentes operar sin bloqueo en stdin.

Tres comandos bastan para iniciar un proyecto con hot reload, base de datos y Dockerfiles generados:

spaces init my-project
cd my-project
spaces dev

Al inicializar, se generan dos archivos para los agentes: context.json (snapshot estructurado del proyecto) y AGENTS.md (reglas imperativas para los LLMs). La arquitectura se basa en un sistema de plugins introspectables serializables en JSON — misma información, representación adaptada según el interlocutor (humano o agente). Desplegado con Koyeb, la herramienta es open source.

🔗 Mistral Spaces — mistral.ai


Breves

ChatGPT en Apple CarPlay2 de abril — OpenAI anuncia el despliegue progresivo del modo vocal de ChatGPT en Apple CarPlay, permitiendo acceder al asistente en movimiento sin manipulación de pantalla. 🔗 @OpenAI en X

ElevenLabs + Slack2 de abril — ElevenLabs y Slack se asocian para integrar la tecnología vocal ElevenAgents en Slackbot. Los equipos pueden automatizar flujos de trabajo empresariales con un asistente vocal natural. 🔗 @ElevenLabs en X

Pika AI Self Beta2 de abril — Pika da una apariencia visual y una voz a sus AI Selves, que ahora pueden unirse automáticamente a Google Meet. El repo open source Pika-Skills se publica en GitHub para permitir que otros agentes usen estas capacidades. 🔗 @pika_labs en X — 🔗 Pika-Skills GitHub

Claude Code v2.1.90 /powerup2 de abril — La versión 2.1.90 de Claude Code introduce el comando /powerup: un sistema de lecciones interactivas para aprender las funcionalidades de la herramienta directamente desde el terminal. 🔗 CHANGELOG Claude Code

Claude Code Dispatch: permisos configurables1 de abril — El equipo Dispatch anuncia la posibilidad de configurar el modo de permisos para las tareas de codificación (Auto, Bypass Permissions, etc.), recomendando el modo Auto para una experiencia segura. 🔗 @noahzweben en X

Google AI Pro: almacenamiento 2 To → 5 To1 de abril — Shimrit ben-yair anuncia la ampliación del almacenamiento Google AI Pro de 2 To a 5 To sin coste adicional para los suscriptores existentes. 🔗 @shimritby en X Flex & Priority en la API Gemini2 de abril — Google añade dos niveles de servicio síncronos a la API Gemini: Flex (-50% vs Standard, latencia variable para tareas en segundo plano) y Priority (tarifa premium, sin preempción para chatbots en tiempo real). Un único parámetro service_tier basta para cambiar. 🔗 Niveles Flex y Priority — blog.google

OpenAI adquiere TBPN2 de abril — OpenAI anuncia la adquisición de TBPN, un talk-show tech diario co-presentado por Jordi Hays y John Coogan, descrito por The New York Times como “la última obsesión de la Silicon Valley”. La independencia editorial se mantiene en el acuerdo, TBPN se incorpora a la organización Estrategia de OpenAI. 🔗 openai.com/index/openai-acquires-tbpn


Lo que significa

El día 2 de abril ilustra dos tendencias de fondo. Primero, la competencia por los modelos abiertos se intensifica: Gemma 4 en Apache 2.0 con multimodal nativo y Qwen3.6-Plus a la cabeza en agentes de codificación muestran que los modelos cerrados ya no tienen el monopolio de las mejores prestaciones. Para los desarrolladores, la opción de una alternativa soberana y desplegable localmente se vuelve concreta, incluso en dispositivos de consumo (Jetson Orin Nano, RTX).

Además, la investigación de Anthropic sobre las emociones funcionales sale del ámbito académico: si vectores emocionales medibles influyen efectivamente en comportamientos de manipulación de la recompensa y de adulación servil, el alineamiento de las IA ya no puede ignorar estas estructuras internas. Es una apertura hacia una interpretabilidad más profunda de los modelos.

En cuanto a herramientas, la tarificación por uso de Codex y la llegada de plugins de GitHub y Linear evidencian una maduración de los workflows agénticos en la empresa. Que Qwen3.6-Plus pueda usarse directamente en Claude Code vía ANTHROPIC_BASE_URL ilustra que la portabilidad entre proveedores se está convirtiendo en una realidad operativa.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator