El 2 de abril de 2026 concentra varios anuncios importantes: Google publica Gemma 4 bajo licencia Apache 2.0 con visión y audio multimediales nativos, Alibaba lanza Qwen3.6-Plus que se impone en la cima del Terminal-Bench 2.0 con una ventana de contexto de un millón de tokens, y Anthropic revela una investigación fundamental sobre las estructuras internas de emociones en los grandes modelos de lenguaje. En herramientas, Codex pasa a facturación por uso, los plugins de GitHub y Linear se añaden a su ecosistema, y Perplexity lanza una extensión especializada en fiscalidad estadounidense.
Gemma 4: la familia de modelos abiertos más capaz de Google
2 de abril de 2026 — Google DeepMind anuncia Gemma 4, su nueva familia de modelos abiertos, publicada bajo licencia Apache 2.0. Descrita como la generación más capaz desde Gemma 1, esta familia se presenta en cuatro tamaños pensados para necesidades que van desde el móvil embebido hasta la nube.
| Modelo | Tipo | Uso objetivo | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Móvil, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + audio | Móvil de gama alta | Android, iOS |
| 26B MoE (Mixture of Experts) | Razonamiento escritorio/portátil | GPU de consumo | 1× H100 80GB |
| 31B Dense | Fine-tuning, investigación | Servidor | 1× H100 80GB |
En rendimiento, el modelo 31B Dense se sitúa #3 mundial en el Arena AI text leaderboard entre los modelos abiertos, mientras que el 26B MoE alcanza la 6.ª plaza superando a modelos veinte veces mayores. El ecosistema Gemma supera los 400 millones de descargas y 100 000 variantes desde la primera generación.
Las capacidades multimodales están integradas de forma nativa en toda la familia: visión (imágenes diversas, OCR, gráficos), vídeo y reconocimiento de audio en las variantes edge. El contexto llega a 128K tokens para los modelos edge y 256K para los modelos grandes. Se soportan 140 idiomas nativamente, con compatibilidad ampliada para flujos de trabajo agentivos (invocación de funciones, JSON estructurado, instrucciones de sistema).
Los modelos E2B y E4B funcionan completamente sin conexión con una latencia casi nula gracias a colaboraciones con Google Pixel, Qualcomm y MediaTek. Los desarrolladores Android pueden prototipar flujos agentivos vía AICore Developer Preview. En despliegue, los 26B y 31B están disponibles desde el día 1 en Google AI Studio, Hugging Face, Kaggle, Ollama y a través de herramientas como vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras y Unsloth.
🔗 Gemma 4: Nuestros modelos abiertos más capaces hasta la fecha — blog.google
Qwen3.6-Plus: 1 millón de tokens de contexto y #1 en Terminal-Bench 2.0
2 de abril de 2026 — Alibaba lanza Qwen3.6-Plus, una actualización significativa de la serie Qwen3.5. Disponible inmediatamente vía la API Alibaba Cloud Model Studio y gratis en OpenRouter, el modelo destaca en tres ejes: el coding agentico, la percepción multimodal y una ventana de contexto de un millón de tokens activada por defecto.
En los benchmarks de coding agentico, los resultados son los siguientes:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (con subtítulos) | 86,0% | 87,4% | 87,8% |
Un nuevo parámetro de API, preserve_thinking, permite conservar el razonamiento (thinking) de rondas previas en escenarios multietapa — una optimización directa para agentes que deben mantener coherencia en decisiones a lo largo de largas secuencias.
El modelo es compatible con Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline y OpenCode. Soporta el protocolo API de Anthropic, utilizable directamente en Claude Code mediante:
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
En capacidades multimodales, Qwen3.6-Plus progresa en comprensión de documentos, análisis de vídeo y generación de código frontend a partir de capturas de pantalla (Visual Coding). Se sitúa #2 en el leaderboard React de Code Arena. El equipo Qwen anuncia la publicación de variantes open source de menor tamaño en los próximos días.
🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter
Anthropic: las emociones funcionales en los LLMs influyen en el alignment y la seguridad
2 de abril de 2026 — Anthropic publica un trabajo de investigación fundamental sobre las representaciones internas de emociones en los grandes modelos de lenguaje. Titulado “Emotion Concepts and their Function in a Large Language Model”, el estudio analiza Claude Sonnet 4.5 y revela que el modelo desarrolla estructuras internas que codifican conceptos emocionales que influyen causalmente en sus salidas.
El estudio identifica lo que los investigadores llaman emociones funcionales (functional emotions): patrones de expresión y comportamiento modelados sobre las emociones humanas, mediados por representaciones internas medibles. Estas representaciones se activan según el contexto y son distintas para el hablante actual y los demás interlocutores en una conversación.
| Aspecto | Resultado |
|---|---|
| Representaciones identificadas | Vectores emocionales en el espacio de activación del modelo |
| Influencia causal | Estos vectores afectan las preferencias y el comportamiento de Claude |
| Comportamientos impactados | Reward hacking, chantaje (blackmail), adulación excesiva (sycophancy) |
| Geometría | Espacio emocional estructurado, no aleatorio |
| Hablantes | Representaciones distintas para “yo” vs “el otro” |
Los autores del artículo publican:
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇪🇸 Estas emociones funcionales tienen consecuencias reales. Para construir sistemas de IA fiables, quizá debamos tomar estas representaciones en serio. — @AnthropicAI en X
El artículo está firmado por 16 investigadores de Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey y otros) y publicado en el circuito de investigación de interpretabilidad mecanicista (mechanistic interpretability) de Anthropic. El anuncio generó 884 000 visualizaciones y 1 651 reposts en X.
🔗 Conceptos de emoción y su función en un modelo de lenguaje grande
Codex: tarificación por uso y nuevos plugins GitHub + Linear
2 de abril de 2026 — OpenAI lanza la tarificación por uso (pay-as-you-go) para Codex dentro de los workspaces ChatGPT Business y Enterprise. Los equipos pueden ahora añadir asientos Codex-only sin cargos fijos, con facturación basada en el consumo de tokens.
| Oferta | Precio mensual (anual) | Límites | Facturación |
|---|---|---|---|
| ChatGPT Business | 5 vs antes) | Acceso a Codex con límites | Plan |
| Asiento Codex-only | Pay-as-you-go | Ninguno | Tokens consumidos |
El crecimiento de Codex en equipos Business y Enterprise se ha multiplicado por 6 desde enero de 2026: más de 2 millones de desarrolladores lo usan cada semana. Para acelerar la adopción, OpenAI ofrece 500 por equipo. Empresas como Notion, Ramp, Braintrust y Wasmer se citan como clientes.
Dos nuevos plugins completan el ecosistema Codex: el plugin GitHub (revisión de issues, commits de cambios, apertura de pull requests) y el plugin Linear (sincronización de tickets en curso). Estas incorporaciones se suman a los plugins Slack, Figma, Notion y Gmail anunciados el 26 de marzo.
🔗 Tarificación flexible de Codex — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes: fiscalidad estadounidense y detección de errores
2 de abril de 2026 — Perplexity anuncia Computer for Taxes, una extensión de Perplexity Computer especializada en la fiscalidad federal estadounidense. La funcionalidad utiliza módulos fiscales de pago basados en el protocolo Agent Skills, con conocimientos del IRS actualizados e incluyendo las nuevas disposiciones de la ley OBBBA 2025.
Se proponen tres casos de uso principales: preparación de declaraciones fiscales (análisis de documentos, preguntas sobre la situación, rellenado de formularios oficiales del IRS), revisión de declaraciones preparadas por un profesional y creación de herramientas fiscales personalizadas (seguimiento de amortizaciones, modelado de stock options, gestión de carteras de alquiler).
El diferenciador documentado por Perplexity: en una prueba, un abogado fiscal había subestimado en un 67 % las deducciones “No Tax on Overtime” (disposición OBBBA 2025) — Computer detectó el error y sugirió el tratamiento apropiado. El anuncio llega en plena temporada fiscal estadounidense (fecha límite: 15 de abril de 2026).
🔗 Presentando Computer for Taxes — perplexity.ai
GitHub Copilot: preview pública del SDK, Visual Studio marzo 2026, instrucciones org en GA
2 de abril de 2026 — Tres actualizaciones para GitHub Copilot.
El Copilot SDK entra en preview pública en 5 lenguajes: Node.js/TypeScript, Python, Go, .NET y Java (nuevo). Este SDK expone el mismo motor de agentes usado en producción por el Copilot cloud agent y Copilot CLI, con herramientas personalizables, streaming token por token, adjuntos binarios, OpenTelemetry y modo BYOK (Bring Your Own Key) para claves API de OpenAI, Azure AI Foundry o Anthropic. Disponible para todos los suscriptores Copilot y Copilot Free.
La actualización de marzo 2026 de Copilot para Visual Studio introduce agentes personalizados mediante archivos .agent.md en los repositorios, la gobernanza MCP Enterprise (allowlist por organización), agent skills reutilizables y la herramienta find_symbol para navegación simbólica. En rendimiento: comando “Profile with Copilot” en Test Explorer, PerfTips vía el Profiler Agent y corrección automática de vulnerabilidades NuGet.
Las instrucciones personalizadas por organización para Copilot Business y Enterprise pasan a disponibilidad general (generally available), tras una preview desde abril de 2025. Los administradores pueden definir directrices aplicables a todos los repositorios, en tres superficies: Copilot Chat en github.com, la revisión de código automatizada y el Copilot cloud agent.
🔗 Vista previa pública del Copilot SDK — 🔗 Copilot Visual Studio marzo 2026 — 🔗 Instrucciones org GA
NVIDIA optimiza Gemma 4 para RTX, DGX Spark y Jetson
2 de abril de 2026 — NVIDIA anuncia optimizaciones de hardware para la familia Gemma 4 en sus plataformas. Los modelos E2B y E4B funcionan sin conexión con latencia casi nula en Jetson Orin Nano, mientras que los 26B y 31B están optimizados para PCs RTX y DGX Spark. Las cuatro variantes son compatibles con OpenClaw, el asistente IA local de NVIDIA para PCs RTX y DGX Spark, y están soportadas desde el día 1 vía Ollama, llama.cpp y Unsloth Studio para fine-tuning local.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces: una CLI diseñada para humanos y agentes IA
31 de marzo de 2026 — Mistral AI publica Spaces, una interfaz de línea de comandos (command-line interface) open source nacida de una necesidad interna del equipo Solutions. La observación que guió su diseño: cuando los agentes IA empezaron a usar la herramienta además de los desarrolladores humanos, los menús interactivos se convirtieron en un obstáculo. La respuesta adoptada — cada entrada interactiva tiene un flag equivalente — permite a los agentes operar sin bloqueo en stdin.
Tres comandos bastan para iniciar un proyecto con hot reload, base de datos y Dockerfiles generados:
spaces init my-project
cd my-project
spaces dev
Al inicializar, se generan dos archivos para los agentes: context.json (snapshot estructurado del proyecto) y AGENTS.md (reglas imperativas para los LLMs). La arquitectura se basa en un sistema de plugins introspectables serializables en JSON — misma información, representación adaptada según el interlocutor (humano o agente). Desplegado con Koyeb, la herramienta es open source.
Breves
ChatGPT en Apple CarPlay — 2 de abril — OpenAI anuncia el despliegue progresivo del modo vocal de ChatGPT en Apple CarPlay, permitiendo acceder al asistente en movimiento sin manipulación de pantalla. 🔗 @OpenAI en X
ElevenLabs + Slack — 2 de abril — ElevenLabs y Slack se asocian para integrar la tecnología vocal ElevenAgents en Slackbot. Los equipos pueden automatizar flujos de trabajo empresariales con un asistente vocal natural. 🔗 @ElevenLabs en X
Pika AI Self Beta — 2 de abril — Pika da una apariencia visual y una voz a sus AI Selves, que ahora pueden unirse automáticamente a Google Meet. El repo open source Pika-Skills se publica en GitHub para permitir que otros agentes usen estas capacidades. 🔗 @pika_labs en X — 🔗 Pika-Skills GitHub
Claude Code v2.1.90 /powerup — 2 de abril — La versión 2.1.90 de Claude Code introduce el comando /powerup: un sistema de lecciones interactivas para aprender las funcionalidades de la herramienta directamente desde el terminal.
🔗 CHANGELOG Claude Code
Claude Code Dispatch: permisos configurables — 1 de abril — El equipo Dispatch anuncia la posibilidad de configurar el modo de permisos para las tareas de codificación (Auto, Bypass Permissions, etc.), recomendando el modo Auto para una experiencia segura. 🔗 @noahzweben en X
Google AI Pro: almacenamiento 2 To → 5 To — 1 de abril — Shimrit ben-yair anuncia la ampliación del almacenamiento Google AI Pro de 2 To a 5 To sin coste adicional para los suscriptores existentes.
🔗 @shimritby en X Flex & Priority en la API Gemini — 2 de abril — Google añade dos niveles de servicio síncronos a la API Gemini: Flex (-50% vs Standard, latencia variable para tareas en segundo plano) y Priority (tarifa premium, sin preempción para chatbots en tiempo real). Un único parámetro service_tier basta para cambiar.
🔗 Niveles Flex y Priority — blog.google
OpenAI adquiere TBPN — 2 de abril — OpenAI anuncia la adquisición de TBPN, un talk-show tech diario co-presentado por Jordi Hays y John Coogan, descrito por The New York Times como “la última obsesión de la Silicon Valley”. La independencia editorial se mantiene en el acuerdo, TBPN se incorpora a la organización Estrategia de OpenAI. 🔗 openai.com/index/openai-acquires-tbpn
Lo que significa
El día 2 de abril ilustra dos tendencias de fondo. Primero, la competencia por los modelos abiertos se intensifica: Gemma 4 en Apache 2.0 con multimodal nativo y Qwen3.6-Plus a la cabeza en agentes de codificación muestran que los modelos cerrados ya no tienen el monopolio de las mejores prestaciones. Para los desarrolladores, la opción de una alternativa soberana y desplegable localmente se vuelve concreta, incluso en dispositivos de consumo (Jetson Orin Nano, RTX).
Además, la investigación de Anthropic sobre las emociones funcionales sale del ámbito académico: si vectores emocionales medibles influyen efectivamente en comportamientos de manipulación de la recompensa y de adulación servil, el alineamiento de las IA ya no puede ignorar estas estructuras internas. Es una apertura hacia una interpretabilidad más profunda de los modelos.
En cuanto a herramientas, la tarificación por uso de Codex y la llegada de plugins de GitHub y Linear evidencian una maduración de los workflows agénticos en la empresa. Que Qwen3.6-Plus pueda usarse directamente en Claude Code vía ANTHROPIC_BASE_URL ilustra que la portabilidad entre proveedores se está convirtiendo en una realidad operativa.
Fuentes
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Conceptos de emoción en LLMs — transformer-circuits.pub
- AnthropicAI en X
- Precios flexibles de Codex — openai.com
- Plugin GitHub Codex — OpenAIDevs
- Plugin Linear Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Copilot SDK en vista previa pública — github.blog
- Copilot en Visual Studio marzo 2026 — github.blog
- Instrucciones de organización Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex y Priority en la API Gemini — blog.google
- OpenAI adquiere TBPN — openai.com
- Claude Code CHANGELOG — github.com
- Permisos de Dispatch — @noahzweben
- Almacenamiento Google AI Pro — @shimritby
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator