El 13 de abril de 2026, GitHub lanza la función de control remoto (remote control) para las sesiones de Copilot CLI, lo que permite controlar un terminal desde la web o un teléfono mediante un simple código QR. MiniMax publica M2.7, un modelo agente disponible en ModelScope con un ecosistema cloud operativo desde el primer día. Alibaba pone a disposición la API de Qwen3.5-Omni para desarrolladores de todo el mundo, y Google DeepMind anuncia que Gemini 3.1 Flash Live (Thinking) ocupa ahora el primer puesto del ranking τ-Voice para agentes de voz.
GitHub Copilot CLI — Control remoto desde la web y el móvil
13 de abril — GitHub lanza copilot --remote en vista previa pública: una sesión de Copilot CLI en curso ahora puede supervisarse y controlarse desde GitHub.com o desde la aplicación GitHub Mobile, sin acceso directo a la máquina.
El funcionamiento es simple: al iniciar una sesión remota, el CLI muestra un enlace y un código QR. Al acceder a ese enlace desde un navegador o un teléfono, el usuario entra en la interfaz de la sesión en curso. La sincronización es bidireccional: las acciones realizadas en la web o en el móvil se reflejan en el terminal, y viceversa.
| Función | Detalle |
|---|---|
| Inicio | copilot --remote o /remote en una sesión existente |
| Acceso | Enlace + código QR mostrado por el CLI |
| Aplicaciones | GitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta) |
| Sincronización | Bidireccional en tiempo real |
| Privacidad | Sesión privada, visible únicamente para el usuario que la inició |
| Mantener sesión | Comando /keep-alive para evitar la suspensión durante tareas largas |
Todas las funciones habituales del CLI siguen accesibles de forma remota: control en mitad de sesión (steering), revisión y modificación de planes, cambio de modo (plan / interactivo / autopilot), aprobación o rechazo de permisos, respuesta a las preguntas ask_user.
Nota para empresas: los usuarios de Copilot Business o Enterprise necesitan que un administrador active las políticas de control remoto y de CLI antes de su uso.
MiniMax M2.7 — Modelo agente open-source con ecosistema cloud desde el día 0
12 de abril — MiniMax publica M2.7, un LLM con arquitectura agente disponible en ModelScope, con integración vLLM operativa desde el primer día.
Los resultados publicados sitúan a M2.7 al nivel de los mejores modelos de programación disponibles:
| Benchmark | Puntuación de M2.7 |
|---|---|
| SWE-Pro | 56,22% (igual que GPT-5.3-Codex) |
| Terminal Bench 2 | 57,0% |
El modelo está diseñado para la orquestación multiagente (Agent Teams), la programación avanzada y la automatización de tareas en línea de comandos. Está disponible de inmediato a través de Together AI (serverless y dedicado) y Fireworks AI.
A tener en cuenta: MiniMax aclaró después de la publicación que M2.7 no es estrictamente open-source en el sentido de la licencia; el modelo fue republicado con condiciones de uso modificadas.
🔗 Anuncio open-source en ModelScope 🔗 Compatibilidad vLLM desde el día 0 🔗 Disponibilidad en Together AI
API de Qwen3.5-Omni — Disponibilidad internacional
13 de abril — Tongyi Lab (Alibaba) anuncia la disponibilidad internacional de la API de Qwen3.5-Omni a través de Alibaba Cloud Model Studio. El modelo qwen3.5-omni-plus está accesible de inmediato con una clave API.
Presentado en un artículo de investigación el 29 de marzo de 2026, Qwen3.5-Omni es un modelo omnimodal nativo: procesa texto, imágenes, audio y vídeo en una sola inferencia, sin pipeline de varias etapas. Dispone de dos modos de funcionamiento — Thinker (razonamiento) y Talker (conversación por voz) — mediante una arquitectura híbrida.
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇪🇸 La API de Qwen3.5-Omni ya está oficialmente disponible, lista para transformar la forma en que procesas contenido de vídeo. — @Ali_TongyiLab en X
🔗 Hilo de anuncio 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — N.º 1 del ranking τ-Voice
13 de abril — Tulsee Doshi (Product Manager de Google DeepMind) anuncia que Gemini 3.1 Flash Live con el modo Thinking activado ha alcanzado el primer puesto del τ-Voice Leaderboard de Sierra Platform.
Este ranking mide el rendimiento de los modelos para construir agentes de voz en tiempo real: comprensión del habla, razonamiento multi-turno y ejecución de acciones en escenarios cercanos a producción. Gemini 3.1 Flash Live se había lanzado el 26 de marzo de 2026; este resultado valida sus capacidades para desarrolladores que construyen aplicaciones de voz.
El modelo está disponible a través de la API Gemini Live en Google AI Studio.
🔗 Anuncio en X 🔗 τ-Voice Leaderboard
Conectores TurboTax y Aiwyn Tax para Claude
12 de abril — Henry Shi (Anthropic) anuncia dos nuevos conectores para Claude: TurboTax y Aiwyn Tax (antes Column Tax), lanzados a pocos días de la fecha límite de la declaración de impuestos en Estados Unidos del 15 de abril.
Una vez conectado, Claude puede estimar la devolución o el importe adeudado, explicar los formularios fiscales y guiar al usuario en el proceso de declaración. Estos conectores están dirigidos a usuarios estadounidenses con una suscripción a Claude.
Qué significa esto
La función copilot --remote de GitHub es la más estructural de la jornada: abre un nuevo modo de uso para las tareas largas de CLI: iniciar una sesión desde un equipo y luego supervisarla o controlarla desde cualquier dispositivo. Es una respuesta directa a los casos de uso de agentes autónomos que se ejecutan durante horas.
En el plano de los modelos, MiniMax M2.7 y Qwen3.5-Omni ilustran dos dinámicas distintas: M2.7 apunta a desarrolladores que despliegan agentes de codificación (con integración vLLM desde el primer día, a diferencia de la mayoría de modelos que llegan tarde a este ecosistema); Qwen3.5-Omni apuesta por la multimodalidad nativa, con el vídeo como argumento central.
El resultado de Gemini 3.1 Flash Live en el τ-Voice Leaderboard confirma que Google está invirtiendo seriamente en el segmento de agentes de voz en producción, un mercado aún poco estructurado pero en crecimiento.
Fuentes
- GitHub Changelog — Control remoto de Copilot CLI (13 de abril)
- MiniMax M2.7 — open-source en ModelScope
- MiniMax M2.7 — compatibilidad vLLM
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- API de Qwen3.5-Omni disponible — tweet principal
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- Conectores TurboTax/Aiwyn Tax para Claude
Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator