Buscar

Control remoto de Copilot CLI, MiniMax M2.7, API de Qwen3.5-Omni

Control remoto de Copilot CLI, MiniMax M2.7, API de Qwen3.5-Omni

El 13 de abril de 2026, GitHub lanza la función de control remoto (remote control) para las sesiones de Copilot CLI, lo que permite controlar un terminal desde la web o un teléfono mediante un simple código QR. MiniMax publica M2.7, un modelo agente disponible en ModelScope con un ecosistema cloud operativo desde el primer día. Alibaba pone a disposición la API de Qwen3.5-Omni para desarrolladores de todo el mundo, y Google DeepMind anuncia que Gemini 3.1 Flash Live (Thinking) ocupa ahora el primer puesto del ranking τ-Voice para agentes de voz.


GitHub Copilot CLI — Control remoto desde la web y el móvil

13 de abril — GitHub lanza copilot --remote en vista previa pública: una sesión de Copilot CLI en curso ahora puede supervisarse y controlarse desde GitHub.com o desde la aplicación GitHub Mobile, sin acceso directo a la máquina.

El funcionamiento es simple: al iniciar una sesión remota, el CLI muestra un enlace y un código QR. Al acceder a ese enlace desde un navegador o un teléfono, el usuario entra en la interfaz de la sesión en curso. La sincronización es bidireccional: las acciones realizadas en la web o en el móvil se reflejan en el terminal, y viceversa.

FunciónDetalle
Iniciocopilot --remote o /remote en una sesión existente
AccesoEnlace + código QR mostrado por el CLI
AplicacionesGitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta)
SincronizaciónBidireccional en tiempo real
PrivacidadSesión privada, visible únicamente para el usuario que la inició
Mantener sesiónComando /keep-alive para evitar la suspensión durante tareas largas

Todas las funciones habituales del CLI siguen accesibles de forma remota: control en mitad de sesión (steering), revisión y modificación de planes, cambio de modo (plan / interactivo / autopilot), aprobación o rechazo de permisos, respuesta a las preguntas ask_user.

Nota para empresas: los usuarios de Copilot Business o Enterprise necesitan que un administrador active las políticas de control remoto y de CLI antes de su uso.

🔗 Anuncio de GitHub Changelog


MiniMax M2.7 — Modelo agente open-source con ecosistema cloud desde el día 0

12 de abril — MiniMax publica M2.7, un LLM con arquitectura agente disponible en ModelScope, con integración vLLM operativa desde el primer día.

Los resultados publicados sitúan a M2.7 al nivel de los mejores modelos de programación disponibles:

BenchmarkPuntuación de M2.7
SWE-Pro56,22% (igual que GPT-5.3-Codex)
Terminal Bench 257,0%

El modelo está diseñado para la orquestación multiagente (Agent Teams), la programación avanzada y la automatización de tareas en línea de comandos. Está disponible de inmediato a través de Together AI (serverless y dedicado) y Fireworks AI.

A tener en cuenta: MiniMax aclaró después de la publicación que M2.7 no es estrictamente open-source en el sentido de la licencia; el modelo fue republicado con condiciones de uso modificadas.

🔗 Anuncio open-source en ModelScope 🔗 Compatibilidad vLLM desde el día 0 🔗 Disponibilidad en Together AI


API de Qwen3.5-Omni — Disponibilidad internacional

13 de abril — Tongyi Lab (Alibaba) anuncia la disponibilidad internacional de la API de Qwen3.5-Omni a través de Alibaba Cloud Model Studio. El modelo qwen3.5-omni-plus está accesible de inmediato con una clave API.

Presentado en un artículo de investigación el 29 de marzo de 2026, Qwen3.5-Omni es un modelo omnimodal nativo: procesa texto, imágenes, audio y vídeo en una sola inferencia, sin pipeline de varias etapas. Dispone de dos modos de funcionamiento — Thinker (razonamiento) y Talker (conversación por voz) — mediante una arquitectura híbrida.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇪🇸 La API de Qwen3.5-Omni ya está oficialmente disponible, lista para transformar la forma en que procesas contenido de vídeo.@Ali_TongyiLab en X

🔗 Hilo de anuncio 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — N.º 1 del ranking τ-Voice

13 de abril — Tulsee Doshi (Product Manager de Google DeepMind) anuncia que Gemini 3.1 Flash Live con el modo Thinking activado ha alcanzado el primer puesto del τ-Voice Leaderboard de Sierra Platform.

Este ranking mide el rendimiento de los modelos para construir agentes de voz en tiempo real: comprensión del habla, razonamiento multi-turno y ejecución de acciones en escenarios cercanos a producción. Gemini 3.1 Flash Live se había lanzado el 26 de marzo de 2026; este resultado valida sus capacidades para desarrolladores que construyen aplicaciones de voz.

El modelo está disponible a través de la API Gemini Live en Google AI Studio.

🔗 Anuncio en X 🔗 τ-Voice Leaderboard


Conectores TurboTax y Aiwyn Tax para Claude

12 de abril — Henry Shi (Anthropic) anuncia dos nuevos conectores para Claude: TurboTax y Aiwyn Tax (antes Column Tax), lanzados a pocos días de la fecha límite de la declaración de impuestos en Estados Unidos del 15 de abril.

Una vez conectado, Claude puede estimar la devolución o el importe adeudado, explicar los formularios fiscales y guiar al usuario en el proceso de declaración. Estos conectores están dirigidos a usuarios estadounidenses con una suscripción a Claude.

🔗 Anuncio de Henry Shi en X


Qué significa esto

La función copilot --remote de GitHub es la más estructural de la jornada: abre un nuevo modo de uso para las tareas largas de CLI: iniciar una sesión desde un equipo y luego supervisarla o controlarla desde cualquier dispositivo. Es una respuesta directa a los casos de uso de agentes autónomos que se ejecutan durante horas.

En el plano de los modelos, MiniMax M2.7 y Qwen3.5-Omni ilustran dos dinámicas distintas: M2.7 apunta a desarrolladores que despliegan agentes de codificación (con integración vLLM desde el primer día, a diferencia de la mayoría de modelos que llegan tarde a este ecosistema); Qwen3.5-Omni apuesta por la multimodalidad nativa, con el vídeo como argumento central.

El resultado de Gemini 3.1 Flash Live en el τ-Voice Leaderboard confirma que Google está invirtiendo seriamente en el segmento de agentes de voz en producción, un mercado aún poco estructurado pero en crecimiento.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5.4-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator