Pesquisar

Copilot CLI Controle Remoto, MiniMax M2.7, Qwen3.5-Omni API

Copilot CLI Controle Remoto, MiniMax M2.7, Qwen3.5-Omni API

Em 13 de abril de 2026, o GitHub lança a funcionalidade de controlo remoto (remote control) para as sessões Copilot CLI, permitindo comandar um terminal a partir da web ou de um telefone através de um simples código QR. A MiniMax publica o M2.7, um modelo agent disponível no ModelScope com um ecossistema cloud operacional desde o primeiro dia. A Alibaba disponibiliza a API Qwen3.5-Omni para developers de todo o mundo, e a Google DeepMind anuncia que o Gemini 3.1 Flash Live (Thinking) ocupa agora o primeiro lugar do ranking τ-Voice para agentes vocais.


GitHub Copilot CLI — Controlo remoto a partir da web e mobile

13 de abril — O GitHub lança copilot --remote em public preview: uma sessão Copilot CLI em execução pode agora ser monitorizada e controlada a partir de GitHub.com ou da aplicação GitHub Mobile, sem acesso direto à máquina.

O funcionamento é simples: ao iniciar uma sessão remota, o CLI mostra um link e um código QR. Ao aceder a esse link a partir de um navegador ou de um telefone, o utilizador entra na interface da sessão em curso. A sincronização é bidirecional — as ações realizadas na web ou no mobile refletem-se no terminal, e vice-versa.

FuncionalidadeDetalhe
Iníciocopilot --remote ou /remote numa sessão existente
AcessoLink + código QR exibido pelo CLI
AplicaçõesGitHub.com + GitHub Mobile (iOS TestFlight, beta do Android Google Play)
SincronizaçãoBidirecional em tempo real
PrivacidadeSessão privada, visível apenas para o utilizador que a iniciou
Manutenção da sessãoComando /keep-alive para evitar a suspensão durante tarefas longas

Todas as funcionalidades habituais do CLI continuam acessíveis remotamente: controlo durante a sessão (steering), revisão e edição de planos, mudança de modo (plan / interactivo / autopilot), aprovação ou recusa de permissões, resposta às perguntas ask_user.

Nota para empresas: os utilizadores Copilot Business ou Enterprise precisam que um administrador ative as políticas de controlo remoto e de CLI antes da utilização.

🔗 Anúncio GitHub Changelog


MiniMax M2.7 — Modelo agent open-source com ecossistema cloud no dia 0

12 de abril — A MiniMax publica o M2.7, um LLM com arquitetura agent disponível no ModelScope, com integração vLLM operacional desde o primeiro dia.

Os desempenhos publicados colocam o M2.7 ao nível dos melhores modelos de codificação disponíveis:

BenchmarkPontuação M2.7
SWE-Pro56,22% (igual ao GPT-5.3-Codex)
Terminal Bench 257,0%

O modelo foi concebido para orquestração multi-agents (Agent Teams), codificação avançada e automação de tarefas em linha de comando. Está acessível de imediato através da Together AI (serverless e dedicada) e da Fireworks AI.

A notar: a MiniMax esclareceu após a publicação que o M2.7 não é estritamente open-source no sentido da licença — o modelo foi republicado com condições de utilização modificadas.

🔗 Anúncio open-source no ModelScope 🔗 Suporte vLLM no dia 0 🔗 Disponibilidade na Together AI


Qwen3.5-Omni API — Disponibilidade internacional

13 de abril — O Tongyi Lab (Alibaba) anuncia a disponibilidade internacional da API Qwen3.5-Omni através do Alibaba Cloud Model Studio. O modelo qwen3.5-omni-plus está acessível de imediato com uma chave API.

Apresentado num artigo de investigação a 29 de março de 2026, o Qwen3.5-Omni é um modelo omnimodal nativo: processa texto, imagens, áudio e vídeo numa única inferência, sem pipeline multi-etapas. Tem dois modos de funcionamento — Thinker (raciocínio) e Talker (conversa vocal) — através de uma arquitetura híbrida.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇵🇹 A API Qwen3.5-Omni está agora oficialmente disponível, pronta para transformar a forma como você processa conteúdo de vídeo.@Ali_TongyiLab no X

🔗 Thread de anúncio 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — N.º 1 do ranking τ-Voice

13 de abril — Tulsee Doshi (Product Manager Google DeepMind) anuncia que o Gemini 3.1 Flash Live com o modo Thinking ativado assumiu o primeiro lugar do τ-Voice Leaderboard da Sierra Platform.

Este ranking mede o desempenho dos modelos para a construção de agentes vocais em tempo real: compreensão da fala, raciocínio multi-turno e execução de ações em cenários próximos da produção. O Gemini 3.1 Flash Live tinha sido lançado a 26 de março de 2026; este resultado valida as suas capacidades para developers que constroem aplicações vocais.

O modelo está disponível através da API Gemini Live no Google AI Studio.

🔗 Anúncio no X 🔗 τ-Voice Leaderboard


Connectores TurboTax e Aiwyn Tax para Claude

12 de abril — Henry Shi (Anthropic) anuncia dois novos connectores para Claude: TurboTax e Aiwyn Tax (anteriormente Column Tax), lançados a poucos dias do prazo-limite de declaração fiscal americana de 15 de abril.

Uma vez ligado, o Claude pode estimar o reembolso ou o montante em dívida, explicar os formulários fiscais e orientar o utilizador no processo de declaração. Estes conectores destinam-se a utilizadores americanos com uma subscrição Claude.

🔗 Anúncio Henry Shi no X


O que isto significa

A funcionalidade copilot --remote do GitHub é a mais estruturante do dia: abre um novo modo de utilização para tarefas longas em CLI — iniciar uma sessão a partir de um posto de trabalho e depois monitorizá-la ou controlá-la a partir de qualquer dispositivo. É uma resposta direta aos casos de uso de agentes autónomos que correm durante horas.

No plano dos modelos, o MiniMax M2.7 e o Qwen3.5-Omni ilustram duas dinâmicas diferentes: o M2.7 aponta para developers que fazem deploy de agentes de codificação (com integração vLLM desde o primeiro dia, ao contrário da maioria dos modelos que chegam tardiamente a este ecossistema); o Qwen3.5-Omni aposta na multimodalidade nativa, com o vídeo como argumento central.

O resultado do Gemini 3.1 Flash Live no τ-Voice Leaderboard confirma que a Google investe seriamente no segmento dos agentes vocais em produção — um mercado ainda pouco estruturado, mas em crescimento.


Fontes

Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator