Em 13 de abril de 2026, o GitHub lança a funcionalidade de controlo remoto (remote control) para as sessões Copilot CLI, permitindo comandar um terminal a partir da web ou de um telefone através de um simples código QR. A MiniMax publica o M2.7, um modelo agent disponível no ModelScope com um ecossistema cloud operacional desde o primeiro dia. A Alibaba disponibiliza a API Qwen3.5-Omni para developers de todo o mundo, e a Google DeepMind anuncia que o Gemini 3.1 Flash Live (Thinking) ocupa agora o primeiro lugar do ranking τ-Voice para agentes vocais.
GitHub Copilot CLI — Controlo remoto a partir da web e mobile
13 de abril — O GitHub lança copilot --remote em public preview: uma sessão Copilot CLI em execução pode agora ser monitorizada e controlada a partir de GitHub.com ou da aplicação GitHub Mobile, sem acesso direto à máquina.
O funcionamento é simples: ao iniciar uma sessão remota, o CLI mostra um link e um código QR. Ao aceder a esse link a partir de um navegador ou de um telefone, o utilizador entra na interface da sessão em curso. A sincronização é bidirecional — as ações realizadas na web ou no mobile refletem-se no terminal, e vice-versa.
| Funcionalidade | Detalhe |
|---|---|
| Início | copilot --remote ou /remote numa sessão existente |
| Acesso | Link + código QR exibido pelo CLI |
| Aplicações | GitHub.com + GitHub Mobile (iOS TestFlight, beta do Android Google Play) |
| Sincronização | Bidirecional em tempo real |
| Privacidade | Sessão privada, visível apenas para o utilizador que a iniciou |
| Manutenção da sessão | Comando /keep-alive para evitar a suspensão durante tarefas longas |
Todas as funcionalidades habituais do CLI continuam acessíveis remotamente: controlo durante a sessão (steering), revisão e edição de planos, mudança de modo (plan / interactivo / autopilot), aprovação ou recusa de permissões, resposta às perguntas ask_user.
Nota para empresas: os utilizadores Copilot Business ou Enterprise precisam que um administrador ative as políticas de controlo remoto e de CLI antes da utilização.
MiniMax M2.7 — Modelo agent open-source com ecossistema cloud no dia 0
12 de abril — A MiniMax publica o M2.7, um LLM com arquitetura agent disponível no ModelScope, com integração vLLM operacional desde o primeiro dia.
Os desempenhos publicados colocam o M2.7 ao nível dos melhores modelos de codificação disponíveis:
| Benchmark | Pontuação M2.7 |
|---|---|
| SWE-Pro | 56,22% (igual ao GPT-5.3-Codex) |
| Terminal Bench 2 | 57,0% |
O modelo foi concebido para orquestração multi-agents (Agent Teams), codificação avançada e automação de tarefas em linha de comando. Está acessível de imediato através da Together AI (serverless e dedicada) e da Fireworks AI.
A notar: a MiniMax esclareceu após a publicação que o M2.7 não é estritamente open-source no sentido da licença — o modelo foi republicado com condições de utilização modificadas.
🔗 Anúncio open-source no ModelScope 🔗 Suporte vLLM no dia 0 🔗 Disponibilidade na Together AI
Qwen3.5-Omni API — Disponibilidade internacional
13 de abril — O Tongyi Lab (Alibaba) anuncia a disponibilidade internacional da API Qwen3.5-Omni através do Alibaba Cloud Model Studio. O modelo qwen3.5-omni-plus está acessível de imediato com uma chave API.
Apresentado num artigo de investigação a 29 de março de 2026, o Qwen3.5-Omni é um modelo omnimodal nativo: processa texto, imagens, áudio e vídeo numa única inferência, sem pipeline multi-etapas. Tem dois modos de funcionamento — Thinker (raciocínio) e Talker (conversa vocal) — através de uma arquitetura híbrida.
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇵🇹 A API Qwen3.5-Omni está agora oficialmente disponível, pronta para transformar a forma como você processa conteúdo de vídeo. — @Ali_TongyiLab no X
🔗 Thread de anúncio 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — N.º 1 do ranking τ-Voice
13 de abril — Tulsee Doshi (Product Manager Google DeepMind) anuncia que o Gemini 3.1 Flash Live com o modo Thinking ativado assumiu o primeiro lugar do τ-Voice Leaderboard da Sierra Platform.
Este ranking mede o desempenho dos modelos para a construção de agentes vocais em tempo real: compreensão da fala, raciocínio multi-turno e execução de ações em cenários próximos da produção. O Gemini 3.1 Flash Live tinha sido lançado a 26 de março de 2026; este resultado valida as suas capacidades para developers que constroem aplicações vocais.
O modelo está disponível através da API Gemini Live no Google AI Studio.
🔗 Anúncio no X 🔗 τ-Voice Leaderboard
Connectores TurboTax e Aiwyn Tax para Claude
12 de abril — Henry Shi (Anthropic) anuncia dois novos connectores para Claude: TurboTax e Aiwyn Tax (anteriormente Column Tax), lançados a poucos dias do prazo-limite de declaração fiscal americana de 15 de abril.
Uma vez ligado, o Claude pode estimar o reembolso ou o montante em dívida, explicar os formulários fiscais e orientar o utilizador no processo de declaração. Estes conectores destinam-se a utilizadores americanos com uma subscrição Claude.
O que isto significa
A funcionalidade copilot --remote do GitHub é a mais estruturante do dia: abre um novo modo de utilização para tarefas longas em CLI — iniciar uma sessão a partir de um posto de trabalho e depois monitorizá-la ou controlá-la a partir de qualquer dispositivo. É uma resposta direta aos casos de uso de agentes autónomos que correm durante horas.
No plano dos modelos, o MiniMax M2.7 e o Qwen3.5-Omni ilustram duas dinâmicas diferentes: o M2.7 aponta para developers que fazem deploy de agentes de codificação (com integração vLLM desde o primeiro dia, ao contrário da maioria dos modelos que chegam tardiamente a este ecossistema); o Qwen3.5-Omni aposta na multimodalidade nativa, com o vídeo como argumento central.
O resultado do Gemini 3.1 Flash Live no τ-Voice Leaderboard confirma que a Google investe seriamente no segmento dos agentes vocais em produção — um mercado ainda pouco estruturado, mas em crescimento.
Fontes
- GitHub Changelog — Copilot CLI remote control (13 de abril)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — suporte vLLM
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API disponível — tweet principal
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- Connectores TurboTax/Aiwyn Tax para Claude
Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator