Em 14 de abril de 2026, o dia foi intenso para as ferramentas de desenvolvimento assistidas por IA: a Anthropic lança as rotinas no Claude Code, permitindo automatizar fluxos de trabalho inteiros com base em agendamento ou via webhook, sem manter o computador ligado. A Google DeepMind publica o Gemini Robotics-ER 1.6 com novas capacidades de perceção industrial desenvolvidas com a Boston Dynamics. A Z.ai abre o GLM-5.1 sob licença MIT, classificado como número 1 entre os modelos open source no SWE-Bench Pro. O GitHub Copilot adiciona três funcionalidades úteis: resolução de conflitos em três cliques, residência de dados US/EU e seleção de modelo para agentes de terceiros.
Rotinas no Claude Code — pesquisa preliminar (research preview)
14 de abril — A Anthropic lança as rotinas no Claude Code em research preview. Uma rotina é uma automação configurada uma única vez — com um prompt, um repositório e conectores — que depois é executada de forma autónoma, sem que o utilizador permaneça ligado.
Estão disponíveis três tipos de acionadores:
| Tipo | Acionador | Exemplo de uso |
|---|---|---|
| Agendada (Scheduled) | Cron (hora, noite, semana) | Triage nightly de bugs Linear, abertura de PR de correção |
| API | Chamada HTTP POST para um endpoint dedicado | Alerta Datadog → triagem automática + rascunho de correção |
| Webhook | Eventos GitHub (PR, push…) | Revisão automática de código em cada PR aberta |
Cada rotina dispõe do seu próprio endpoint e token de autenticação. As rotinas API integram-se em qualquer pipeline existente (alertas, hooks de deployment, ferramentas internas). As rotinas webhook iniciam uma nova sessão para cada PR que corresponda aos filtros definidos e alimentam a sessão com as atualizações seguintes (comentários, falhas de integração contínua).
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇵🇹 Configure uma rotina uma única vez (um prompt, um repositório e os seus conectores), e ela pode ser executada segundo um agendamento, a partir de uma chamada API, ou em resposta a um evento. As rotinas executam-se na nossa infraestrutura web, por isso não é preciso manter o seu computador ligado. — @claudeai no X
Disponibilidade e limites:
| Plano | Rotinas/dia |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
Disponível em todos os planos pagos (Pro, Max, Team, Enterprise) com o Claude Code web ativado. Para além das quotas, continua a ser possível um uso adicional. As rotinas consomem créditos da subscrição como as sessões interativas.
Casos de uso documentados:
- Gestão de backlog: triagem nightly, etiquetagem, resumo no Slack
- Deriva de documentação (docs drift): scan semanal das PR mescladas, deteção das páginas a atualizar
- Verificação pós-deployment: testes de fumo (smoke checks) após cada release
- Portagem de SDK: cada PR Python mesclada aciona automaticamente uma portagem para o SDK Go
🔗 Blog da Anthropic 🔗 Tweet de anúncio
Claude Code v2.1.105 — hooks PreCompact, monitores de plugins, /proactive
11 a 13 de abril — A versão 2.1.105 do Claude Code traz várias melhorias notáveis:
| Funcionalidade | Descrição |
|---|---|
Parâmetro path para EnterWorktree | Permite alternar para um worktree existente do repositório atual |
| Hook PreCompact | Os hooks podem agora bloquear a compactação (código de saída 2 ou {"decision":"block"}) |
| Background monitors para plugins | Chave monitors no manifesto do plugin — ativada automaticamente no início da sessão |
/proactive | Novo alias para /loop |
| Abandono dos Streams API bloqueados | Abandono após 5 minutos sem dados + retry em modo non-streaming |
| Mensagens de erro de rede | Exibição imediata de uma mensagem de retry em vez de um spinner silencioso |
| Exibição de ficheiros longos | As escritas single-line muito longas (por ex.: JSON minificado) são truncadas na interface |
/doctor melhorado | Ícones de estado + tecla f para pedir ao Claude que corrija os problemas detetados |
14 de abril — A versão 2.1.107 traz uma melhoria de interface: as dicas de progresso (thinking hints) aparecem agora mais cedo durante as operações longas, reduzindo a sensação de espera sem retorno visual.
Anthropic — Vas Narasimhan junta-se ao conselho de administração
14 de abril — O Long-Term Benefit Trust (LTBT) da Anthropic nomeou Vas Narasimhan para o conselho de administração. Médico-cientista e CEO da Novartis, supervisionou o desenvolvimento e a aprovação de mais de 35 medicamentos inovadores num dos setores mais regulados do mundo.
Com esta nomeação, os administradores nomeados pelo Trust passam agora a constituir a maioria do conselho. O LTBT é um órgão independente cujos membros não têm qualquer interesse financeiro na Anthropic — o seu papel é manter o equilíbrio entre sucesso comercial e missão de benefício público a longo prazo.
Gemini Robotics-ER 1.6 — perceção industrial e segurança
14 de abril — A Google DeepMind publica o Gemini Robotics-ER 1.6, atualização do seu modelo de raciocínio incorporado (embodied reasoning) para robótica. O modelo melhora a compreensão visual e espacial para permitir que os robots planeiem e executem tarefas reais com maior autonomia. Supera o Gemini Robotics-ER 1.5 e o Gemini 3.0 Flash nos benchmarks robóticos internos.
Novas capacidades:
| Capacidade | Descrição |
|---|---|
| Apontar espacial (Pointing) | Deteção e contagem de objetos, lógica relacional (mais pequeno/maior), trajetórias e pontos de preensão, restrições complexas |
| Deteção de sucesso multi-vista | Analisa vários ângulos de câmara para verificar se uma tarefa foi realmente concluída |
| Leitura de instrumentos | Lê manómetros circulares e tubos transparentes (sight glasses) — desenvolvido com a Boston Dynamics para inspeção industrial |
| Segurança (benchmark ASIMOV v2) | Melhor pontuação entre todos os modelos testados no cumprimento das instruções de segurança |
A capacidade de leitura de instrumentos nasceu da colaboração com a Boston Dynamics para o robot Spot, usado nas inspeções de instalações industriais. Combina raciocínio espacial e execução de código para interpretar manómetros de pressão com elevada precisão.
Disponibilidade: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio, e notebook de arranque no GitHub Colab.
🔗 Blog da Google DeepMind 🔗 Tweet de anúncio
GLM-5.1 — Z.ai abre o seu modelo agentico sob licença MIT
7 de abril (anúncio recuperado — passou despercebido durante a análise da semana passada) — A Z.ai (anteriormente ZhipuAI) publicou o GLM-5.1, o seu novo modelo principal para codificação agentica (agentic coding), disponível em open source sob licença MIT.
Desempenho nos benchmarks de código:
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
O GLM-5.1 classifica-se como número 1 em open source e terceiro a nível mundial no SWE-Bench Pro, Terminal-Bench e NL2Repo.
A diferença-chave: o horizonte longo. Os modelos anteriores, incluindo o GLM-5, melhoram rapidamente o desempenho numa primeira fase e depois estabilizam. O GLM-5.1 foi concebido para continuar eficaz em tarefas agenticas em horizontes muito mais longos: pode trabalhar de forma autónoma durante 8 horas, refinando as suas estratégias ao longo de milhares de chamadas de ferramentas.
Três cenários ilustram esta capacidade:
- Otimização de base vetorial em 600 iterações: o GLM-5.1 atinge 21 500 pedidos por segundo no VectorDBBench, ou seja, 6 vezes o melhor resultado obtido numa sessão de 50 rondas.
- Otimização de kernels GPU em mais de 1 000 rondas: aceleração de 3,6 vezes no KernelBench Nível 3.
- Construção de um ambiente de trabalho Linux em 8 horas: a partir de um simples prompt em linguagem natural, o GLM-5.1 produz um ambiente de desktop completo no navegador (explorador de ficheiros, terminal, editor, monitor de sistema).
Disponibilidade: pesos open source no HuggingFace (zai-org/GLM-5.1), API em api.z.ai e BigModel.cn, compatível com Claude Code, Cline, Roo Code, Kilo Code e OpenCode.
🔗 Blog do GLM-5.1 🔗 Tweet de anúncio
Codex CLI v0.120.0 — difusão em tempo real dos agentes
11 de abril — A versão 0.120.0 do Codex CLI é lançada como versão estável. Traz várias melhorias funcionais:
| Funcionalidade | Detalhe |
|---|---|
| Realtime V2 | Difunde o progresso dos agentes em segundo plano em tempo real, enfileira as respostas seguintes |
| Hooks TUI melhorados | Os hooks ativos aparecem separadamente, o histórico dos hooks concluídos é simplificado |
| Título de thread no estado | Os estados TUI personalizados podem incluir o título da thread renomeada |
| Esquema de saída code-mode | As declarações de ferramentas code-mode incluem agora os detalhes outputSchema MCP |
| Hooks SessionStart | Distingue as sessões criadas por /clear dos arranques ou retomadas |
A versão inclui também várias correções de bugs: gestão de sandboxes Windows elevados, panics durante ligações WebSocket TLS, preservação da ordem dos resultados de pesquisa de ferramentas.
GitHub Copilot — três novas funcionalidades
Seleção de modelo para os agentes de terceiros
14 de abril — Já é possível escolher o modelo ao iniciar uma tarefa com os agentes Claude (Anthropic) e Codex (OpenAI) em github.com.
| Agent | Modelos disponíveis |
|---|---|
| Claude | Claude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5 |
| Codex | GPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4 |
Incluído com a subscrição Copilot existente (Business ou Enterprise), mas o administrador tem de ativar as políticas correspondentes ao nível da empresa ou da organização.
🔗 Changelog de seleção de modelo
Resolução de conflitos de merge em três cliques
13 de abril — Surge um novo botão “Fix with Copilot” nas pull requests com conflitos de merge. Em três cliques, o Copilot cloud agent resolve os conflitos, verifica se o build e os testes passam e depois faz push a partir do seu ambiente cloud isolado. A menção @copilot nas PR também permite corrigir workflows GitHub Actions que falham ou responder a comentários de code review. Disponível em todos os planos Copilot pagos.
Residência de dados US/EU e conformidade FedRAMP
13 de abril — O GitHub Copilot passa agora a suportar a residência de dados para as regiões US e EU: todas as inferências e dados associados permanecem na zona geográfica designada. Os clientes governamentais norte-americanos beneficiam ainda da conformidade FedRAMP Moderate. Os pedidos data-resident têm um acréscimo de 10% no multiplicador de premium requests. Os modelos Gemini ainda não são suportados (a GCP ainda não disponibiliza endpoints de inferência com residência de dados). Japão e Austrália estão no roteiro para 2026.
Media generativa — Runway, Luma, MiniMax, ElevenLabs
Runway Characters em chamadas de vídeo
14 de abril — A Runway lança uma atualização do Characters que permite enviar o seu avatar IA para uma chamada de vídeo Zoom, Google Meet ou Teams. O processo: escolher ou criar um Character → colar o link da reunião → clicar em “Join Meeting”. A funcionalidade, inicialmente disponibilizada como API para developers desde 9 de março, passa agora a estar acessível a todos os utilizadores a partir da aplicação Runway.
Luma — ditado vocal e animação de logótipo
14 de abril — A Luma Labs lança duas novas funcionalidades: a ditado vocal na sua aplicação (o utilizador fala, a descrição é convertida em prompt de geração) e a animação cinematográfica de logótipo (faz upload do seu logótipo, o agente produz uma introdução animada orientada para branding).
🔗 Tweet ditado vocal · Tweet animação de logótipo
MiniMax — três Music Skills open source para agentes
14 de abril — A MiniMax abre em open source três Music Skills para agentes: minimax-music-gen (geração de uma música completa a partir de um prompt, com escolha automática entre original, instrumental e cover), buddy-sings (o agente IA canta como companheiro vocal), e Playlist curation (curadoria de playlists a partir da biblioteca do utilizador). Estes componentes destinam-se à integração em agentes M2.7.
ElevenLabs — 100 milhões de dólares de receita recorrente líquida em Q1 2026
13 de abril — O CEO Mati Staniszewski anuncia que a ElevenLabs acrescentou mais de 100 milhões de dólares de receita recorrente anual líquida em Q1 2026 — o seu melhor trimestre até à data. Crescimento impulsionado por parcerias empresariais (Klarna, Revolut, Deutsche Telekom, Toyota).
O que isto significa
As rotinas no Claude Code representam uma mudança de paradigma: a ferramenta de desenvolvimento já não responde apenas a pedidos interativos, podendo agora tomar iniciativas agendadas ou reativas na infraestrutura de um projeto. A combinação scheduled + webhook transforma o Claude Code num agente permanente sobre um repositório, com um custo de configuração mínimo.
No front do open source, o GLM-5.1 confirma que os modelos agenticos chineses atingiram o nível dos melhores modelos proprietários nos benchmarks de codificação. A capacidade de manter um horizonte de 8 horas de trabalho autónomo — com milhares de chamadas de ferramentas — abre possibilidades concretas para tarefas de otimização intensiva que os modelos tradicionais não conseguem gerir numa única sessão.
Gemini Robotics-ER 1.6 ilustra uma tendência diferente: modelos de IA geral adaptados às restrições físicas do mundo real, com uma colaboração entre software e hardware (Boston Dynamics/Spot) que produz novas capacidades como a leitura de instrumentos industriais.
Fontes
- Blog Anthropic — Rotinas Claude Code
- Tweet @claudeai — Rotinas
- CHANGELOG Claude Code
- Anthropic — Nomeação de Vas Narasimhan
- Blog Google DeepMind — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Blog Z.ai — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub Changelog — Seleção de modelo de agentes de terceiros
- GitHub Changelog — Conflitos de merge Copilot
- GitHub Changelog — Residência de dados US/EU FedRAMP
- Tweet @runwayml — Personagens em chamada de vídeo
- Tweet @LumaLabsAI — Ditado por voz
- Tweet @LumaLabsAI — Animação de logótipo
- Tweet @MiniMax_AI — Competências musicais
- Tweet do CEO da ElevenLabs — 100M ARR
Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator