Pesquisar

Rotinas Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 open source

Rotinas Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 open source

Em 14 de abril de 2026, o dia foi intenso para as ferramentas de desenvolvimento assistidas por IA: a Anthropic lança as rotinas no Claude Code, permitindo automatizar fluxos de trabalho inteiros com base em agendamento ou via webhook, sem manter o computador ligado. A Google DeepMind publica o Gemini Robotics-ER 1.6 com novas capacidades de perceção industrial desenvolvidas com a Boston Dynamics. A Z.ai abre o GLM-5.1 sob licença MIT, classificado como número 1 entre os modelos open source no SWE-Bench Pro. O GitHub Copilot adiciona três funcionalidades úteis: resolução de conflitos em três cliques, residência de dados US/EU e seleção de modelo para agentes de terceiros.


Rotinas no Claude Code — pesquisa preliminar (research preview)

14 de abril — A Anthropic lança as rotinas no Claude Code em research preview. Uma rotina é uma automação configurada uma única vez — com um prompt, um repositório e conectores — que depois é executada de forma autónoma, sem que o utilizador permaneça ligado.

Estão disponíveis três tipos de acionadores:

TipoAcionadorExemplo de uso
Agendada (Scheduled)Cron (hora, noite, semana)Triage nightly de bugs Linear, abertura de PR de correção
APIChamada HTTP POST para um endpoint dedicadoAlerta Datadog → triagem automática + rascunho de correção
WebhookEventos GitHub (PR, push…)Revisão automática de código em cada PR aberta

Cada rotina dispõe do seu próprio endpoint e token de autenticação. As rotinas API integram-se em qualquer pipeline existente (alertas, hooks de deployment, ferramentas internas). As rotinas webhook iniciam uma nova sessão para cada PR que corresponda aos filtros definidos e alimentam a sessão com as atualizações seguintes (comentários, falhas de integração contínua).

“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”

🇵🇹 Configure uma rotina uma única vez (um prompt, um repositório e os seus conectores), e ela pode ser executada segundo um agendamento, a partir de uma chamada API, ou em resposta a um evento. As rotinas executam-se na nossa infraestrutura web, por isso não é preciso manter o seu computador ligado.@claudeai no X

Disponibilidade e limites:

PlanoRotinas/dia
Pro5
Max15
Team / Enterprise25

Disponível em todos os planos pagos (Pro, Max, Team, Enterprise) com o Claude Code web ativado. Para além das quotas, continua a ser possível um uso adicional. As rotinas consomem créditos da subscrição como as sessões interativas.

Casos de uso documentados:

  • Gestão de backlog: triagem nightly, etiquetagem, resumo no Slack
  • Deriva de documentação (docs drift): scan semanal das PR mescladas, deteção das páginas a atualizar
  • Verificação pós-deployment: testes de fumo (smoke checks) após cada release
  • Portagem de SDK: cada PR Python mesclada aciona automaticamente uma portagem para o SDK Go

🔗 Blog da Anthropic 🔗 Tweet de anúncio


Claude Code v2.1.105 — hooks PreCompact, monitores de plugins, /proactive

11 a 13 de abril — A versão 2.1.105 do Claude Code traz várias melhorias notáveis:

FuncionalidadeDescrição
Parâmetro path para EnterWorktreePermite alternar para um worktree existente do repositório atual
Hook PreCompactOs hooks podem agora bloquear a compactação (código de saída 2 ou {"decision":"block"})
Background monitors para pluginsChave monitors no manifesto do plugin — ativada automaticamente no início da sessão
/proactiveNovo alias para /loop
Abandono dos Streams API bloqueadosAbandono após 5 minutos sem dados + retry em modo non-streaming
Mensagens de erro de redeExibição imediata de uma mensagem de retry em vez de um spinner silencioso
Exibição de ficheiros longosAs escritas single-line muito longas (por ex.: JSON minificado) são truncadas na interface
/doctor melhoradoÍcones de estado + tecla f para pedir ao Claude que corrija os problemas detetados

14 de abril — A versão 2.1.107 traz uma melhoria de interface: as dicas de progresso (thinking hints) aparecem agora mais cedo durante as operações longas, reduzindo a sensação de espera sem retorno visual.

🔗 CHANGELOG Claude Code


Anthropic — Vas Narasimhan junta-se ao conselho de administração

14 de abril — O Long-Term Benefit Trust (LTBT) da Anthropic nomeou Vas Narasimhan para o conselho de administração. Médico-cientista e CEO da Novartis, supervisionou o desenvolvimento e a aprovação de mais de 35 medicamentos inovadores num dos setores mais regulados do mundo.

Com esta nomeação, os administradores nomeados pelo Trust passam agora a constituir a maioria do conselho. O LTBT é um órgão independente cujos membros não têm qualquer interesse financeiro na Anthropic — o seu papel é manter o equilíbrio entre sucesso comercial e missão de benefício público a longo prazo.

🔗 Anúncio da Anthropic


Gemini Robotics-ER 1.6 — perceção industrial e segurança

14 de abril — A Google DeepMind publica o Gemini Robotics-ER 1.6, atualização do seu modelo de raciocínio incorporado (embodied reasoning) para robótica. O modelo melhora a compreensão visual e espacial para permitir que os robots planeiem e executem tarefas reais com maior autonomia. Supera o Gemini Robotics-ER 1.5 e o Gemini 3.0 Flash nos benchmarks robóticos internos.

Novas capacidades:

CapacidadeDescrição
Apontar espacial (Pointing)Deteção e contagem de objetos, lógica relacional (mais pequeno/maior), trajetórias e pontos de preensão, restrições complexas
Deteção de sucesso multi-vistaAnalisa vários ângulos de câmara para verificar se uma tarefa foi realmente concluída
Leitura de instrumentosLê manómetros circulares e tubos transparentes (sight glasses) — desenvolvido com a Boston Dynamics para inspeção industrial
Segurança (benchmark ASIMOV v2)Melhor pontuação entre todos os modelos testados no cumprimento das instruções de segurança

A capacidade de leitura de instrumentos nasceu da colaboração com a Boston Dynamics para o robot Spot, usado nas inspeções de instalações industriais. Combina raciocínio espacial e execução de código para interpretar manómetros de pressão com elevada precisão.

Disponibilidade: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio, e notebook de arranque no GitHub Colab.

🔗 Blog da Google DeepMind 🔗 Tweet de anúncio


GLM-5.1 — Z.ai abre o seu modelo agentico sob licença MIT

7 de abril (anúncio recuperado — passou despercebido durante a análise da semana passada) — A Z.ai (anteriormente ZhipuAI) publicou o GLM-5.1, o seu novo modelo principal para codificação agentica (agentic coding), disponível em open source sob licença MIT.

Desempenho nos benchmarks de código:

BenchmarkGLM-5.1GLM-5Claude Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-Bench Pro58,455,157,357,754,2
NL2Repo42,735,949,841,333,4
Terminal-Bench 2.063,556,265,468,5

O GLM-5.1 classifica-se como número 1 em open source e terceiro a nível mundial no SWE-Bench Pro, Terminal-Bench e NL2Repo.

A diferença-chave: o horizonte longo. Os modelos anteriores, incluindo o GLM-5, melhoram rapidamente o desempenho numa primeira fase e depois estabilizam. O GLM-5.1 foi concebido para continuar eficaz em tarefas agenticas em horizontes muito mais longos: pode trabalhar de forma autónoma durante 8 horas, refinando as suas estratégias ao longo de milhares de chamadas de ferramentas.

Três cenários ilustram esta capacidade:

  • Otimização de base vetorial em 600 iterações: o GLM-5.1 atinge 21 500 pedidos por segundo no VectorDBBench, ou seja, 6 vezes o melhor resultado obtido numa sessão de 50 rondas.
  • Otimização de kernels GPU em mais de 1 000 rondas: aceleração de 3,6 vezes no KernelBench Nível 3.
  • Construção de um ambiente de trabalho Linux em 8 horas: a partir de um simples prompt em linguagem natural, o GLM-5.1 produz um ambiente de desktop completo no navegador (explorador de ficheiros, terminal, editor, monitor de sistema).

Disponibilidade: pesos open source no HuggingFace (zai-org/GLM-5.1), API em api.z.ai e BigModel.cn, compatível com Claude Code, Cline, Roo Code, Kilo Code e OpenCode.

🔗 Blog do GLM-5.1 🔗 Tweet de anúncio


Codex CLI v0.120.0 — difusão em tempo real dos agentes

11 de abril — A versão 0.120.0 do Codex CLI é lançada como versão estável. Traz várias melhorias funcionais:

FuncionalidadeDetalhe
Realtime V2Difunde o progresso dos agentes em segundo plano em tempo real, enfileira as respostas seguintes
Hooks TUI melhoradosOs hooks ativos aparecem separadamente, o histórico dos hooks concluídos é simplificado
Título de thread no estadoOs estados TUI personalizados podem incluir o título da thread renomeada
Esquema de saída code-modeAs declarações de ferramentas code-mode incluem agora os detalhes outputSchema MCP
Hooks SessionStartDistingue as sessões criadas por /clear dos arranques ou retomadas

A versão inclui também várias correções de bugs: gestão de sandboxes Windows elevados, panics durante ligações WebSocket TLS, preservação da ordem dos resultados de pesquisa de ferramentas.

🔗 Release v0.120.0


GitHub Copilot — três novas funcionalidades

Seleção de modelo para os agentes de terceiros

14 de abril — Já é possível escolher o modelo ao iniciar uma tarefa com os agentes Claude (Anthropic) e Codex (OpenAI) em github.com.

AgentModelos disponíveis
ClaudeClaude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5
CodexGPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4

Incluído com a subscrição Copilot existente (Business ou Enterprise), mas o administrador tem de ativar as políticas correspondentes ao nível da empresa ou da organização.

🔗 Changelog de seleção de modelo

Resolução de conflitos de merge em três cliques

13 de abril — Surge um novo botão “Fix with Copilot” nas pull requests com conflitos de merge. Em três cliques, o Copilot cloud agent resolve os conflitos, verifica se o build e os testes passam e depois faz push a partir do seu ambiente cloud isolado. A menção @copilot nas PR também permite corrigir workflows GitHub Actions que falham ou responder a comentários de code review. Disponível em todos os planos Copilot pagos.

🔗 Changelog merge conflicts

Residência de dados US/EU e conformidade FedRAMP

13 de abril — O GitHub Copilot passa agora a suportar a residência de dados para as regiões US e EU: todas as inferências e dados associados permanecem na zona geográfica designada. Os clientes governamentais norte-americanos beneficiam ainda da conformidade FedRAMP Moderate. Os pedidos data-resident têm um acréscimo de 10% no multiplicador de premium requests. Os modelos Gemini ainda não são suportados (a GCP ainda não disponibiliza endpoints de inferência com residência de dados). Japão e Austrália estão no roteiro para 2026.

🔗 Changelog data residency


Media generativa — Runway, Luma, MiniMax, ElevenLabs

Runway Characters em chamadas de vídeo

14 de abril — A Runway lança uma atualização do Characters que permite enviar o seu avatar IA para uma chamada de vídeo Zoom, Google Meet ou Teams. O processo: escolher ou criar um Character → colar o link da reunião → clicar em “Join Meeting”. A funcionalidade, inicialmente disponibilizada como API para developers desde 9 de março, passa agora a estar acessível a todos os utilizadores a partir da aplicação Runway.

🔗 Tweet Runway

Luma — ditado vocal e animação de logótipo

14 de abril — A Luma Labs lança duas novas funcionalidades: a ditado vocal na sua aplicação (o utilizador fala, a descrição é convertida em prompt de geração) e a animação cinematográfica de logótipo (faz upload do seu logótipo, o agente produz uma introdução animada orientada para branding).

🔗 Tweet ditado vocal · Tweet animação de logótipo

MiniMax — três Music Skills open source para agentes

14 de abril — A MiniMax abre em open source três Music Skills para agentes: minimax-music-gen (geração de uma música completa a partir de um prompt, com escolha automática entre original, instrumental e cover), buddy-sings (o agente IA canta como companheiro vocal), e Playlist curation (curadoria de playlists a partir da biblioteca do utilizador). Estes componentes destinam-se à integração em agentes M2.7.

🔗 Tweet MiniMax

ElevenLabs — 100 milhões de dólares de receita recorrente líquida em Q1 2026

13 de abril — O CEO Mati Staniszewski anuncia que a ElevenLabs acrescentou mais de 100 milhões de dólares de receita recorrente anual líquida em Q1 2026 — o seu melhor trimestre até à data. Crescimento impulsionado por parcerias empresariais (Klarna, Revolut, Deutsche Telekom, Toyota).

🔗 Tweet do CEO da ElevenLabs


O que isto significa

As rotinas no Claude Code representam uma mudança de paradigma: a ferramenta de desenvolvimento já não responde apenas a pedidos interativos, podendo agora tomar iniciativas agendadas ou reativas na infraestrutura de um projeto. A combinação scheduled + webhook transforma o Claude Code num agente permanente sobre um repositório, com um custo de configuração mínimo.

No front do open source, o GLM-5.1 confirma que os modelos agenticos chineses atingiram o nível dos melhores modelos proprietários nos benchmarks de codificação. A capacidade de manter um horizonte de 8 horas de trabalho autónomo — com milhares de chamadas de ferramentas — abre possibilidades concretas para tarefas de otimização intensiva que os modelos tradicionais não conseguem gerir numa única sessão.

Gemini Robotics-ER 1.6 ilustra uma tendência diferente: modelos de IA geral adaptados às restrições físicas do mundo real, com uma colaboração entre software e hardware (Boston Dynamics/Spot) que produz novas capacidades como a leitura de instrumentos industriais.


Fontes

Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator