Dia intenso em 23 e 24 de março: Anthropic lança o auto mode no Claude Code — um classificador de ações que toma as decisões de aprovação no lugar do usuário — e publica um artigo de engenharia sobre sua arquitetura multi-agentes inspirada em GAN. OpenAI lança as compras visuais no ChatGPT com o Agentic Commerce Protocol, enquanto a xAI abre o Grok Imagine à geração de vídeo multi-imagens na API. GitHub Copilot, Google DeepMind e o Anthropic Science Blog completam este panorama.
Claude Code : o auto mode, um classificador entre você e os comandos
24 de março — O Claude Code adiciona um terceiro nível de permissões: o auto mode. Até aqui, a ferramenta oferecia ou aprovar manualmente cada gravação de arquivo e comando bash, ou desativar completamente as verificações. O auto mode introduz um caminho intermediário: Claude toma as decisões por conta própria, guiado por um classificador (classifier) que analisa cada ação antes da execução.
O mecanismo é simples — antes de cada chamada de ferramenta, o classificador avalia se a ação é potencialmente destrutiva. As ações consideradas seguras são executadas automaticamente. As ações de risco são bloqueadas, e Claude procura uma abordagem alternativa sem interromper o usuário.
A Anthropic especifica que esse modo reduz os riscos sem eliminá-los e recomenda seu uso em ambientes isolados. Para ativá-lo: claude --enable-auto-mode, depois navegar até esse modo com Shift+Tab.
A funcionalidade está disponível em prévia (research preview) no plano Team. A liberação para Enterprise e API foi anunciada para os dias seguintes.
New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.
🇵🇹 Novidade no Claude Code: o auto mode. Em vez de aprovar cada gravação de arquivo e cada comando bash, ou de ignorar completamente as permissões, o auto mode permite que Claude tome as decisões de aprovação por você. As proteções verificam cada ação antes de ela ser executada. — @claudeai no X
Arquitetura multi-agentes : a abordagem GAN da Anthropic Engineering
24 de março — Em um artigo publicado no Anthropic Engineering Blog, Prithvi Rajasekaran (equipe Labs) descreve uma arquitetura multi-agentes para ampliar os limites do Claude em dois domínios: design de interface e desenvolvimento aplicativo autônomo de longa duração.
A abordagem é inspirada nas redes antagônicas generativas (Generative Adversarial Networks, GAN): um agente gerador produz o código ou o design, enquanto um agente avaliador distinto classifica o resultado e fornece um retorno crítico. Esse desacoplamento resolve um problema conhecido — o Claude tende a se autoavaliar com complacência. Um avaliador dedicado, calibrado progressivamente com exemplos, torna-se uma alavanca eficaz de melhoria.
Para o design frontend, o avaliador recebe acesso ao MCP Playwright para navegar pelas páginas ao vivo. Quatro critérios são usados: qualidade e coerência do design, originalidade (penalizando os padrões genéricos chamados de “AI slop”), craft técnico e funcionalidade. Em 10 a 15 iterações, o gerador produz interfaces visivelmente mais distintas.
Para o desenvolvimento aplicativo, a arquitetura adiciona um planejador: ele transforma um prompt de uma frase em uma especificação de produto completa. Gerador e avaliador negociam “contratos de sprint” antes de cada implementação, definindo os critérios de sucesso. O avaliador testa a aplicação via Playwright e pode fazer um sprint falhar, forçando uma revisão.
| Abordagem | Duração | Custo | Resultado |
|---|---|---|---|
| Agente solo Opus 4.5 | 20 min | 9 $ | Aplicação quebrada |
| Harness completo | 6 h | 200 $ | Aplicação funcional |
| Harness com Opus 4.6 | 4 h | 124,70 $ | Aplicação funcional + agente Claude integrado |
Com o Opus 4.6 — que não sofre mais de “ansiedade de contexto” — o autor pôde simplificar a arquitetura, remover os resets de sessão e reduzir os custos. O princípio orientador continua sendo: auditar regularmente o harness para retirar o que o modelo já sabe fazer sozinho.
🔗 Artigo completo 🔗 Anúncio no X
Computer Use no Cowork e Claude Code (macOS, Pro/Max)
23 de março — O Claude agora pode usar seu computador para realizar tarefas diretamente. Em prévia, essa funcionalidade está disponível no Claude Cowork e no Claude Code, apenas no macOS.
O Claude pode abrir aplicativos, navegar no navegador, preencher planilhas. A ideia: delegar uma tarefa a partir do celular, cuidar de outra coisa e voltar para um trabalho concluído. Também é possível definir tarefas recorrentes — verificar e-mails todas as manhãs, gerar um relatório toda sexta-feira.
A funcionalidade Computer Use está disponível nos planos Pro e Max, atualizando o aplicativo de desktop e combinando-o com o aplicativo móvel.
🔗 Anúncio no X 🔗 Página do produto Cowork
Anthropic Economic Index : “Learning curves” (5º relatório)
24 de março — A Anthropic publica seu quinto relatório do Anthropic Economic Index, intitulado “Learning curves”, baseado nos dados de uso do Claude em fevereiro de 2026 (cerca de 1 milhão de conversas, de 5 a 12 de fevereiro).
O relatório documenta duas evoluções principais desde novembro de 2025. Primeiro, uma diversificação dos usos: as dez tarefas mais frequentes no Claude.ai agora representam apenas 19% do tráfego, contra 24% três meses antes. Essa tendência se explica em parte pela migração das tarefas de codificação para a API, impulsionada pelo crescimento do Claude Code.
Depois, o efeito “curva de aprendizagem”: os usuários de longa data (mais de seis meses) apresentam uma taxa de sucesso superior em 4 a 5 pontos percentuais. Eles trabalham em problemas mais complexos, colaboram mais e delegam menos no modo automático. Os autores veem nisso um sinal de aprendizado pela prática (learning-by-doing), embora um viés de sobrevivência permaneça possível.
Na escolha de modelo, os dados confirmam que os usuários privilegiam o Opus para tarefas de alto valor: cada faixa de 10 $/h adicionais no valor estimado de uma tarefa vem acompanhada de um aumento de 1,5 ponto na proporção de uso do Opus no Claude.ai, e de 2,8 pontos na API.
🔗 Relatório completo 🔗 Anúncio no X
Anthropic Science Blog : um novo blog para IA na pesquisa científica
23 de março — A Anthropic lança o Anthropic Science Blog, dedicado à interseção entre IA e pesquisa científica. O objetivo é documentar como a IA acelera o trabalho dos pesquisadores e explorar as questões que essa transformação levanta.
O blog publicará três tipos de conteúdo: artigos aprofundados sobre resultados específicos com o papel da IA detalhado (Features), guias práticos por área científica (Workflows) e revisões das notícias do setor (Field notes).
Dois artigos inaugurais acompanham esse lançamento: “Vibe physics: The AI grad student” de Matthew Schwartz (um físico supervisionado por Claude em um cálculo real), e um tutorial sobre a orquestração do Claude Code para tarefas científicas de vários dias.
Este blog se insere nas iniciativas já existentes da Anthropic: o programa AI for Science (créditos API para pesquisadores), Claude for Life Sciences (parcerias com pharma e biotech) e a Genesis Mission.
🔗 Artigo de lançamento 🔗 Anúncio no X
Compras visuais no ChatGPT e Agentic Commerce Protocol
24 de março — A OpenAI lança uma experiência de compra visual e imersiva diretamente no ChatGPT. Os usuários podem navegar por produtos visualmente, compará-los lado a lado com detalhes (preço, avaliações, características) e refinar a pesquisa em conversa — sem sair do ChatGPT. Também é possível enviar uma foto de inspiração para encontrar itens semelhantes.
Para alimentar essa funcionalidade, a OpenAI amplia o Agentic Commerce Protocol (ACP) para a descoberta de produtos. Esse protocolo se torna a camada de conexão entre comerciantes e usuários: os comerciantes compartilham seus catálogos via ACP, e os dados chegam diretamente ao ChatGPT. Salesforce e Stripe já estão integrados como fornecedores de terceiros.
| Detalhe | Info |
|---|---|
| Disponibilidade | Todos os usuários Free, Go, Plus, Pro — implantação nesta semana |
| Upload images | Foto de inspiração para encontrar itens semelhantes |
| Comerciantes integrados | Target, Sephora, Nordstrom, Lowe’s, Best Buy, The Home Depot, Wayfair |
| Shopify | Catálogos já integrados sem ação dos comerciantes |
A Walmart é a primeira comerciante a oferecer um app nativo do ChatGPT: da descoberta no ChatGPT a um ambiente Walmart com ligação de conta, programa de fidelidade e pagamentos. Disponível no navegador web, iOS e Android em breve. Nota: a OpenAI abandona sua funcionalidade inicial “Instant Checkout”, considerada insuficientemente flexível para os comerciantes, e foca na descoberta.
OpenAI : políticas de segurança para adolescentes em código aberto
24 de março — A OpenAI publica um conjunto de políticas de segurança em código aberto para ajudar desenvolvedores a criar experiências adequadas para adolescentes. Essas políticas são apresentadas na forma de prompts utilizáveis diretamente com gpt-oss-safeguard, o modelo de segurança open-weight da OpenAI.
O objetivo: permitir que desenvolvedores traduzam objetivos abstratos de segurança em regras operacionais precisas. Seis áreas são cobertas:
| Área | Descrição |
|---|---|
| Conteúdo violento gráfico | Filtragem de violência explícita |
| Conteúdo sexual gráfico | Filtragem de sexualidade explícita |
| Ideais corporais perigosos | Transtornos alimentares, comportamentos de risco |
| Atividades e desafios perigosos | Challenges virais de risco |
| Roleplay romântico ou violento | Interações inadequadas |
| Bens e serviços reservados a adultos | Álcool, tabaco, jogos de azar |
Essas políticas foram desenvolvidas com a Common Sense Media e a everyone.ai. Publicadas via a ROOST Model Community (RMC GitHub), elas são apresentadas explicitamente como um ponto de partida, não como uma solução completa.
OpenAI Foundation : pelo menos 1 bilhão de dólares alocados
24 de março — Bret Taylor, presidente do conselho de administração da OpenAI Foundation, anuncia que a Fundação começa a alocar os recursos resultantes da recapitalização do outono de 2025. Pelo menos 1 bilhão de dólares será investido no ano em quatro áreas: ciências da vida (Alzheimer, doenças de alta mortalidade), emprego e impacto econômico, resiliência da IA (segurança infantil, biossegurança) e programas comunitários.
OpenAI : aba Library para gerenciar arquivos no ChatGPT
23 de março — A OpenAI adiciona novas funcionalidades de gerenciamento de arquivos no ChatGPT: arquivos recentes acessíveis diretamente pela barra de ferramentas, possibilidade de consultar um documento já enviado e uma aba Library na barra lateral da web para localizar todos os arquivos. Disponível para assinantes Plus, Pro e Business, com implantação futura para o Espaço Econômico Europeu, a Suíça e o Reino Unido.
Gemini 3.1 Flash-Lite : um navegador que gera as páginas em tempo real
24 de março — O Google DeepMind publica uma demonstração do Gemini 3.1 Flash-Lite: um navegador experimental que gera cada página web em tempo real, à medida que se clica, pesquisa e navega. Nenhuma página HTML pré-existente — cada conteúdo é criado em tempo real pelo modelo. A demo está acessível diretamente no Google AI Studio e gerou forte engajamento (85 mil visualizações em poucas horas).
🔗 Demo AI Studio 🔗 Anúncio no X
Google DeepMind × Agile Robots : parceria em robótica
24 de março — O Google DeepMind anuncia uma parceria de pesquisa com a Agile Robots, especialista em robótica humanoide. O acordo prevê integrar os modelos fundamentais Gemini ao hardware robótico da Agile Robots, no âmbito da estratégia Gemini Robotics do Google DeepMind.
Grok Imagine : vídeo multi-imagens na API (#1 Arena Elo 1342)
24 de março — A xAI anuncia duas novas capacidades para sua API Grok Imagine: a geração de vídeo a partir de várias imagens (multi-image to video) e a extensão de vídeo existente (video extension).
Os desenvolvedores podem enviar até 7 imagens de entrada para gerar um vídeo coerente via o modelo grok-imagine-video. A API funciona de forma assíncrona: a solicitação é enviada e, em seguida, consulta-se até o status done. As saídas suportam a proporção 16:9 em 720p.
Segundo a Design Arena, o Grok Imagine assumiu imediatamente a primeira posição do ranking Multi Image to Video Arena com uma pontuação Elo de 1342.
🔗 Anúncio @grok 🔗 Documentação da API Imagine
GitHub Copilot : @copilot para modificar diretamente uma PR
24 de março — O GitHub Copilot agora pode modificar diretamente qualquer pull request sob demanda. Ao mencionar @copilot em um comentário com uma instrução em linguagem natural — corrigir testes com falha, responder a um comentário de revisão, adicionar um teste unitário — o agente trabalha em seu ambiente na nuvem, valida o trabalho com testes e linters e depois envia as mudanças para a branch. O comportamento anterior (abrir uma nova PR) continua disponível quando solicitado explicitamente. Disponível em todos os planos pagos do Copilot.
GitHub Copilot : Gemini 3.1 Pro no JetBrains, Xcode e Eclipse
23 de março — O GitHub Copilot amplia a disponibilidade do Gemini 3.1 Pro para os IDEs JetBrains, Xcode e Eclipse. O modelo já está acessível através do seletor de modelos do Copilot em todos os modos (agent, ask, edit) nesses ambientes, além das plataformas já suportadas. Em preview pública para os planos Enterprise, Business, Pro e Pro+.
GitHub Copilot: gestão do acesso do agent por repositório via API
24 de março — O GitHub publica em preview pública uma API REST para gerir o acesso do Copilot coding agent ao nível dos repositórios da organização. Os administradores podem autorizar o agent em nenhum, em todos ou em alguns repositórios específicos de forma programática — útil para implementações em grande escala nas empresas.
GitHub Copilot: logs em direto no Raycast
20 de março — A extensão GitHub Copilot para o Raycast (o launcher macOS/Windows) permite agora monitorizar em direto os logs do coding agent sem sair do launcher. Através do comando “View Tasks”, depois da seleção da sessão, os developers acompanham o progresso do agent em tempo real. Disponível para todos os subscritores pagos do Copilot.
O que isto significa
O auto mode do Claude Code é a mudança mais estruturante deste período. Desloca a carga cognitiva do utilizador — já não é necessário aprovar cada comando — mantendo ao mesmo tempo uma rede de segurança através do classificador. É um passo em direção a agents de desenvolvimento mais autónomos, mas dentro de um enquadramento explicitamente recomendado para ambientes isolados. O artigo de engenharia sobre o harness multi-agents completa este quadro: a trajetória da Anthropic é claramente rumo a agents que trabalham durante muito tempo e de forma autónoma, com estruturas internas de supervisão (avaliador dedicado, contratos de sprint) em vez de supervisão humana em cada etapa.
Do lado da OpenAI, as compras visuais no ChatGPT marcam um pivô para casos de uso comerciais para o grande público. O Agentic Commerce Protocol posiciona o ChatGPT como uma camada de intermediação entre comerciantes e consumidores — uma estratégia diferente da API pura, que visa diretamente o valor transacional.
O Grok Imagine, que atinge o primeiro lugar no ranking Arena logo no seu lançamento no multi-image to video, ilustra a velocidade com que a xAI itera na geração de vídeo. O GitHub Copilot, por sua vez, reforça sistematicamente a autonomia do seu coding agent: a capacidade de modificar diretamente um PR existente reduz ainda mais as idas e vindas entre o agent e o developer.
Fontes
- Claude Code auto mode — @claudeai no X
- Computer Use no Cowork — @claudeai no X
- Anthropic Engineering Blog — Harness multi-agents
- Anthropic Economic Index — Learning curves
- Anthropic Science Blog — Lançamento
- Shopping visual ChatGPT — OpenAI
- Políticas de segurança para adolescentes — OpenAI
- OpenAI Foundation — Investimento
- Separador Library no ChatGPT — @OpenAI no X
- Flash-Lite Browser — @GoogleDeepMind no X
- Parceria Google DeepMind × Agile Robots
- Grok Imagine vídeo — @grok no X
- Documentação da API Grok Imagine
- Copilot @copilot nas PRs — GitHub Changelog
- Gemini 3.1 Pro no JetBrains/Xcode/Eclipse — GitHub Changelog
- API de acesso do agent por repositório — GitHub Changelog
- Logs do Copilot no Raycast — GitHub Changelog
Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator