Dia carregado em 15 de abril: a Anthropic lança um redesign completo da aplicação desktop Claude Code orientada para agentes paralelos, a OpenAI publica o Agents SDK v0.14.0 com sandbox nativa e primitivas agenticas padronizadas, e a Google anuncia simultaneamente o Gemini 3.1 Flash TTS (Elo 1 211) e uma aplicação desktop macOS gratuita. Em paralelo, a Mistral abre os Connectors MCP no Studio, a Anthropic publica dois estudos marcantes sobre alinhamento, e uma estreia na publicidade automóvel: o primeiro spot da Mazda inteiramente produzido por IA.
Claude Code Desktop : redesign para agentes paralelos
14 de abril — A Anthropic lança um redesign completo da aplicação desktop Claude Code, pensado para a execução de várias sessões em paralelo.
“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”
🇵🇹 Repensámos o Claude Code no desktop. Agora pode iniciar várias sessões Claude em paralelo a partir da mesma aplicação. — @claudeai no X
| Funcionalidade | Descrição |
|---|---|
| Sidebar de sessões | Todas as sessões ativas e recentes, filtráveis por estado, projeto ou ambiente |
| Side chat (⌘+; / Ctrl+;) | Ramifica uma conversa a partir da sessão principal sem a poluir |
| Terminal integrado | Iniciar testes ou builds sem sair da app |
| Editor de ficheiros in-app | Abrir, modificar e guardar ficheiros diretamente |
| Diff viewer reconstruído | Desempenho melhorado em grandes changesets |
| Preview alargada | HTML, PDF, servidores locais no painel de preview |
| Layout drag-and-drop | Organizar terminal, preview, diff viewer e chat livremente |
| Paridade de plugins CLI | Os plugins funcionam de forma idêntica na app desktop |
| SSH alargado ao Mac | Para além de Linux, as sessões podem apontar para máquinas remotas |
| 3 modos de vista | Verbose, Normal, Summary — do detalhe completo apenas aos resultados |
A sidebar de sessões constitui a mudança mais estruturante: centraliza todas as sessões ativas num único local, o que altera fundamentalmente a forma de trabalhar com vários agentes em paralelo. O side chat (⌘+; no Mac, Ctrl+; no Linux/Windows) permite iniciar uma conversa paralela sem poluir o contexto da sessão principal — útil para colocar uma pergunta rápida ou testar uma hipótese.
A extensão SSH ao macOS preenche uma lacuna notável face ao Linux: as sessões podem agora apontar para máquinas remotas a partir do Mac, o que abre caminho a workflows em que o código é executado num servidor remoto enquanto continua a ser controlado a partir da interface local.
Disponível agora para todos os utilizadores do Claude Code nos planos Pro, Max, Team, Enterprise e via a API Claude.
🔗 Blog do Claude — Redesigning Claude Code on desktop 🔗 Descarregar a aplicação
OpenAI Agents SDK v0.14.0 : sandbox nativa e primitivas agenticas
15 de abril — A OpenAI publica uma evolução significativa do seu Agents SDK (openai-agents>=0.14.0). O anúncio posiciona este SDK como a infraestrutura padrão para construir agentes em produção.
Harness nativa enriquecida
O SDK integra agora um conjunto de primitivas que se alinham com o que fazem os outros ambientes de execução agentica de ponta:
| Primitive | Description |
|---|---|
| MCP (tool use) | Chamada de ferramentas através do protocolo MCP |
| AGENTS.md | Instruções personalizadas através de ficheiro de configuração |
shell tool | Execução de comandos (execution of code) |
apply patch tool | Edição de ficheiros por patch |
| Skills | Divulgação progressiva das capacidades |
| Memória configurável | Gestão do estado de longo prazo do agente |
Ambiente de execução em caixa de areia (sandbox)
Os agentes podem agora ser executados em ambientes controlados (sandboxes) com o seu sistema de ficheiros, dependências e ferramentas. A separação entre o orchestrator (harness) e o cálculo (compute) foi concebida para três objetivos: proteger as credenciais em ambientes onde o código gerado é executado, permitir execução duradoura através de point de control (checkpoint) e reidratação se o contentor falhar, e permitir o escalonamento (scaling) com várias caixas de areia em paralelo.
Fornecedores de caixas de areia suportados nativamente: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel.
Armazenamento via a abstração Manifest : AWS S3, Google Cloud Storage, Azure Blob Storage, Cloudflare R2.
Disponibilidade
Python em primeiro lugar, TypeScript previsto numa próxima versão. Entre as empresas que testaram em primeira mão: Oscar Health, LexisNexis, Thomson Reuters, Zoom.
Gemini 3.1 Flash TTS : audio tags e Elo 1 211
15 de abril — A Google lança o Gemini 3.1 Flash TTS, o seu modelo de síntese vocal (text-to-speech) mais expressivo e controlável até à data.
A grande novidade é a introdução dos audio tags: comandos em linguagem natural integrados diretamente no texto de entrada para controlar o estilo vocal, o ritmo e a tonalidade. Uma passagem rodeada de [excitement] será pronunciada com entusiasmo, uma passagem [explanatory] adotará um tom pedagógico. Esta abordagem coloca o desenvolvedor no papel de «diretor» para compor experiências áudio precisas.
| Funcionalidade | Detalhe |
|---|---|
| Audio tags | Comandos em linguagem natural no texto |
| Idiomas suportados | 70+ (incluindo 24 avaliados com alta qualidade) |
| Diálogo multi-falantes | Nativo |
| Watermarking | SynthID integrado em todo o áudio gerado |
| Score Elo | 1 211 (Artificial Analysis TTS Leaderboard) |
Com um score Elo de 1 211 no ranking de referência Artificial Analysis TTS — que mede milhares de preferências humanas em teste cego — o modelo é posicionado no «quadrante mais atrativo» pelo seu equilíbrio entre qualidade e custo.
No Google AI Studio, estão disponíveis três controlos avançados: Scene direction (definir o ambiente e as instruções de interpretação), Speaker-level specificity (perfis áudio únicos por personagem) e Seamless export (exportar as definições para código API para manter a coerência vocal entre projetos).
Todo o áudio gerado é marcado de forma impercetível pelo SynthID, a marca de água digital da Google.
Disponibilidade:
- Developers: preview via a API Gemini e Google AI Studio
- Empresas: preview no Vertex AI
- Utilizadores Workspace: via Google Vids
🔗 Artigo blog.google — Gemini 3.1 Flash TTS
Gemini App para Mac : cliente desktop nativo
15 de abril — A Google lança a aplicação Gemini para macOS, disponível gratuitamente para todos os utilizadores em macOS 15 e superior.
| Funcionalidade | Detalhe |
|---|---|
| Atalho global | Option + Space a partir de qualquer aplicação |
| Partilha de janela | Contexto sobre documentos locais, código, dados |
| Geração de imagens | Integração Nano Banana |
| Geração de vídeos | Integração Veo |
| Disponibilidade | Gratuito, macOS 15+, mundial |
A aplicação é acessível a partir de qualquer ecrã via Option + Space, permitindo interrogar o Gemini sem sair do seu fluxo de trabalho. Pode partilhar a janela ativa para fornecer contexto instantâneo sobre ficheiros locais, folhas de cálculo, gráficos ou blocos de código.
A Google apresenta esta versão como uma «primeira versão» que estabelece as bases de um assistente de desktop pessoal e proativo, com mais anúncios previstos para os próximos meses.
🔗 Artigo blog.google — Gemini App para macOS
Claude Code v2.1.108 e v2.1.109 : recap de sessão, caching 1h, thinking
14-15 de abril — Duas novas versões do Claude Code em dois dias.
v2.1.108 traz várias melhorias funcionais:
| Funcionalidade | Descrição |
|---|---|
| Recap de sessão | /recap ou /config, acionado automaticamente após uma ausência. Forçável via CLAUDE_CODE_ENABLE_AWAY_SUMMARY |
| Prompt caching 1h | Variável ENABLE_PROMPT_CACHING_1H para TTL de 1h (API key, Bedrock, Vertex, Foundry). FORCE_PROMPT_CACHING_5M força o TTL de 5 min |
| Slash commands via Skill tool | O modelo pode invocar os comandos built-in (/init, /review, /security-review) via o Skill tool |
/undo alias | /undo é agora um alias para /rewind |
Melhorias /model | Aviso antes da mudança de modelo (a resposta seguinte relê o histórico completo sem cache) |
Melhorias /resume | Padrão nas sessões do diretório atual; Ctrl+A para ver todos os projetos |
A feature /recap é particularmente útil num contexto de agentes paralelos: quando se regressa a uma sessão deixada em segundo plano, o Claude resume o que aconteceu desde a última interação.
v2.1.109 traz uma melhoria da interface para o modo extended thinking: o indicador de progresso gira com uma dica rotativa para visualizar melhor que o modelo está em fase de reflexão.
Anthropic : investigadores de alinhamento automatizados (PGR 0.97)
14 de abril — No âmbito do programa Anthropic Fellows, uma experiência original: é possível usar o Claude Opus 4.6 para acelerar a investigação sobre alinhamento?
O problema de supervisão «fraca para forte» (weak-to-strong supervision) é um proxy do desafio que se aproxima: como supervisionar modelos mais inteligentes do que nós? A experiência usa um modelo forte (Qwen 3-4B-Base) e um modelo fraco como «professor» (Qwen 1.5-0.5B-Chat). A métrica performance gap recovered (PGR) mede em que medida o modelo forte ultrapassa os limites do professor fraco.
Dispositivo: 9 cópias de Claude Opus 4.6 equipadas com ferramentas (caixa de areia, fórum partilhado, armazenamento, servidor de score) trabalham em paralelo durante 5 dias. Cada instância recebe um ponto de partida ligeiramente diferente para incentivar a diversidade de abordagens.
| Indicador | Valor |
|---|---|
| Baseline humano (7 dias, 4 métodos) | PGR 0.23 |
| Investigadores automatizados após 5 dias (800h cumuladas) | PGR 0.97 |
| Custo total | ~18 000 /hora por instância) |
| Generalização matemática | PGR 0.94 |
| Generalização de código | PGR 0.47 (o dobro do baseline) |
| Teste em produção (Claude Sonnet 4) | Sem melhoria significativa |
Os investigadores esclarecem que este resultado não significa que o Claude seja um «cientista de alinhamento generalista» — o problema escolhido é excecionalmente adequado à automatização (medida objetiva única). Mas a experiência demonstra que o Claude pode multiplicar a cadência de experimentação em alinhamento, e que a diversidade dos pontos de partida é fundamental. O código e os dados estão disponíveis em open source.
🔗 Blog da Anthropic — Automated Alignment Researchers
Aprendizagem subliminar nos LLMs publicada na Nature
15 de abril — Um artigo de pesquisa coassinado pela Anthropic e por Owain Evans foi publicado na revista Nature sobre o fenómeno de aprendizagem subliminar (subliminal learning) dos LLMs.
“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”
🇵🇹 Pesquisas que coescrevemos sobre aprendizagem subliminar — como os LLMs podem transmitir traços como preferências ou desalinhamento através de sinais ocultos nos dados — foram publicadas hoje na Nature. — @AnthropicAI no X
O artigo demonstra que os LLMs podem transmitir traços (como «gostar de corujas») através de dados aparentemente neutros (por exemplo, sequências de números sem relação com o traço). Este fenómeno de transmissão oculta coloca questões importantes para a segurança: um modelo poderia propagar preferências ou desalinhamento através de dados de treino sem que isso fosse detetável por inspeção direta. Um preprint tinha sido publicado em julho de 2025.
🔗 Artigo Nature — Subliminal Learning
GPT-5.4-Cyber e expansão do programa TAC
14 de abril — A OpenAI anuncia a expansão do seu programa Trusted Access for Cyber (TAC) a milhares de defensores individuais verificados e a centenas de equipas responsáveis pela proteção de software crítico.
Um novo modelo, GPT-5.4-Cyber, está agora acessível aos utilizadores dos níveis mais elevados do programa. Trata-se de uma variante do GPT-5.4 otimizada para cibersegurança defensiva, com um limiar de recusa reduzido para usos legítimos e uma capacidade exclusiva de reverse engineering binário (análise de software compilado sem acesso ao código-fonte).
O programa TAC opera em três níveis:
- Utilizadores individuais: Verificação de identidade em chatgpt.com/cyber
- Empresas: Acesso de equipa via representante da OpenAI
- Níveis superiores (acesso ao GPT-5.4-Cyber): Autenticação reforçada + expressão de interesse
Codex Security, lançado no início de 2026, já ajudou a corrigir mais de 3 000 vulnerabilidades críticas e elevadas.
Gemini Personal Intelligence : implementação global
15 de abril — A funcionalidade Personal Intelligence da aplicação Gemini expande-se internacionalmente. Até agora limitada aos Estados Unidos, está agora acessível aos subscritores Google AI Ultra, Pro e Plus em todo o mundo, com uma implementação para utilizadores gratuitos prevista para breve.
A Personal Intelligence permite ao Gemini fornecer respostas personalizadas e contextuais ligando-se às aplicações Google do utilizador: Search, Gmail, Google Photos e YouTube. A Google também anunciou a chegada da Personal Intelligence ao Google Chrome durante a semana.
Mistral Connectors MCP no Studio (Public Preview)
15 de abril — A Mistral AI lança os Connectors no Mistral Studio em acesso antecipado público (Public Preview), permitindo ligar fontes de dados empresariais via o protocolo MCP.
Um connector encapsula uma integração numa entidade reutilizável baseada em MCP. Uma vez registado, é governado e monitorizado no Studio, e torna-se uma ferramenta nativa para qualquer conversa, agente ou workflow.
| Funcionalidade | Detalhe | | -------------------------------- | ----------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------------- | | MCPs integrados e personalizados | Disponíveis para todos os pedidos de modelos e agentes | | Chamada direta de ferramentas | Controlo preciso sobre quando e como as ferramentas são invocadas | | Validação humana no loop | Fluxo de aprovação configurável antes da execução das ferramentas | | Acesso programático | Criação, modificação, listagem e eliminação de connectors via a API | | Registo centralizado | Disponível em todas as apps Mistral (Le Chat, AI Studio, Vibe em breve) | Intégrations suportadas: CRM, bases de conhecimento, ferramentas de produtividade, GitHub, pesquisa web. |
🔗 Anúncio Mistral — Connectors
Primeiro spot publicitário automóvel inteiramente produzido por IA
15 de abril — A Luma Agents alimentou o primeiro spot publicitário da Mazda inteiramente produzido por IA. A agência criativa independente Boundless (Joanesburgo) utilizou a Luma para criar uma campanha reunindo várias gerações do MX-5 e décadas de narrativa da marca. Prazo total do conceito até à aprovação final: menos de duas semanas.
A Luma cita este caso como exemplo dos fluxos de trabalho criativos nativos da IA: produção mais rápida, sem compromisso com a visão criativa.
🔗 Luma Labs — Boundless × Mazda
Anúncios menores
Kling AI Skill (15 de abril) — A Kling lança uma encapsulação one-stop das suas APIs para integração direta nos agentes de IA. Os agentes podem aceder à geração Text/Image-to-Video, geração de imagens 4K e consistência entre cenas, sem configuração complexa. Compatível com Claude Code, Cursor, Codex, Copilot. 🔗 Documentação Kling AI Skill
Qwen no OpenCode (15 de abril) — Qwen3.6-Plus e Qwen3.5-Plus estão agora disponíveis na ferramenta de coding OpenCode. Qwen3.5-Plus é 3x mais barato que Qwen3.6-Plus, ambos os modelos suportam imagens e oferecem retenção zero de dados. 🔗 Tweet @Alibaba_Qwen
Copilot Cloud Agent — ativação seletiva (15 de abril) — Os administradores do GitHub Enterprise podem agora ativar o Copilot Cloud Agent de forma seletiva por organização através das propriedades personalizadas (custom properties). Três novos endpoints REST permitem gerir esta política via API. 🔗 Changelog GitHub
O que isso significa
O dia 15 de abril ilustra uma convergência: os grandes atores equipam os seus ambientes de desenvolvimento com uma infraestrutura agentica padronizada. Claude Code Desktop, os Agents SDK da OpenAI e os Mistral Connectors partilham a mesma lógica — orquestrar vários agentes em paralelo, dotá-los de primitivas (MCP, AGENTS.md, shell, ficheiros) e oferecer-lhes um ambiente de execução isolado.
O anúncio mais estruturante continua a ser o redesign do Claude Code Desktop: a sidebar de sessões e o side chat mudam a forma de trabalhar com vários agentes em simultâneo, um uso que se torna progressivamente a norma para os desenvolvedores que se apoiam na IA.
No que diz respeito à pesquisa, a publicação da Nature sobre a aprendizagem subliminar e a experiência dos investigadores de alinhamento automatizados (PGR 0.97 por 18 000 $) indicam que a Anthropic investe em paralelo na compreensão dos riscos de longo prazo — um equilíbrio entre produtividade imediata e segurança estrutural.
Fontes
- Blog Claude — Redesenhando o Claude Code no desktop
- CHANGELOG Claude Code (GitHub)
- Anthropic — Investigadores de Alinhamento Automatizado
- Nature — Aprendizagem subliminar em LLMs
- OpenAI — A próxima evolução do Agents SDK
- OpenAI — Escalar o acesso confiável para defesa cibernética
- blog.google — Gemini 3.1 Flash TTS
- blog.google — App Gemini para macOS
- Mistral — Connectors MCP
- Luma Labs — Boundless × Mazda
- Documentação Kling AI Skill
- Changelog GitHub — propriedades personalizadas do Copilot Cloud Agent
Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator