Os dias 25 e 26 de março trazem várias anúncios estruturantes no universo Anthropic: Claude integra Figma, Canva e Amplitude como ferramentas de trabalho diretamente no mobile, e Claude Code tem seu arranque acelerado em 2,8x graças a 60 dias de otimizações Bun. GitHub Copilot altera sua política de uso dos dados de interação com um opt-out que deve ser ativado antes de 24 de abril. Google DeepMind lança Lyria 3 Pro com geração musical ampliada para 3 minutos, e a NVIDIA funda a Nemotron Coalition na GTC 2026.
Claude: ferramentas de trabalho no mobile (Figma, Canva, Amplitude)
25 de março — Claude agora integra três ferramentas de trabalho acessíveis diretamente pelo aplicativo móvel: Figma, Canva e Amplitude. Os usuários podem assim controlar workflows de design, criação e análise a partir do telefone, sem sair da interface Claude.
O anúncio no X, acompanhado de um vídeo de demonstração, gerou 1,9 milhão de visualizações em poucas horas — sinal de que a integração de ferramentas profissionais na interface móvel atende a uma demanda forte.
Claude Code: arranque 2,8x mais rápido, Agent SDK 5,1x
24 de março — Após 60 dias de otimizações conduzidas por Jarred Sumner (criador de Bun, adquirido pela Anthropic em dezembro de 2025), Claude Code agora arranca 2,8x mais rápido, e o Agent SDK apresenta performances 5,1x superiores.
Esses ganhos resultam de trabalho de baixo nível no runtime Bun integrado ao Claude Code — otimizações do arranque, da gestão de memória e do tempo de resposta inicial. Repostado por Brian Cherny (@bcherny, equipe Claude Code), este thread técnico ilustra concretamente o que traz a integração de Bun no núcleo das ferramentas Claude.
GitHub Copilot: opt-out dos dados de interação até 24 de abril
25 de março — Mario Rodriguez, diretor de produto da GitHub, anuncia uma atualização da política de uso dos dados de interação do Copilot. A partir de 24 de abril de 2026, a GitHub usará os dados de interação dos usuários Copilot Free, Pro e Pro+ — entradas, saídas, trechos de código e contexto associado — para treinar e melhorar seus modelos de IA.
Os usuários afetados podem desativar esse compartilhamento através das configurações da conta antes dessa data. Os assinantes Copilot Business e Copilot Enterprise não são afetados por essa mudança — seus dados permanecem sujeitos aos contratos existentes que excluem o uso para treinamento.
| Plano | Afetado por essa mudança | Opt-out disponível |
|---|---|---|
| Copilot Free | Sim | Sim |
| Copilot Pro | Sim | Sim |
| Copilot Pro+ | Sim | Sim |
| Copilot Business | Não | — |
| Copilot Enterprise | Não | — |
O ponto de corte é 24 de abril: os usuários que não desativarem o compartilhamento antes dessa data começarão a contribuir para os dados de treinamento.
🔗 Atualização da política de uso de dados do GitHub Copilot 🔗 Anúncio no X
Lyria 3 Pro: faixas musicais de até 3 minutos com arquitetura musical
25 de março — Google DeepMind lança Lyria 3 Pro, uma versão avançada do modelo de geração musical Lyria 3 lançada no mês anterior. A principal novidade: a capacidade de gerar faixas de até 3 minutos, contra 30 segundos na geração anterior — um aumento de fator 6.
O modelo inclui agora a arquitetura musical (musical architecture) — intros, versos, refrões, pontes — o que permite produzir faixas com transições coerentes e estruturas elaboradas. Os prompts aceitam texto, imagens ou vídeos como ponto de partida.
| Plataforma | Acesso | Status |
|---|---|---|
| Aplicativo Gemini | Assinantes pagos | Disponível |
| Google AI Studio + API Gemini | Desenvolvedores | Disponível com Lyria RealTime |
| Vertex AI | Empresas | Prévia pública |
| Google Vids | Workspace + AI Pro/Ultra | Desdobramento na semana de 25 de março |
| ProducerAI | Gratuito e pago | Experiência agentiva para músicos |
Lyria 3 Pro foi utilizada pelo produtor Yung Spielburg para o curta Google DeepMind “Dear Upstairs Neighbors”, e uma colaboração foi anunciada com o DJ François K para uma faixa a ser lançada.
🔗 Blog oficial Google — Lyria 3 Pro 🔗 Anúncio no X
NVIDIA Nemotron Coalition: modelos fundacionais abertos de nível frontier
25 de março — Por ocasião da NVIDIA GTC 2026, Jensen Huang anuncia a criação da NVIDIA Nemotron Coalition, uma coalizão global de fabricantes de modelos dedicada ao desenvolvimento de modelos fundacionais abertos de nível frontier (frontier open foundation models).
O primeiro projeto concreto da coalizão será um modelo base co-desenvolvido por Mistral AI e NVIDIA, com membros contribuindo com dados, avaliações e expertise setorial. Os painelistas da sessão GTC incluem Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), além de representantes da Cursor e do Ai2.
Alguns números destacados durante o evento:
- A NVIDIA é agora a maior organização no Hugging Face, com cerca de 4.000 membros
- Os modelos Nemotron foram descarregados mais de 45 milhões de vezes
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇵🇹 A distinção entre proprietário e aberto realmente não existe. É proprietário e aberto. — Jensen Huang, NVIDIA GTC 2026
🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary
OpenAI: os bastidores do Model Spec e as avaliações associadas
25 de março — OpenAI publica uma explicação detalhada de sua abordagem em torno do Model Spec — o quadro público que define como seus modelos devem se comportar. Este artigo, assinado por Jason Wolfe (pesquisador da OpenAI), explica a filosofia, a estrutura e os mecanismos de evolução.
O Model Spec organiza-se em vários níveis distintos:
| Nível | Descrição |
|---|---|
| Intenções e compromissos públicos | Objetivos de alto nível: implantação iterativa, evitar danos graves |
| Cadeia de comando (Chain of Command) | Regras de resolução de conflitos entre instruções da OpenAI, desenvolvedores e usuários |
| Regras rígidas (Hard rules) | Limites inegociáveis: riscos catastróficos, danos físicos, conteúdo ilegal |
| Comportamentos por padrão | Pontos de partida configuráveis por desenvolvedores e usuários |
| Ajudas à interpretação | Regras de decisão e exemplos para casos ambíguos |
A distinção central: as regras rígidas são incontornáveis (nível “root”), enquanto os comportamentos por padrão são configuráveis — o que permite maximizar a liberdade dos usuários dentro dos limites de segurança.
A OpenAI argumenta que uma IA suficientemente avançada não pode simplesmente deduzir o comportamento correto a partir de objetivos gerais como “ser útil e segura”: essas formulações dependem demasiado do contexto e implicam arbitragem de valores. O Model Spec serve simultaneamente como alvo interno, ferramenta de transparência e mecanismo de coordenação entre equipas.
Em paralelo, a OpenAI publica os Model Spec Evals — uma suíte de avaliações de cenários que tenta cobrir as afirmações do Model Spec com exemplos representativos, para medir as lacunas entre o comportamento real do modelo e a especificação.
🔗 Inside our approach to the Model Spec 🔗 Anúncio no X
Genspark Realtime Voice: assistente de voz hands-free
25 de março — Genspark lança o Realtime Voice, um assistente de voz em tempo real totalmente hands-free. O caso de uso destacado no lançamento: utilização no carro durante o trajeto casa-trabalho.
As funcionalidades anunciadas incluem verificação de agenda, envio de e-mails e mensagens, pesquisa de informações e criação de playlists para o trajeto. O assistente também pode gerar apresentações (slides), realizar pesquisas aprofundadas (deep research) e analisar dados — tudo por voz.
OpenAI Safety Bug Bounty: reportes de riscos de IA
25 de março — OpenAI lança um programa de bug bounty dedicado à segurança de IA, distinto do programa de segurança informática já existente. Este novo programa aceita reportes de riscos de abuso que não correspondem necessariamente a vulnerabilidades de software tradicionais.
| Categoria no escopo | Exemplos |
|---|---|
| Riscos agentivos (incluindo MCP) | Injeção de prompt de terceiros, exfiltração via agente, ações não autorizadas em grande escala |
| Informações proprietárias da OpenAI | Geração que revela informações de raciocínio proprietárias |
| Integridade de contas e plataformas | Contorno de controles anti-automação, manipulação de sinais de confiança |
Os jailbreaks clássicos permanecem fora do escopo. A OpenAI também indica realizar campanhas privadas pontuais sobre tipos específicos de danos — por exemplo conteúdos de bio-risco no ChatGPT Agent e GPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge: concurso estudantil com 10.000 $ em créditos
25 de março — OpenAI e Handshake lançam o Codex Creator Challenge, um concurso destinado a estudantes para criar projetos reais com o Codex. Em jogo: 10.000 $ em créditos API OpenAI. O desafio convida os estudantes a experimentar as ferramentas Codex e construir aplicações concretas.
ElevenLabs: Guardrails 2.0 no ElevenAgents, certificado AIUC-1
24 de março — ElevenLabs implanta o Guardrails 2.0 na sua plataforma ElevenAgents. Esta camada de segurança permite controlar o comportamento dos agentes em produção com políticas de negócio personalizadas ou proteções pré-configuradas: manutenção no tópico (on-topic), coerência de marca (on-brand), resistência à manipulação.
O Guardrails 2.0 é certificado AIUC-1 (AI Use Case standard) e inclui funcionalidades de proteção de dados, redação do histórico de conversas e monitorização pós-desdobramento.
PrismAudio: modelo vídeo-para-áudio open source pelo Tongyi Lab (Alibaba)
24 de março — O Tongyi Lab da Alibaba publica o PrismAudio, um modelo vídeo-para-áudio (Video-to-Audio). Ao contrário das abordagens V2A (Video-to-Audio) clássicas que otimizam tudo com uma única função de perda, o PrismAudio adota uma arquitetura “Decomposed Multi-CoT” com três cabeças especializadas separadas — cada uma dedicada a um aspeto distinto da geração de áudio.
O modelo é treinado com Multi-Dimensional RL e Fast-GRPO para alinhar a geração de áudio com preferências humanas. Os recursos (modelo, demo, paper arXiv) são publicados via HuggingFace, ModelScope e uma página de projeto dedicada.
Claude Code v2.1.83: gestão centralizada das configurações Enterprise
25 de março — A versão 2.1.83 do Claude Code introduz o diretório drop-in managed-settings.d/, destinado aos administradores Enterprise. Este diretório permite às organizações gerir as configurações do Claude Code de forma centralizada, depositando ficheiros de configuração que se aplicam a todas as máquinas do desdobramento.
Kling AI Team Plan: colaboração de até 15 membros
24 de março — Kling AI lança o Team Plan, um plano colaborativo que permite a equipas de até 15 membros trabalharem em conjunto na plataforma. O plano inclui assets partilhados e uso comercial das criações.
Manus Desktop: créditos reduzidos pela metade até 30 de março
24 de março — Manus propõe uma promoção temporária na sua aplicação Desktop: de 24 a 30 de março de 2026, cada tarefa executada consome 50% menos créditos. Os créditos existentes valem, portanto, o dobro para todas as tarefas realizadas via Manus Desktop durante esse período.
NVIDIA doa seu driver DRA GPU à comunidade Kubernetes
24 de março — À margem da NVIDIA GTC 2026, a NVIDIA anuncia a doação à comunidade Kubernetes do seu driver Dynamic Resource Allocation (DRA) para GPUs. Esta contribuição integra o compromisso open source da NVIDIA e facilita a alocação dinâmica de recursos GPU em ambientes Kubernetes.
🔗 Blog NVIDIA — AI Future Open and Proprietary
O que isso significa
As duas notícias da Anthropic neste período são complementares: a integração móvel de Figma, Canva e Amplitude aproxima o Claude dos fluxos de trabalho profissionais do dia a dia, enquanto os ganhos de arranque do Claude Code (2,8x) e do Agent SDK (5,1x) melhoram concretamente a experiência dos desenvolvedores que o utilizam continuamente. Esses dois eixos — uso móvel para o grande público e performance para desenvolvedores — ilustram a dupla trajetória da Anthropic.
A decisão do GitHub Copilot sobre os dados de interação é a mais impactante para os desenvolvedores individuais: pela primeira vez, usuários dos planos de consumo (Free, Pro, Pro+) veem suas interações potencialmente usadas para treinamento. O opt-out existe, mas deve ser ativado antes de 24 de abril — esse prazo curto merece atenção.
A Nemotron Coalition da NVIDIA é um sinal forte sobre a estratégia open source da indústria. Ao reunir Mistral, Black Forest Labs, Cursor e outros sob uma coalizão formal para desenvolver modelos de nível frontier, a NVIDIA posiciona o open source não mais como alternativa aos modelos proprietários, mas como uma categoria complementar por si só. A frase de Jensen Huang — “proprietary and open”, não “versus” — resume bem esse reposicionamento. O Lyria 3 Pro confirma que a geração musical está a evoluir para formatos utilizáveis em produção: 3 minutos com uma estrutura coerente (intros, versos, refrões) muda a natureza do caso de uso, passando de excertos experimentais para faixas completas. A disponibilidade em várias plataformas do Google já na semana do lançamento acelera a adoção.
A publicação do Model Spec Evals pela OpenAI — um conjunto de avaliações que mede as discrepâncias entre o comportamento do modelo e a especificação escrita — é notável: é uma das primeiras tentativas públicas de medir objetivamente o alinhamento de um modelo com as suas próprias regras de conduta.
Fontes
- Atualização da política de uso de dados do GitHub Copilot
- Tweet @github — política de dados
- Blog do Google — Lyria 3 Pro
- Tweet @GoogleAI — Lyria 3 Pro
- Blog da NVIDIA — The Future of AI Is Open and Proprietary
- Tweet @NVIDIAAI — Cohere + IA soberana GTC
- OpenAI — Por dentro da nossa abordagem ao Model Spec
- Tweet @OpenAI — Model Spec
- OpenAI — Programa Safety Bug Bounty
- Tweet @OpenAIDevs — Codex Creator Challenge
- Tweet @genspark_ai — Realtime Voice
- Tweet @ElevenLabs — Guardrails 2.0
- Tweet @Ali_TongyiLab — PrismAudio
- Tweet @ManusAI — Promo Manus Desktop
- Tweet @claudeai — Claude ferramentas de trabalho móvel
- Thread @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- CHANGELOG Claude Code — v2.1.83
- Tweet @Kling_ai — Plano de equipa
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator