Pesquisar

Claude integra Figma/Canva em dispositivos móveis e Claude Code arranca 2,8x mais rápido, GitHub Copilot altera sua política de dados

Claude integra Figma/Canva em dispositivos móveis e Claude Code arranca 2,8x mais rápido, GitHub Copilot altera sua política de dados

Os dias 25 e 26 de março trazem várias anúncios estruturantes no universo Anthropic: Claude integra Figma, Canva e Amplitude como ferramentas de trabalho diretamente no mobile, e Claude Code tem seu arranque acelerado em 2,8x graças a 60 dias de otimizações Bun. GitHub Copilot altera sua política de uso dos dados de interação com um opt-out que deve ser ativado antes de 24 de abril. Google DeepMind lança Lyria 3 Pro com geração musical ampliada para 3 minutos, e a NVIDIA funda a Nemotron Coalition na GTC 2026.


Claude: ferramentas de trabalho no mobile (Figma, Canva, Amplitude)

25 de março — Claude agora integra três ferramentas de trabalho acessíveis diretamente pelo aplicativo móvel: Figma, Canva e Amplitude. Os usuários podem assim controlar workflows de design, criação e análise a partir do telefone, sem sair da interface Claude.

O anúncio no X, acompanhado de um vídeo de demonstração, gerou 1,9 milhão de visualizações em poucas horas — sinal de que a integração de ferramentas profissionais na interface móvel atende a uma demanda forte.

🔗 Anúncio @claudeai no X


Claude Code: arranque 2,8x mais rápido, Agent SDK 5,1x

24 de março — Após 60 dias de otimizações conduzidas por Jarred Sumner (criador de Bun, adquirido pela Anthropic em dezembro de 2025), Claude Code agora arranca 2,8x mais rápido, e o Agent SDK apresenta performances 5,1x superiores.

Esses ganhos resultam de trabalho de baixo nível no runtime Bun integrado ao Claude Code — otimizações do arranque, da gestão de memória e do tempo de resposta inicial. Repostado por Brian Cherny (@bcherny, equipe Claude Code), este thread técnico ilustra concretamente o que traz a integração de Bun no núcleo das ferramentas Claude.

🔗 Thread @jarredsumner no X


GitHub Copilot: opt-out dos dados de interação até 24 de abril

25 de março — Mario Rodriguez, diretor de produto da GitHub, anuncia uma atualização da política de uso dos dados de interação do Copilot. A partir de 24 de abril de 2026, a GitHub usará os dados de interação dos usuários Copilot Free, Pro e Pro+ — entradas, saídas, trechos de código e contexto associado — para treinar e melhorar seus modelos de IA.

Os usuários afetados podem desativar esse compartilhamento através das configurações da conta antes dessa data. Os assinantes Copilot Business e Copilot Enterprise não são afetados por essa mudança — seus dados permanecem sujeitos aos contratos existentes que excluem o uso para treinamento.

PlanoAfetado por essa mudançaOpt-out disponível
Copilot FreeSimSim
Copilot ProSimSim
Copilot Pro+SimSim
Copilot BusinessNão
Copilot EnterpriseNão

O ponto de corte é 24 de abril: os usuários que não desativarem o compartilhamento antes dessa data começarão a contribuir para os dados de treinamento.

🔗 Atualização da política de uso de dados do GitHub Copilot 🔗 Anúncio no X


Lyria 3 Pro: faixas musicais de até 3 minutos com arquitetura musical

25 de março — Google DeepMind lança Lyria 3 Pro, uma versão avançada do modelo de geração musical Lyria 3 lançada no mês anterior. A principal novidade: a capacidade de gerar faixas de até 3 minutos, contra 30 segundos na geração anterior — um aumento de fator 6.

O modelo inclui agora a arquitetura musical (musical architecture) — intros, versos, refrões, pontes — o que permite produzir faixas com transições coerentes e estruturas elaboradas. Os prompts aceitam texto, imagens ou vídeos como ponto de partida.

PlataformaAcessoStatus
Aplicativo GeminiAssinantes pagosDisponível
Google AI Studio + API GeminiDesenvolvedoresDisponível com Lyria RealTime
Vertex AIEmpresasPrévia pública
Google VidsWorkspace + AI Pro/UltraDesdobramento na semana de 25 de março
ProducerAIGratuito e pagoExperiência agentiva para músicos

Lyria 3 Pro foi utilizada pelo produtor Yung Spielburg para o curta Google DeepMind “Dear Upstairs Neighbors”, e uma colaboração foi anunciada com o DJ François K para uma faixa a ser lançada.

🔗 Blog oficial Google — Lyria 3 Pro 🔗 Anúncio no X


NVIDIA Nemotron Coalition: modelos fundacionais abertos de nível frontier

25 de março — Por ocasião da NVIDIA GTC 2026, Jensen Huang anuncia a criação da NVIDIA Nemotron Coalition, uma coalizão global de fabricantes de modelos dedicada ao desenvolvimento de modelos fundacionais abertos de nível frontier (frontier open foundation models).

O primeiro projeto concreto da coalizão será um modelo base co-desenvolvido por Mistral AI e NVIDIA, com membros contribuindo com dados, avaliações e expertise setorial. Os painelistas da sessão GTC incluem Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), além de representantes da Cursor e do Ai2.

Alguns números destacados durante o evento:

  • A NVIDIA é agora a maior organização no Hugging Face, com cerca de 4.000 membros
  • Os modelos Nemotron foram descarregados mais de 45 milhões de vezes

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇵🇹 A distinção entre proprietário e aberto realmente não existe. É proprietário e aberto.Jensen Huang, NVIDIA GTC 2026

🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary


OpenAI: os bastidores do Model Spec e as avaliações associadas

25 de março — OpenAI publica uma explicação detalhada de sua abordagem em torno do Model Spec — o quadro público que define como seus modelos devem se comportar. Este artigo, assinado por Jason Wolfe (pesquisador da OpenAI), explica a filosofia, a estrutura e os mecanismos de evolução.

O Model Spec organiza-se em vários níveis distintos:

NívelDescrição
Intenções e compromissos públicosObjetivos de alto nível: implantação iterativa, evitar danos graves
Cadeia de comando (Chain of Command)Regras de resolução de conflitos entre instruções da OpenAI, desenvolvedores e usuários
Regras rígidas (Hard rules)Limites inegociáveis: riscos catastróficos, danos físicos, conteúdo ilegal
Comportamentos por padrãoPontos de partida configuráveis por desenvolvedores e usuários
Ajudas à interpretaçãoRegras de decisão e exemplos para casos ambíguos

A distinção central: as regras rígidas são incontornáveis (nível “root”), enquanto os comportamentos por padrão são configuráveis — o que permite maximizar a liberdade dos usuários dentro dos limites de segurança.

A OpenAI argumenta que uma IA suficientemente avançada não pode simplesmente deduzir o comportamento correto a partir de objetivos gerais como “ser útil e segura”: essas formulações dependem demasiado do contexto e implicam arbitragem de valores. O Model Spec serve simultaneamente como alvo interno, ferramenta de transparência e mecanismo de coordenação entre equipas.

Em paralelo, a OpenAI publica os Model Spec Evals — uma suíte de avaliações de cenários que tenta cobrir as afirmações do Model Spec com exemplos representativos, para medir as lacunas entre o comportamento real do modelo e a especificação.

🔗 Inside our approach to the Model Spec 🔗 Anúncio no X


Genspark Realtime Voice: assistente de voz hands-free

25 de março — Genspark lança o Realtime Voice, um assistente de voz em tempo real totalmente hands-free. O caso de uso destacado no lançamento: utilização no carro durante o trajeto casa-trabalho.

As funcionalidades anunciadas incluem verificação de agenda, envio de e-mails e mensagens, pesquisa de informações e criação de playlists para o trajeto. O assistente também pode gerar apresentações (slides), realizar pesquisas aprofundadas (deep research) e analisar dados — tudo por voz.

🔗 Anúncio no X


OpenAI Safety Bug Bounty: reportes de riscos de IA

25 de março — OpenAI lança um programa de bug bounty dedicado à segurança de IA, distinto do programa de segurança informática já existente. Este novo programa aceita reportes de riscos de abuso que não correspondem necessariamente a vulnerabilidades de software tradicionais.

Categoria no escopoExemplos
Riscos agentivos (incluindo MCP)Injeção de prompt de terceiros, exfiltração via agente, ações não autorizadas em grande escala
Informações proprietárias da OpenAIGeração que revela informações de raciocínio proprietárias
Integridade de contas e plataformasContorno de controles anti-automação, manipulação de sinais de confiança

Os jailbreaks clássicos permanecem fora do escopo. A OpenAI também indica realizar campanhas privadas pontuais sobre tipos específicos de danos — por exemplo conteúdos de bio-risco no ChatGPT Agent e GPT-5.

🔗 Introducing the OpenAI Safety Bug Bounty program


Codex Creator Challenge: concurso estudantil com 10.000 $ em créditos

25 de março — OpenAI e Handshake lançam o Codex Creator Challenge, um concurso destinado a estudantes para criar projetos reais com o Codex. Em jogo: 10.000 $ em créditos API OpenAI. O desafio convida os estudantes a experimentar as ferramentas Codex e construir aplicações concretas.

🔗 Tweet @OpenAIDevs


ElevenLabs: Guardrails 2.0 no ElevenAgents, certificado AIUC-1

24 de março — ElevenLabs implanta o Guardrails 2.0 na sua plataforma ElevenAgents. Esta camada de segurança permite controlar o comportamento dos agentes em produção com políticas de negócio personalizadas ou proteções pré-configuradas: manutenção no tópico (on-topic), coerência de marca (on-brand), resistência à manipulação.

O Guardrails 2.0 é certificado AIUC-1 (AI Use Case standard) e inclui funcionalidades de proteção de dados, redação do histórico de conversas e monitorização pós-desdobramento.

🔗 Anúncio no X


PrismAudio: modelo vídeo-para-áudio open source pelo Tongyi Lab (Alibaba)

24 de março — O Tongyi Lab da Alibaba publica o PrismAudio, um modelo vídeo-para-áudio (Video-to-Audio). Ao contrário das abordagens V2A (Video-to-Audio) clássicas que otimizam tudo com uma única função de perda, o PrismAudio adota uma arquitetura “Decomposed Multi-CoT” com três cabeças especializadas separadas — cada uma dedicada a um aspeto distinto da geração de áudio.

O modelo é treinado com Multi-Dimensional RL e Fast-GRPO para alinhar a geração de áudio com preferências humanas. Os recursos (modelo, demo, paper arXiv) são publicados via HuggingFace, ModelScope e uma página de projeto dedicada.

🔗 Anúncio no X


Claude Code v2.1.83: gestão centralizada das configurações Enterprise

25 de março — A versão 2.1.83 do Claude Code introduz o diretório drop-in managed-settings.d/, destinado aos administradores Enterprise. Este diretório permite às organizações gerir as configurações do Claude Code de forma centralizada, depositando ficheiros de configuração que se aplicam a todas as máquinas do desdobramento.

🔗 CHANGELOG Claude Code


Kling AI Team Plan: colaboração de até 15 membros

24 de março — Kling AI lança o Team Plan, um plano colaborativo que permite a equipas de até 15 membros trabalharem em conjunto na plataforma. O plano inclui assets partilhados e uso comercial das criações.

🔗 Anúncio @Kling_ai no X


Manus Desktop: créditos reduzidos pela metade até 30 de março

24 de março — Manus propõe uma promoção temporária na sua aplicação Desktop: de 24 a 30 de março de 2026, cada tarefa executada consome 50% menos créditos. Os créditos existentes valem, portanto, o dobro para todas as tarefas realizadas via Manus Desktop durante esse período.

🔗 Anúncio no X


NVIDIA doa seu driver DRA GPU à comunidade Kubernetes

24 de março — À margem da NVIDIA GTC 2026, a NVIDIA anuncia a doação à comunidade Kubernetes do seu driver Dynamic Resource Allocation (DRA) para GPUs. Esta contribuição integra o compromisso open source da NVIDIA e facilita a alocação dinâmica de recursos GPU em ambientes Kubernetes.

🔗 Blog NVIDIA — AI Future Open and Proprietary


O que isso significa

As duas notícias da Anthropic neste período são complementares: a integração móvel de Figma, Canva e Amplitude aproxima o Claude dos fluxos de trabalho profissionais do dia a dia, enquanto os ganhos de arranque do Claude Code (2,8x) e do Agent SDK (5,1x) melhoram concretamente a experiência dos desenvolvedores que o utilizam continuamente. Esses dois eixos — uso móvel para o grande público e performance para desenvolvedores — ilustram a dupla trajetória da Anthropic.

A decisão do GitHub Copilot sobre os dados de interação é a mais impactante para os desenvolvedores individuais: pela primeira vez, usuários dos planos de consumo (Free, Pro, Pro+) veem suas interações potencialmente usadas para treinamento. O opt-out existe, mas deve ser ativado antes de 24 de abril — esse prazo curto merece atenção.

A Nemotron Coalition da NVIDIA é um sinal forte sobre a estratégia open source da indústria. Ao reunir Mistral, Black Forest Labs, Cursor e outros sob uma coalizão formal para desenvolver modelos de nível frontier, a NVIDIA posiciona o open source não mais como alternativa aos modelos proprietários, mas como uma categoria complementar por si só. A frase de Jensen Huang — “proprietary and open”, não “versus” — resume bem esse reposicionamento. O Lyria 3 Pro confirma que a geração musical está a evoluir para formatos utilizáveis em produção: 3 minutos com uma estrutura coerente (intros, versos, refrões) muda a natureza do caso de uso, passando de excertos experimentais para faixas completas. A disponibilidade em várias plataformas do Google já na semana do lançamento acelera a adoção.

A publicação do Model Spec Evals pela OpenAI — um conjunto de avaliações que mede as discrepâncias entre o comportamento do modelo e a especificação escrita — é notável: é uma das primeiras tentativas públicas de medir objetivamente o alinhamento de um modelo com as suas próprias regras de conduta.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator