Pesquisar

RSP v3.0 na Anthropic, GPT-5.3-Codex disponível para todos, Meta assina 6 GW de capacidade de GPU com a AMD

RSP v3.0 na Anthropic, GPT-5.3-Codex disponível para todos, Meta assina 6 GW de capacidade de GPU com a AMD

Anthropic revisa profundamente sua política de segurança com uma RSP v3.0 que introduz uma Frontier Safety Roadmap (folha de rota pública de segurança) e Risk Reports (relatórios de risco) trimestrais com revisão externa. OpenAI encerra o período de acesso limitado do GPT-5.3-Codex, agora disponível para todos os desenvolvedores via Responses API. Meta assina um acordo plurianual com a AMD para ~6 GW de capacidade de GPU dedicados a seus modelos de IA. Qwen lança quatro modelos MoE incluindo um Qwen3.5-35B-A3B que supera seu próprio modelo 235B. Claude Code introduz Remote Control para continuar uma sessão a partir do celular.


Anthropic : Responsible Scaling Policy v3.0

24 de fevereiro — Anthropic publica a terceira versão da sua Responsible Scaling Policy (RSP), o quadro voluntário que regula os riscos catastróficos ligados aos seus modelos.

A RSP original data de setembro de 2023. Em dois anos e meio, os modelos adquiriram novas capacidades — navegação web, execução de código, uso de computadores, ações autônomas multi-etapas — e cada nova capacidade trouxe novos riscos a tratar.

O que funcionou

A RSP incentivou a Anthropic a desenvolver salvaguardas mais robustas, como classificadores para bloquear conteúdo relacionado a armas biológicas exigidos pelo ASL-3. O padrão ASL-3 foi ativado em maio de 2025 e está operacional. OpenAI e Google DeepMind adotaram frameworks similares nos meses após o anúncio inicial. As RSP também ajudaram a informar textos legais (SB 53 na Califórnia, EU AI Act).

O que não funcionou

Os limiares de capacidade revelaram-se mais ambíguos do que o previsto — determinar se um modelo “definitivamente” ultrapassou um limiar continua difícil na prática. Os governos não acompanharam tão rapidamente quanto desejado, num contexto político pouco favorável à regulação. Algumas exigências dos ASL mais altos (ASL-4, ASL-5) podem ser impossíveis de satisfazer unilateralmente.

Três mudanças-chave na RSP v3.0

A v3.0 distingue agora o que a Anthropic se compromete a fazer independentemente dos outros atores, por um lado, e um mapeamento capacidades→mitigações que a indústria como um todo deveria adotar, por outro.

Um segundo documento publicado em paralelo — a Frontier Safety Roadmap — define objetivos públicos concretos: lançar projetos de P&D “moonshot” para proteger os pesos dos modelos, desenvolver um red-teaming automatizado que supere centenas de participantes humanos, estabelecer registros centralizados de todas as atividades críticas de desenvolvimento de IA.

Por fim, a Anthropic compromete-se a publicar Risk Reports a cada 3 a 6 meses: perfil de segurança dos modelos, articulação capacidades/ameaças/mitigações, e para os modelos mais avançados, uma revisão por especialistas independentes com acesso não censurado ao relatório.

“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”

🇵🇹 Estamos atualizando nossa Responsible Scaling Policy para a sua terceira versão. Desde sua entrada em vigor em 2023, aprendemos muito sobre seus pontos fortes e suas limitações. Esta atualização melhora a política reforçando o que funcionou e comprometendo-nos com ainda mais transparência.@AnthropicAI no X

🔗 RSP v3.0 (Anthropic)


OpenAI : GPT-5.3-Codex em disponibilidade geral

24 de fevereiro — GPT-5.3-Codex está agora acessível a todos os desenvolvedores via Responses API da OpenAI. O modelo havia sido lançado no início de fevereiro em acesso restrito; agora passa a disponibilidade geral.

GPT-5.3-Codex combina desempenho de codificação de frontier e capacidades de conhecimento profissional em um único modelo. Segundo os retornos dos primeiros integradores, ele seria “significativamente mais poderoso e 3 a 4 vezes mais eficiente em tokens que o GPT-5.2”. A plataforma Lovable esteve entre as primeiras a adotá-lo para seus casos de uso mais complexos.

O modelo também está disponível via OpenRouter para desenvolvedores que desejam integrá-lo em seus fluxos de trabalho existentes sem passar diretamente pela API da OpenAI.

ElementoDetalhe
DisponibilidadeResponses API (acesso geral)
Eficiência3-4x mais eficiente em tokens vs GPT-5.2
Acesso alternativoOpenRouter

🔗 Tweet @OpenAIDevs


Meta + AMD : acordo plurianual para ~6 GW de GPU

24 de fevereiro — Meta anuncia uma parceria plurianual com a AMD para integrar os últimos GPUs AMD Instinct em sua infraestrutura global.

O desdobramento prevê cerca de 6 GW de capacidade em data centers dedicada, com o objetivo de desenvolver modelos de IA de ponta e levar uma “inteligência artificial pessoal superinteligente” a bilhões de usuários no mundo.

“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”

🇵🇹 Hoje anunciamos um acordo plurianual com a @AMD para integrar seus mais recentes GPUs Instinct em nossa infraestrutura global. Com aproximadamente 6 GW de capacidade de data center planejada para este desdobramento, aumentamos nossa capacidade de computação para acelerar o desenvolvimento de modelos de IA de ponta e levar uma superinteligência pessoal a bilhões de pessoas no mundo.@AIatMeta no X

Este acordo marca uma diversificação significativa dos fornecedores de GPU para a Meta, que até então se apoiava principalmente na NVIDIA. Um contrato dessa magnitude — 6 GW, ou seja, uma infraestrutura considerável para uma única parceria — é um sinal forte das ambições da Meta em termos de compute para modelos de próxima geração.

🔗 Tweet @AIatMeta


Qwen 3.5 Medium Series : 4 modelos MoE, “More intelligence, less compute”

24 de fevereiro — Alibaba Qwen lança a série Qwen 3.5 Medium, composta por quatro modelos com arquitetura MoE (Mixture of Experts).

O resultado mais impressionante é o Qwen3.5-35B-A3B: com apenas 3B de parâmetros ativos (de 35B no total), supera o Qwen3-235B-A22B — o gigante anterior da família. A arquitetura MoE e um treino RL em grande escala permitem essa densidade de eficiência.

ModeloParâmetros ativosObservação
Qwen3.5-FlashContexto 1M tokens, ferramentas integradas, hospedado
Qwen3.5-35B-A3B3B ativos / 35B totalSupera Qwen3-235B-A22B
Qwen3.5-122B-A10B10B ativos / 122B total
Qwen3.5-27B27B

Qwen3.5-Flash é a versão hospedada da série, com contexto padrão de um milhão de tokens e ferramentas integradas. Os modelos estão disponíveis no HuggingFace, ModelScope e Qwen Chat.

🔗 Tweet @Alibaba_Qwen


Claude Code v2.1.51 : Remote Control desde o mobile

24 de fevereiro — Claude Code v2.1.51 introduz remote-control, a funcionalidade mais aguardada da versão: continuar uma sessão local a partir do celular.

Iniciada a partir do terminal, uma sessão Claude Code pode ser retomada no app móvel Claude Code via /remote-control. A funcionalidade está disponível para usuários Max em research preview.

Além do Remote Control, esta versão traz várias melhorias técnicas:

MudançaDetalhe
Plugin marketplace timeoutGit : 30s → 120s, configurável via CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS
npm registriesSuporte a registries personalizados e pinning de versão para plugins
BashToolPular login shell por padrão quando snapshot disponível
Hooks de segurançaCorreção: statusLine e fileSuggestion hooks sem aceitação de workspace trust
Redução de contextoTool results > 50K chars persistidos em disco (antes 100K)

🔗 CHANGELOG Claude Code


Claude Cowork : marketplace privado de plugins e orquestração entre apps

24 de fevereiro — Anthropic lança uma atualização importante do Cowork com marketplaces privados de plugins para empresas, novos conectores e orquestração cross-applications.

Os admins podem agora criar marketplaces privados de plugins para sua organização: criação a partir de templates ou do zero, com Claude guiando a configuração. Um novo menu unificado “Customize” centraliza plugins, skills e conectores (MCP). Os admins também dispõem de provisionamento por usuário, auto-install, e fontes de plugins a partir de repositórios GitHub privados (em beta privada).

Quanto aos conectores, a lista amplia-se com Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress e Harvey. Empresas como Slack, LSEG, S&P Global e Tribe AI também publicaram plugins.

Novos templates de plugins por departamento estão disponíveis:

DepartamentoExemplos de workflows
RHCartas de oferta, onboarding, avaliações de desempenho
DesignCríticas UX, auditorias de acessibilidade, planos de pesquisa de usuário
EngineeringStandups, incident response, checklists de deploy, postmortems
OperaçõesDocumentação de processos, avaliação de fornecedores
FinançasAnálise de mercado, modelagem financeira, slides PowerPoint
Investment BankingDocumentos de transação, análises comparáveis
Private EquityDue diligence, scoring por critérios de investimento

Claude pode agora também orquestrar tarefas entre Excel e PowerPoint — analisar dados no Excel e depois gerar uma apresentação no PowerPoint, transferindo o contexto de um add-in para outro. Esta funcionalidade está disponível em research preview para todos os planos pagos no Mac e Windows.

Por fim, o suporte a OpenTelemetry permite aos admins acompanhar o uso, os custos e a atividade das ferramentas por equipe.

🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai


OpenAI : Codex CLI v0.99.0

24 de fevereiro — Codex CLI chega à versão 0.99.0 com várias novidades.

O comando /statusline permite agora personalizar os metadados exibidos no rodapé da interface TUI. Imagens GIF e WebP são aceitas como anexos. A execução de comandos shell diretos não bloqueia mais uma iteração em curso — eles podem ser executados concorrente. O snapshot do ambiente shell e dos arquivos rc de configuração fica agora ativado.

FeatureDetalhe
/statuslineConfigurar o footer TUI interativamente
Imagens GIF/WebPNovos formatos aceitos como anexos
Shell snapshotSnapshot do ambiente shell e arquivos rc
App-server APIsTurn/steer, feature discovery, resume_agent
Web search controlModos restritos via requirements.toml (Enterprise)

Uma correção de segurança (RUSTSEC-2026-0009) também está incluída.

npm install -g @openai/codex@0.99.0

🔗 Codex Changelog v0.99.0


DeepSeek-V3.2 : versão oficial

24 de fevereiro — DeepSeek anuncia a versão oficial do DeepSeek-V3.2, sucedendo a versão experimental V3.2-Exp de novembro de 2025.

Segundo o banner da homepage deepseek.com, a V3.2 reforça as capacidades Agent e integra raciocínio cuidadoso (thinking/reasoning). A versão está disponível na web, app móvel e API. O detalhe técnico completo é publicado no WeChat (canal de anúncio principal do DeepSeek em chinês).

🔗 deepseek.com


Perplexity e Comet : modo vocal para todos

24 de fevereiro — Perplexity lança uma atualização significativa do seu modo vocal no Perplexity e no navegador Comet, disponível para todos os usuários — não apenas assinantes.

O novo modo vocal do Comet permite questionar a IA sobre o que está sendo exibido na tela, navegar entre sites por voz e manter uma conversa coerente em várias abas sem perder o contexto. Essa persistência contextual multi-aba é um avanço em relação aos assistentes vocais clássicos.

AspectoDetalhe
DisponibilidadeTodos os usuários (não apenas assinantes)
PlataformasAndroid, Mac, Windows
Funcionalidade chaveNavegação vocal multi-aba com contexto persistente

🔗 Tweet @perplexity_ai 🔗 Tweet @comet


Google DeepMind : Music AI Sandbox × Wyclef Jean

24 de fevereiro — Google DeepMind e YouTube revelam uma colaboração com o produtor e artista Wyclef Jean em torno do Music AI Sandbox.

Music AI Sandbox — impulsionado pelo Lyria 3, o modelo de geração musical anunciado em 18 de fevereiro — permite a músicos profissionais experimentar a IA como parceiro criativo. Wyclef Jean usou essas ferramentas para desenvolver sua canção “Back from Abu Dhabi”. O processo criativo está documentado em um vídeo disponível no YouTube.

Esta parceria integra uma série de colaborações com artistas iniciada pelo Google DeepMind para explorar usos criativos da IA musical em condições reais de estúdio.

🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind


Google DeepMind : Robotics Accelerator na Europa

24 de fevereiro — Google DeepMind anuncia o lançamento do seu Robotics Accelerator na Europa, um programa dedicado a startups do setor de robótica.

O objetivo declarado é reduzir a lacuna entre tecnologia e oportunidades comerciais, e acelerar a próxima geração de agentes físicos. O programa é apresentado como direcionado a startups, com acesso aos recursos e à expertise do Google DeepMind.

🔗 Tweet @GoogleDeepMind


NVIDIA + Red Hat : AI Factory para empresas

24 de fevereiro — Red Hat e NVIDIA anunciam conjuntamente o Red Hat AI Factory with NVIDIA, uma solução combinada para acelerar a adoção de IA nas empresas.

A plataforma reúne o Red Hat AI Enterprise (orquestração e deploy de modelos) com o NVIDIA AI Enterprise (camada de software otimizada para GPUs NVIDIA). O objetivo é reduzir a complexidade operacional e o custo total de propriedade para organizações que implantam aplicações de IA em produção.

🔗 Tweet @NVIDIAAI


Black Forest Labs : Safety Evaluation — 10x menos vulnerabilidades

24 de fevereiro — Black Forest Labs publica os resultados de uma avaliação terceirizada independente dos riscos emergentes para seus modelos FLUX.

Os resultados mostram mais de 10x menos vulnerabilidades do que outros modelos de imagem open-weight populares. BFL afirma que alto desempenho, inovação aberta e salvaguardas podem coexistir — uma abordagem de transparência rara na indústria de modelos de imagem de código aberto.

🔗 Tweet @bfl_ml


Em resumo

Claude Code v2.1.52 — patch direcionado publicado logo após a v2.1.51: correção de um crash da extensão VS Code no Windows (command 'claude-vscode.editor.openLast' not found). Nenhuma nova funcionalidade.

GitHub Copilot SDK — agente PowerPoint — o GitHub compartilhou uma demo (23 de fevereiro) mostrando como construir um agente com o Copilot SDK capaz de pesquisar a documentação mais recente, analisar slides existentes para reproduzir seu estilo e gerar novos slides diretamente no PowerPoint. 🔗 Tweet @github

Runway — Interior Designer — a Runway apresenta um caso de uso criativo: transformar uma foto de um cômodo em um design de interiores personalizado via uma combinação de Nano Banana Pro, Kling 3.0 e Gen-4.5. Uma demo de marketing ilustrando a plataforma multimodelos lançada em 20 de fevereiro. 🔗 Tweet @runwayml


O que isso significa

A RSP v3.0 da Anthropic marca uma virada na abordagem de segurança de IA: ao tornar públicos seus objetivos através da Frontier Safety Roadmap e ao comprometer-se com Risk Reports com revisão externa, a Anthropic passa de uma política interna para um mecanismo de responsabilidade pública. É uma pressão suave sobre toda a indústria — e uma resposta implícita às críticas sobre a opacidade das decisões de implantação.

O acordo Meta+AMD de 6 GW é um sinal de alerta para a NVIDIA: o único fornecedor de GPU usado até agora pela Meta começa a ser diretamente concorrenciado. Para a AMD, é uma validação em grande escala de suas GPUs Instinct que ainda têm dificuldade em se impor frente às H100/H200 nas cargas de trabalho de treino.

O Qwen 3.5 Medium confirma que a arquitetura MoE já não é apanágio dos modelos muito grandes: um 35B-A3B que supera um 235B é uma compressão de inteligência notável, acessível a quem não tem a infraestrutura para rodar os gigantes.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator