Pesquisar

Claude Code v2.1.63, OpenAI assina com o Pentágono, Anthropic mantém-se firme perante o DoW

Claude Code v2.1.63, OpenAI assina com o Pentágono, Anthropic mantém-se firme perante o DoW

O fim de fevereiro de 2026 termina marcado por atritos entre os grandes labs de IA e o Departamento de Guerra dos EUA: a OpenAI assina um acordo classificado com o Pentágono com três linhas vermelhas, enquanto a Anthropic recusa as mesmas concessões e ameaça recorrer à justiça. No plano técnico, o Claude Code v2.1.63 é a atualização mais substancial em várias semanas, e a Memory do Claude abre finalmente às contas gratuitas.


Claude Code v2.1.63 : /simplify, HTTP hooks e vaga de correções de memória

28 de fevereiro de 2026 — A versão 2.1.63 do Claude Code é a mais completa das últimas semanas. Combina novas funcionalidades para desenvolvedores e uma vaga importante de correções de fugas de memória — oito no total.

Novas funcionalidades

FuncionalidadeDescrição
/simplify et /batchDois novos slash commands incluídos na instalação por defeito
HTTP hooksOs hooks podem agora enviar JSON para uma URL externa (POST) e receber JSON em retorno, em vez de executar apenas um comando shell
Project configs & auto memoryPartilhadas entre todos os git worktrees do mesmo repositório
ENABLE_CLAUDEAI_MCP_SERVERS=falseNova variável de ambiente para desactivar os servidores MCP claude.ai
/model melhoradoMostra agora o modelo activo no menu dos slash commands
/copy “Always copy full response”Opção para copiar directamente a resposta completa sem passar pelo picker
VSCode — gestão de sessõesAções rename e remove disponíveis na lista de sessões
MCP OAuth — URL paste fallbackSe o redirect localhost falhar, a URL de callback pode ser colada manualmente

A adição dos HTTP hooks é particularmente notável: permite integrar o Claude Code em fluxos de automação externos (CI, webhooks, sistemas de notificação) sem recorrer a scripts shell intermédios.

Correções de fugas de memória (8 correções)

Uma vaga de 8 correções foca-se nas acumulações de memória em sessões longas:

  • Bridge polling loop, MCP OAuth flow, menu de configuração dos hooks, cache de prefixo de comandos bash
  • Cache de ferramentas/recursos MCP, detecção de IP do host IDE, WebSocket listener, detecção da raiz git
  • Mensagens de teammates libertadas após compactação da conversação
  • Caches de fetch do servidor MCP limpos na desconexão
  • Subagents: payloads de progresso aliviados durante a compactação

Para equipas que usam o Claude Code em modo orquestrador multi-agentes ou em sessões longas, estas correções deverão reduzir sensivelmente o consumo de memória a longo prazo.

Outras correções

  • VSCode: sessões remotas ausentes do histórico de conversação — corrigido
  • Race condition no REPL bridge (mensagens entrantes intercaladas com o histórico)
  • /clear: skills ocultos obsoletos que persistiam na nova conversação

🔗 CHANGELOG do Claude Code


OpenAI × Anthropic perante o Departamento de Guerra — Duas abordagens, a mesma recusa

OpenAI assina um acordo classificado com o Pentágono

28 de fevereiro de 2026 — A OpenAI concluiu um acordo com o Departamento de Guerra (anteriormente Defesa) para desplegar sistemas de IA em ambientes classificados. A empresa afirma que este acordo impõe mais salvaguardas do que qualquer outro despliegue de IA classificado anterior.

A OpenAI define três linhas vermelhas inegociáveis:

Linha vermelhaDescrição
Não à vigilância de massaProibido para vigiar cidadãos americanos em grande escala
Não a armas autónomasClaude não pode comandar armas sem supervisão humana
Não a decisões automatizadas de alto impactoSupervisão humana obrigatória em todas as decisões críticas

A arquitectura de despliegue é apenas cloud (sem edge/on-premise), com a pilha de segurança da OpenAI intacta. Engenheiros da OpenAI com habilitação de segredo de defesa estarão presentes no local. Nenhum modelo “sem salvaguardas” é fornecido.

O contrato estipula explicitamente que o sistema de IA não pode comandar armas autónomas nos casos em que a lei, a regulamentação ou a política do Departamento exijam controlo humano — em conformidade com a Directive DoD 3000.09 (25 de janeiro de 2023).

Posição sobre a Anthropic: A OpenAI declara explicitamente que a Anthropic não deve ser designada como “risco na cadeia de abastecimento” e comunicou esta posição ao governo. A empresa pediu que os mesmos termos contratuais sejam oferecidos a todos os labs de IA.

🔗 Nosso acordo com o Department of War

Anthropic recusa as mesmas concessões e ameaça recorrer aos tribunais

27 de fevereiro de 2026 — O Secretário da Guerra Pete Hegseth anunciou no X a sua intenção de designar a Anthropic como risco na cadeia de abastecimento (supply chain risk). A Anthropic respondeu no mesmo dia com um comunicado oficial, distinto do comunicado de Dario Amodei publicado no dia anterior.

O comunicado explica as razões do impasse: a Anthropic tinha pedido duas exceções ao uso do Claude pelo Departamento de Guerra — a vigilância doméstica de massa dos americanos, e armas totalmente autónomas. Essas duas exceções não foram aceites.

“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”

🇵🇹 “Nenhuma intimidação nem punição por parte do Departamento de Guerra mudará a nossa posição sobre a vigilância doméstica em massa ou armas totalmente autónomas. Contestaremos qualquer designação de risco na cadeia de abastecimento nos tribunais.”@AnthropicAI no X

A Anthropic esclarece o impacto real para os seus clientes:

SegmentoImpacto
Utilizadores individuais e APIAcesso ao Claude totalmente inalterado
Contratantes DoWApenas o uso no âmbito dos contratos DoW seria afectado — não os outros usos

🔗 Comunicado Anthropic (anthropic.com)


Memory Claude gratuita + importação desde outros providers de IA

2 de março de 2026 — A Claude anuncia que a funcionalidade Memory está agora disponível para todos os utilizadores, incluindo no plano gratuito.

“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”

🇵🇹 “A memória está agora disponível no plano gratuito. Também facilitámos a importação de recordações guardadas no Claude. Pode exportá-las quando quiser.”@claudeai no X

A nova funcionalidade de importação permite transferir o contexto memorizado desde outros assistentes de IA para o Claude — ChatGPT, Gemini ou outro. A interface apresenta um botão “Start import” com a indicação “Trazer contexto e dados relevantes de outro fornecedor de IA para o Claude.”

Para começar: Settings → Memory.

🔗 Tweet @claudeai


Qwen 3.5 Small Series — quatro modelos compactos open-weight

2 de março de 2026 — Alibaba/Qwen completa a sua gama Qwen3.5 com quatro modelos compactos open-weight: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B e Qwen3.5-9B.

Estes modelos partilham a mesma arquitectura que os grandes modelos Qwen3.5 — multimodal nativa, treino por Reinforcement Learning à escala — em formatos adaptados a diferentes contextos:

ModeloUso alvo
Qwen3.5-0.8BEdge devices, latência ultra-baixa
Qwen3.5-2BDespliegues embarcados, leve e rápido
Qwen3.5-4BBase multimodal para agentes leves
Qwen3.5-9BCompacto mas competitivo com modelos muito maiores

Os modelos Base também são publicados para permitir fine-tuning pela comunidade de investigação. O anúncio atingiu 1,6 milhões de visualizações no X no primeiro dia.

🔗 Qwen 3.5 Small Series no Hugging Face 🔗 Tweet @Alibaba_Qwen


Gemini CLI v0.31.0 : agent browser, Gemini 3.1 Pro, Policy Engine

27 de fevereiro de 2026 — O Gemini CLI avança para a versão 0.31.0 com quatro novidades principais.

FuncionalidadeDescrição
Gemini 3.1 Pro PreviewAcesso ao modelo mais recente da Google directamente a partir do terminal
Agent browser experimentalInterage com páginas web sem configuração adicional
Policy Engine — projectoPolíticas ao nível de projecto, wildcards MCP, filtragem por anotações de ferramentas
Web fetch directoModo experimental com rate limiting integrado

O agent browser abre caminho a fluxos de trabalho de automação web desde a CLI — scraping, testes, interações com interfaces sem API. É uma funcionalidade experimental, pelo que deve ser usada com precaução em produção.

🔗 Changelog do Gemini CLI


GitHub Copilot : descontinuação do Gemini 3 Pro e dos modelos GPT-5.1

2 de março de 2026 — A GitHub anunciou a descontinuação próxima de vários modelos em todas as experiências Copilot (Chat, inline edits, modos ask/agent, code completions).

ModeloData de descontinuaçãoAlternativa sugerida
Gemini 3 Pro26 de março de 2026Gemini 3.1 Pro
GPT-5.11 de abril de 2026GPT-5.3-Codex
GPT-5.1-Codex1 de abril de 2026GPT-5.3-Codex
GPT-5.1-Codex-Mini1 de abril de 2026GPT-5.3-Codex
GPT-5.1-Codex-Max1 de abril de 2026GPT-5.3-Codex

A descontinuação antecipada do Gemini 3 Pro a 26 de março (em vez de uma data posterior) é justificada por uma descontinuação por parte da Google. Os admins do Copilot Enterprise devem verificar as suas policies de modelos nas definições do Copilot e activar as alternativas antes dessas datas.

As métricas do Copilot incluem agora também a telemetria do modo Plan — disponível no JetBrains, Eclipse, Xcode e VS Code Insiders, com release geral para VS Code prevista em breve.

🔗 GitHub Changelog — descontinuação de modelos 🔗 Copilot metrics — modo Plan


NVIDIA Nemotron LTM 30B e Blueprints telecom para o MWC Barcelona

28 de fevereiro de 2026 — Em antecipação ao Mobile World Congress Barcelona (2–5 de março de 2026), a NVIDIA lançou duas novidades relacionadas com IA nas telecoms.

O Nemotron LTM 30B é um modelo open source de 30 mil milhões de parâmetros desenvolvido com a AdaptKey AI, baseado no NVIDIA Nemotron 3 e fine-tuned em dados telecom abertos (normas da indústria e logs sintéticos). É a primeira vez que a NVIDIA publica um Large Telco Model open source dedicado ao sector.

Dois novos NVIDIA Blueprints acompanham este lançamento:

BlueprintParceiroUso
Energy saving RANVIAVI TeraVMOptimização energética das redes rádio
Network configuration multi-agentTech MahindraRaciocínio como engenheiros NOC

Entre os primeiros adoptantes: Cassava Technologies (África), NTT DATA (Japão), Telenor Maritime. Os modelos são publicados através da iniciativa GSMA Open Telco AI.

O relatório State of AI in Telecom 2026 publicado a 27 de fevereiro conclui que a automatização de rede é o caso de uso IA nº 1 para retorno de investimento nas telecoms.

🔗 Blog NVIDIA Nemotron LTM


Runway : novo co-CEO e quatro nomeações no C-suite

26 de fevereiro de 2026 — A Runway anunciou mudanças na liderança. Anastasis Germanidis, co-fundador da empresa, torna-se co-CEO ao lado de Cristóbal Valenzuela.

Quatro novas nomeações no C-suite:

FunçãoPessoa
CTOKamil Sindi
COOMichelle Kwon
CPOAnna Chalon
CCOJamie Umpherson

A Runway descreve estas nomeações como a formalização de uma estrutura já existente, alinhada com a sua visão de “world simulation”.

🔗 Anúncio Runway


Breves

Midjourney : Moodboards e Personalization no Niji V7

26 de fevereiro — A Midjourney adicionou Moodboards e Personalization ao modelo Niji V7 (especializado em anime/ilustração). As web rooms estão a ser progressivamente removidas em favor de ferramentas de colaboração futuras.

🔗 Tweet @midjourney

Genspark : Nano Banana 2 gratuito + Workspace 3.0 a caminho

27 de fevereiro / 2 de março — O Nano Banana 2 (gerador de imagens IA) está agora disponível no AI Image Agent da Genspark, gratuito para todos os utilizadores (ilimitado para subscritores Plus e Pro). Além disso, o CEO Eric Jing anunciou o Genspark Workspace 3.0 para a semana de 9 de março — terceira versão maior após o Workspace 1.0 (nov. 2025) e 2.0 (jan. 2026).

🔗 Tweet Genspark Workspace 3.0

Perplexity organiza “Ask”, a sua primeira conferência para developers

27 de fevereiro — A Perplexity anunciou “Ask”, a sua primeira conferência para developers, prevista para 11 de março de 2026 em San Francisco. Inscrição em events.perplexity.ai/ask2026. Contexto: a Perplexity indica que as suas APIs alcançam centenas de milhões de dispositivos Samsung e são usadas por 6 das 7 “Magnificent Seven”.

🔗 Tweet @perplexity_ai

Stargate Texas : primeiras vigas de aço

27 de fevereiro — Greg Brockman (@gdb) partilhou uma atualização visual no estaleiro Stargate, em Milam County, Texas: as primeiras vigas de aço foram colocadas no local, em parceria com a SoftBank e a SBEnergy.

🔗 Tweet @gdb

ChatGPT : contacto de confiança para situações de crise

27 de fevereiro — A OpenAI anunciou uma funcionalidade “Trusted Contact” para o ChatGPT: utilizadores adultos poderão designar um contacto que receberá notificações se o utilizador parecer precisar de apoio. Desenvolvido com o “Council on Well-Being and AI” e a “Global Physicians Network”. Um tribunal da Califórnia agrupou paralelamente várias ações relacionadas com saúde mental envolvendo o ChatGPT num único processo.

🔗 Atualização sobre trabalho relacionado com saúde mental — OpenAI

Google AI : redesign do Flow, Opal, producer.ai, Gemini K-12

27 de fevereiro — A Google anunciou vários itens no seu resumo semanal @GoogleAI: o Flow by Google (ferramenta de criação de vídeo) recebeu um redesign significativo com o objetivo de se tornar um estúdio criativo IA completo. O Opal (Google Labs) introduz um “agent step” para transformar workflows estáticos em experiências interactivas. O producer.ai juntou-se oficialmente ao Google Labs. A formação Gemini está agora disponível para os 6 milhões de professores K-12 e do ensino superior nos EUA. 🔗 Resumo @GoogleAI

@OpenAIDevs teaser “Em breve.”

2 de março — @OpenAIDevs publicou um teaser com uma imagem do Windows XP e a única palavra “Em breve.” — 179.000 visualizações. Nenhum detalhe adicional disponível.

🔗 Teaser @OpenAIDevs


O que isso significa

O confronto OpenAI/Anthropic com o Departamento da Guerra revela mais uma divergência de estratégia do que de valores: os dois laboratórios traçam linhas vermelhas semelhantes (vigilância em massa, armas autónomas), mas a OpenAI negociou um acordo com salvaguardas contratuais, enquanto a Anthropic recusou assinar sem garantias aceitas. A posição pública da OpenAI a favor da Anthropic complica o quadro — os dois labs parecem coordenados nos princípios, mesmo que suas trajetórias comerciais divergentes.

Claude Code v2.1.63 confirma o ritmo acelerado da Anthropic em ferramentas CLI: os HTTP hooks ampliam concretamente as integrações possíveis, e a vaga de correções de memória atesta um esforço sério de estabilização para workflows de longa duração. A memória gratuita, por sua vez, posiciona o Claude na competição direta com o ChatGPT para o grande público.

Do lado dos modelos, o Qwen mantém sua estratégia de ocupação de faixa: após os grandes modelos MoE em meados de fevereiro, a série Small 0.8B–9B mira o edge e agentes leves — segmento ainda pouco coberto pelos laboratórios ocidentais em open-weight.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator