O fim de fevereiro de 2026 termina marcado por atritos entre os grandes labs de IA e o Departamento de Guerra dos EUA: a OpenAI assina um acordo classificado com o Pentágono com três linhas vermelhas, enquanto a Anthropic recusa as mesmas concessões e ameaça recorrer à justiça. No plano técnico, o Claude Code v2.1.63 é a atualização mais substancial em várias semanas, e a Memory do Claude abre finalmente às contas gratuitas.
Claude Code v2.1.63 : /simplify, HTTP hooks e vaga de correções de memória
28 de fevereiro de 2026 — A versão 2.1.63 do Claude Code é a mais completa das últimas semanas. Combina novas funcionalidades para desenvolvedores e uma vaga importante de correções de fugas de memória — oito no total.
Novas funcionalidades
| Funcionalidade | Descrição |
|---|---|
/simplify et /batch | Dois novos slash commands incluídos na instalação por defeito |
| HTTP hooks | Os hooks podem agora enviar JSON para uma URL externa (POST) e receber JSON em retorno, em vez de executar apenas um comando shell |
| Project configs & auto memory | Partilhadas entre todos os git worktrees do mesmo repositório |
ENABLE_CLAUDEAI_MCP_SERVERS=false | Nova variável de ambiente para desactivar os servidores MCP claude.ai |
/model melhorado | Mostra agora o modelo activo no menu dos slash commands |
/copy “Always copy full response” | Opção para copiar directamente a resposta completa sem passar pelo picker |
| VSCode — gestão de sessões | Ações rename e remove disponíveis na lista de sessões |
| MCP OAuth — URL paste fallback | Se o redirect localhost falhar, a URL de callback pode ser colada manualmente |
A adição dos HTTP hooks é particularmente notável: permite integrar o Claude Code em fluxos de automação externos (CI, webhooks, sistemas de notificação) sem recorrer a scripts shell intermédios.
Correções de fugas de memória (8 correções)
Uma vaga de 8 correções foca-se nas acumulações de memória em sessões longas:
- Bridge polling loop, MCP OAuth flow, menu de configuração dos hooks, cache de prefixo de comandos bash
- Cache de ferramentas/recursos MCP, detecção de IP do host IDE, WebSocket listener, detecção da raiz git
- Mensagens de teammates libertadas após compactação da conversação
- Caches de fetch do servidor MCP limpos na desconexão
- Subagents: payloads de progresso aliviados durante a compactação
Para equipas que usam o Claude Code em modo orquestrador multi-agentes ou em sessões longas, estas correções deverão reduzir sensivelmente o consumo de memória a longo prazo.
Outras correções
- VSCode: sessões remotas ausentes do histórico de conversação — corrigido
- Race condition no REPL bridge (mensagens entrantes intercaladas com o histórico)
/clear: skills ocultos obsoletos que persistiam na nova conversação
OpenAI × Anthropic perante o Departamento de Guerra — Duas abordagens, a mesma recusa
OpenAI assina um acordo classificado com o Pentágono
28 de fevereiro de 2026 — A OpenAI concluiu um acordo com o Departamento de Guerra (anteriormente Defesa) para desplegar sistemas de IA em ambientes classificados. A empresa afirma que este acordo impõe mais salvaguardas do que qualquer outro despliegue de IA classificado anterior.
A OpenAI define três linhas vermelhas inegociáveis:
| Linha vermelha | Descrição |
|---|---|
| Não à vigilância de massa | Proibido para vigiar cidadãos americanos em grande escala |
| Não a armas autónomas | Claude não pode comandar armas sem supervisão humana |
| Não a decisões automatizadas de alto impacto | Supervisão humana obrigatória em todas as decisões críticas |
A arquitectura de despliegue é apenas cloud (sem edge/on-premise), com a pilha de segurança da OpenAI intacta. Engenheiros da OpenAI com habilitação de segredo de defesa estarão presentes no local. Nenhum modelo “sem salvaguardas” é fornecido.
O contrato estipula explicitamente que o sistema de IA não pode comandar armas autónomas nos casos em que a lei, a regulamentação ou a política do Departamento exijam controlo humano — em conformidade com a Directive DoD 3000.09 (25 de janeiro de 2023).
Posição sobre a Anthropic: A OpenAI declara explicitamente que a Anthropic não deve ser designada como “risco na cadeia de abastecimento” e comunicou esta posição ao governo. A empresa pediu que os mesmos termos contratuais sejam oferecidos a todos os labs de IA.
🔗 Nosso acordo com o Department of War
Anthropic recusa as mesmas concessões e ameaça recorrer aos tribunais
27 de fevereiro de 2026 — O Secretário da Guerra Pete Hegseth anunciou no X a sua intenção de designar a Anthropic como risco na cadeia de abastecimento (supply chain risk). A Anthropic respondeu no mesmo dia com um comunicado oficial, distinto do comunicado de Dario Amodei publicado no dia anterior.
O comunicado explica as razões do impasse: a Anthropic tinha pedido duas exceções ao uso do Claude pelo Departamento de Guerra — a vigilância doméstica de massa dos americanos, e armas totalmente autónomas. Essas duas exceções não foram aceites.
“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”
🇵🇹 “Nenhuma intimidação nem punição por parte do Departamento de Guerra mudará a nossa posição sobre a vigilância doméstica em massa ou armas totalmente autónomas. Contestaremos qualquer designação de risco na cadeia de abastecimento nos tribunais.” — @AnthropicAI no X
A Anthropic esclarece o impacto real para os seus clientes:
| Segmento | Impacto |
|---|---|
| Utilizadores individuais e API | Acesso ao Claude totalmente inalterado |
| Contratantes DoW | Apenas o uso no âmbito dos contratos DoW seria afectado — não os outros usos |
🔗 Comunicado Anthropic (anthropic.com)
Memory Claude gratuita + importação desde outros providers de IA
2 de março de 2026 — A Claude anuncia que a funcionalidade Memory está agora disponível para todos os utilizadores, incluindo no plano gratuito.
“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”
🇵🇹 “A memória está agora disponível no plano gratuito. Também facilitámos a importação de recordações guardadas no Claude. Pode exportá-las quando quiser.” — @claudeai no X
A nova funcionalidade de importação permite transferir o contexto memorizado desde outros assistentes de IA para o Claude — ChatGPT, Gemini ou outro. A interface apresenta um botão “Start import” com a indicação “Trazer contexto e dados relevantes de outro fornecedor de IA para o Claude.”
Para começar: Settings → Memory.
Qwen 3.5 Small Series — quatro modelos compactos open-weight
2 de março de 2026 — Alibaba/Qwen completa a sua gama Qwen3.5 com quatro modelos compactos open-weight: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B e Qwen3.5-9B.
Estes modelos partilham a mesma arquitectura que os grandes modelos Qwen3.5 — multimodal nativa, treino por Reinforcement Learning à escala — em formatos adaptados a diferentes contextos:
| Modelo | Uso alvo |
|---|---|
| Qwen3.5-0.8B | Edge devices, latência ultra-baixa |
| Qwen3.5-2B | Despliegues embarcados, leve e rápido |
| Qwen3.5-4B | Base multimodal para agentes leves |
| Qwen3.5-9B | Compacto mas competitivo com modelos muito maiores |
Os modelos Base também são publicados para permitir fine-tuning pela comunidade de investigação. O anúncio atingiu 1,6 milhões de visualizações no X no primeiro dia.
🔗 Qwen 3.5 Small Series no Hugging Face 🔗 Tweet @Alibaba_Qwen
Gemini CLI v0.31.0 : agent browser, Gemini 3.1 Pro, Policy Engine
27 de fevereiro de 2026 — O Gemini CLI avança para a versão 0.31.0 com quatro novidades principais.
| Funcionalidade | Descrição |
|---|---|
| Gemini 3.1 Pro Preview | Acesso ao modelo mais recente da Google directamente a partir do terminal |
| Agent browser experimental | Interage com páginas web sem configuração adicional |
| Policy Engine — projecto | Políticas ao nível de projecto, wildcards MCP, filtragem por anotações de ferramentas |
| Web fetch directo | Modo experimental com rate limiting integrado |
O agent browser abre caminho a fluxos de trabalho de automação web desde a CLI — scraping, testes, interações com interfaces sem API. É uma funcionalidade experimental, pelo que deve ser usada com precaução em produção.
GitHub Copilot : descontinuação do Gemini 3 Pro e dos modelos GPT-5.1
2 de março de 2026 — A GitHub anunciou a descontinuação próxima de vários modelos em todas as experiências Copilot (Chat, inline edits, modos ask/agent, code completions).
| Modelo | Data de descontinuação | Alternativa sugerida |
|---|---|---|
| Gemini 3 Pro | 26 de março de 2026 | Gemini 3.1 Pro |
| GPT-5.1 | 1 de abril de 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex | 1 de abril de 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Mini | 1 de abril de 2026 | GPT-5.3-Codex |
| GPT-5.1-Codex-Max | 1 de abril de 2026 | GPT-5.3-Codex |
A descontinuação antecipada do Gemini 3 Pro a 26 de março (em vez de uma data posterior) é justificada por uma descontinuação por parte da Google. Os admins do Copilot Enterprise devem verificar as suas policies de modelos nas definições do Copilot e activar as alternativas antes dessas datas.
As métricas do Copilot incluem agora também a telemetria do modo Plan — disponível no JetBrains, Eclipse, Xcode e VS Code Insiders, com release geral para VS Code prevista em breve.
🔗 GitHub Changelog — descontinuação de modelos 🔗 Copilot metrics — modo Plan
NVIDIA Nemotron LTM 30B e Blueprints telecom para o MWC Barcelona
28 de fevereiro de 2026 — Em antecipação ao Mobile World Congress Barcelona (2–5 de março de 2026), a NVIDIA lançou duas novidades relacionadas com IA nas telecoms.
O Nemotron LTM 30B é um modelo open source de 30 mil milhões de parâmetros desenvolvido com a AdaptKey AI, baseado no NVIDIA Nemotron 3 e fine-tuned em dados telecom abertos (normas da indústria e logs sintéticos). É a primeira vez que a NVIDIA publica um Large Telco Model open source dedicado ao sector.
Dois novos NVIDIA Blueprints acompanham este lançamento:
| Blueprint | Parceiro | Uso |
|---|---|---|
| Energy saving RAN | VIAVI TeraVM | Optimização energética das redes rádio |
| Network configuration multi-agent | Tech Mahindra | Raciocínio como engenheiros NOC |
Entre os primeiros adoptantes: Cassava Technologies (África), NTT DATA (Japão), Telenor Maritime. Os modelos são publicados através da iniciativa GSMA Open Telco AI.
O relatório State of AI in Telecom 2026 publicado a 27 de fevereiro conclui que a automatização de rede é o caso de uso IA nº 1 para retorno de investimento nas telecoms.
Runway : novo co-CEO e quatro nomeações no C-suite
26 de fevereiro de 2026 — A Runway anunciou mudanças na liderança. Anastasis Germanidis, co-fundador da empresa, torna-se co-CEO ao lado de Cristóbal Valenzuela.
Quatro novas nomeações no C-suite:
| Função | Pessoa |
|---|---|
| CTO | Kamil Sindi |
| COO | Michelle Kwon |
| CPO | Anna Chalon |
| CCO | Jamie Umpherson |
A Runway descreve estas nomeações como a formalização de uma estrutura já existente, alinhada com a sua visão de “world simulation”.
Breves
Midjourney : Moodboards e Personalization no Niji V7
26 de fevereiro — A Midjourney adicionou Moodboards e Personalization ao modelo Niji V7 (especializado em anime/ilustração). As web rooms estão a ser progressivamente removidas em favor de ferramentas de colaboração futuras.
Genspark : Nano Banana 2 gratuito + Workspace 3.0 a caminho
27 de fevereiro / 2 de março — O Nano Banana 2 (gerador de imagens IA) está agora disponível no AI Image Agent da Genspark, gratuito para todos os utilizadores (ilimitado para subscritores Plus e Pro). Além disso, o CEO Eric Jing anunciou o Genspark Workspace 3.0 para a semana de 9 de março — terceira versão maior após o Workspace 1.0 (nov. 2025) e 2.0 (jan. 2026).
🔗 Tweet Genspark Workspace 3.0
Perplexity organiza “Ask”, a sua primeira conferência para developers
27 de fevereiro — A Perplexity anunciou “Ask”, a sua primeira conferência para developers, prevista para 11 de março de 2026 em San Francisco. Inscrição em events.perplexity.ai/ask2026. Contexto: a Perplexity indica que as suas APIs alcançam centenas de milhões de dispositivos Samsung e são usadas por 6 das 7 “Magnificent Seven”.
Stargate Texas : primeiras vigas de aço
27 de fevereiro — Greg Brockman (@gdb) partilhou uma atualização visual no estaleiro Stargate, em Milam County, Texas: as primeiras vigas de aço foram colocadas no local, em parceria com a SoftBank e a SBEnergy.
ChatGPT : contacto de confiança para situações de crise
27 de fevereiro — A OpenAI anunciou uma funcionalidade “Trusted Contact” para o ChatGPT: utilizadores adultos poderão designar um contacto que receberá notificações se o utilizador parecer precisar de apoio. Desenvolvido com o “Council on Well-Being and AI” e a “Global Physicians Network”. Um tribunal da Califórnia agrupou paralelamente várias ações relacionadas com saúde mental envolvendo o ChatGPT num único processo.
🔗 Atualização sobre trabalho relacionado com saúde mental — OpenAI
Google AI : redesign do Flow, Opal, producer.ai, Gemini K-12
27 de fevereiro — A Google anunciou vários itens no seu resumo semanal @GoogleAI: o Flow by Google (ferramenta de criação de vídeo) recebeu um redesign significativo com o objetivo de se tornar um estúdio criativo IA completo. O Opal (Google Labs) introduz um “agent step” para transformar workflows estáticos em experiências interactivas. O producer.ai juntou-se oficialmente ao Google Labs. A formação Gemini está agora disponível para os 6 milhões de professores K-12 e do ensino superior nos EUA. 🔗 Resumo @GoogleAI
@OpenAIDevs teaser “Em breve.”
2 de março — @OpenAIDevs publicou um teaser com uma imagem do Windows XP e a única palavra “Em breve.” — 179.000 visualizações. Nenhum detalhe adicional disponível.
O que isso significa
O confronto OpenAI/Anthropic com o Departamento da Guerra revela mais uma divergência de estratégia do que de valores: os dois laboratórios traçam linhas vermelhas semelhantes (vigilância em massa, armas autónomas), mas a OpenAI negociou um acordo com salvaguardas contratuais, enquanto a Anthropic recusou assinar sem garantias aceitas. A posição pública da OpenAI a favor da Anthropic complica o quadro — os dois labs parecem coordenados nos princípios, mesmo que suas trajetórias comerciais divergentes.
Claude Code v2.1.63 confirma o ritmo acelerado da Anthropic em ferramentas CLI: os HTTP hooks ampliam concretamente as integrações possíveis, e a vaga de correções de memória atesta um esforço sério de estabilização para workflows de longa duração. A memória gratuita, por sua vez, posiciona o Claude na competição direta com o ChatGPT para o grande público.
Do lado dos modelos, o Qwen mantém sua estratégia de ocupação de faixa: após os grandes modelos MoE em meados de fevereiro, a série Small 0.8B–9B mira o edge e agentes leves — segmento ainda pouco coberto pelos laboratórios ocidentais em open-weight.
Fontes
- REGISTRO DE ALTERAÇÕES Claude Code — GitHub
- Declaração da Anthropic — risco na cadeia de suprimentos
- @AnthropicAI no X
- OpenAI — Nosso acordo com o Departamento da Guerra
- @OpenAI no X
- Memória Claude gratuita — @claudeai no X
- Qwen 3.5 Série Small — @Alibaba_Qwen no X
- Qwen 3.5 Small no Hugging Face
- REGISTRO DE ALTERAÇÕES Gemini CLI v0.31.0
- GitHub Changelog — descontinuação do Gemini 3 Pro e do GPT-5.1
- GitHub Changelog — métricas do Copilot agora incluem o modo Plan
- NVIDIA Nemotron LTM 30B e Blueprints para telecomunicações
- Runway — nova liderança
- @midjourney — Moodboards Niji V7
- Genspark Workspace 3.0 — @genspark_ai no X
- Perplexity Ask — @perplexity_ai no X
- Stargate Texas — @gdb no X
- OpenAI — atualização sobre trabalhos relacionados à saúde mental
- @GoogleAI resumo semanal 27 de fevereiro
- Teaser @OpenAIDevs “Em breve.”
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator