26 de fevereiro de 2026 marca um dia intenso: Dario Amodei expõe publicamente as duas linhas vermelhas que a Anthropic se recusa a ultrapassar para o Departamento da Guerra americano, Perplexity obtém acesso a nível de SO em 800 milhões de dispositivos Samsung, o GitHub amplia Claude e Codex para Copilot Business e Pro, e a Eli Lilly inaugura LillyPod, a fábrica de IA farmacêutica mais poderosa jamais construída.
Anthropic perante o Departamento da Guerra
26 de fevereiro — Dario Amodei, CEO da Anthropic, publica uma declaração pública sobre as negociações em curso com o Departamento da Guerra (DoW) dos EUA. O texto expõe duas linhas vermelhas que a Anthropic se recusa a ultrapassar, mesmo sob pressão governamental.
Anthropic é o primeiro fornecedor de modelos frontier a ter implantado seus modelos em redes classificadas do governo americano, em laboratórios nacionais e para clientes de segurança nacional. Claude é usado para análise de inteligência, modelagem, planejamento operacional e operações cibernéticas.
Os dois casos de uso recusados:
| Caso de uso | Posição da Anthropic |
|---|---|
| Vigilância doméstica em massa | Incompatível com valores democráticos. A IA permite montar dados dispersos em um retrato completo de qualquer pessoa, em larga escala. |
| Armas totalmente autônomas | Os modelos atuais não são suficientemente confiáveis. Sem supervisão humana = riscos inaceitáveis para soldados e civis. |
O DoW teria exigido que a Anthropic aceitasse “qualquer uso legal” e retirasse essas salvaguardas. Em caso de recusa, o DoW ameaçaria designar a Anthropic como “risco de cadeia de abastecimento” — rótulo nunca aplicado a uma empresa americana, normalmente reservado a adversários. Amodei nota a ironia: uma ameaça os qualifica como risco de segurança, a outra os considera essenciais para a segurança nacional.
A Anthropic indica que permanece disponível para uma transição suave caso o DoW escolha outro fornecedor.
🔗 Declaração de Dario Amodei sobre nossas discussões com o Departamento da Guerra
Perplexity integrado ao Samsung Galaxy S26
26 de fevereiro — Perplexity anuncia sua integração no Samsung Galaxy S26 como IA do sistema, com a palavra de ativação “Hey Plex”. É a primeira vez que a Samsung concede acesso a nível de SO a uma empresa terceira que não seja Google nem Samsung.
O que a integração permite:
| Funcionalidade | Detalhe |
|---|---|
| Palavra de ativação | ”Hey Plex” + botão lateral (pressionamento longo) |
| Acesso nativo | Notes, Calendar, Gallery, Clock, Reminders |
| Bixby | Usa as API da Perplexity para pesquisa e raciocínio em tempo real |
| Samsung Internet | Integração das API da Perplexity com capacidades de agente browser |
| Motor de busca | Disponível como opção padrão no Samsung Browser |
A Samsung projetou o S26 em torno de um modelo multi-agente. Seus dados internos indicam que 8 em cada 10 usuários já usam mais de dois agentes de IA por dia. Perplexity vem pré-instalado em todos os S26, sem download nem configuração. Com 800 milhões de dispositivos Samsung ativos em 2026, o acordo representa um acesso massivo ao hardware para a Perplexity.
🔗 Blog Perplexity — Parceria com a Samsung
Claude e Codex GA para Copilot Business e Pro
26 de fevereiro — GitHub amplia o acesso aos agentes Claude (Anthropic) e OpenAI Codex para assinaturas Copilot Business e Copilot Pro. Até então reservado ao Copilot Enterprise e Pro+, esse acesso é agora estendido a uma base de usuários bem mais ampla.
Os três agentes (Claude, Codex, Copilot) funcionam em uma plataforma unificada com governança centralizada, contexto compartilhado e memória comum. Eles estão acessíveis a partir de github.com, GitHub Mobile e VS Code, sem assinatura adicional necessária.
| Funcionalidade | Detalhe |
|---|---|
| Agentes disponíveis | Claude (Anthropic), OpenAI Codex, GitHub Copilot |
| Superfícies | github.com, GitHub Mobile, VS Code |
| Governança | Agent Control Plane (GA) — audit logs, políticas centralizadas |
| Assinatura requerida | Nenhuma adicional (incluído em Business/Pro) |
| Sessões | Assíncronas com logs detalhados |
Ativação para Copilot Business: um administrador deve ativar os agentes a nível empresarial (Enterprise AI Controls → Agents → Partner Agents) E a nível de organização (Settings → Copilot → Coding agent → Partner Agents).
Cada sessão de agente consome uma “premium request” durante o período de pré-visualização pública. As sessões são usadas a partir da aba Agents de um repositório, atribuindo uma issue para @claude ou @codex, ou mencionando-os nos comentários de PR.
🔗 Claude e Codex agora disponíveis para usuários Copilot Business & Pro
NVIDIA + Eli Lilly — LillyPod DGX SuperPOD
26 de fevereiro — Eli Lilly inaugura LillyPod, o primeiro NVIDIA DGX SuperPOD equipado com sistemas DGX B300, construído em quatro meses. É a fábrica de IA mais poderosa totalmente propriedade e operada por uma empresa farmacêutica.
| Métrica | Valor |
|---|---|
| GPUs | 1 016 NVIDIA Blackwell Ultra (DGX B300) |
| Performance | >9 000 petaflops IA |
| Prazo de construção | 4 meses |
| Conexões de rede | ~5 000 |
LillyPod suporta o treinamento de modelos de difusão de proteínas, de graph neural networks para pequenas moléculas, e de modelos de fundação em genômica. A arquitetura baseia-se no NVIDIA DGX SuperPOD com networking Spectrum-X Ethernet e NVIDIA Mission Control para orquestração.
Codex CLI v0.106.0
26 de fevereiro — OpenAI publica Codex CLI v0.106.0, um release estável com várias adições notáveis.
| Funcionalidade | Detalhe |
|---|---|
| Script de instalação direto | Novo script para macOS e Linux, distribuído como asset do GitHub Release |
| App-server v2 Realtime API | Endpoints realtime com escopo de thread e fluxo thread/unsubscribe |
| js_repl promovido para /experimental | Verificações de compatibilidade Node (mínimo 22.22.0) na inicialização |
| request_user_input em modo Default | Não mais disponível apenas em modo Plan |
| gpt-5.3-codex visível no CLI | Modelo agora listado para usuários da API |
| Memória baseada em diff | Esquecimento baseado em diffs e seleção por uso |
Entre as correções de bugs: um fix de segurança no caminho de execução zsh-fork que podia contornar wrappers de sandbox, e um limite de 1 milhão de caracteres em inputs TUI/app-server para evitar crashes em colagens massivas.
Claude Code v2.1.59 + v2.1.61
26 de fevereiro — Claude Code publica as versões v2.1.59 e v2.1.61 com funcionalidades notáveis.
v2.1.59 — Novas funcionalidades:
| Funcionalidade | Descrição |
|---|---|
| Auto-memory | Claude salva automaticamente o contexto útil em memória persistente. Gerenciável via /memory |
Comando /copy | Seletor interativo quando blocos de código estão presentes — permite selecionar blocos individuais ou a resposta completa |
| Sugestões “always allow” | Melhores sugestões para comandos bash compostos (ex: cd /tmp && git fetch && git push) |
| Ordem de tarefas curtas | Melhoria do escalonamento em sessões multi-agente |
| Fix MCP OAuth | Correção de condição de corrida ao executar múltiplas instâncias do Claude Code simultaneamente |
v2.1.61: correção de escritas concorrentes que corrompiam o arquivo de configuração no Windows.
Novidades Anthropic: Open Source e Connectors
26 de fevereiro — Anthropic anuncia duas aberturas complementares:
Claude for Open Source — Mantenedores e principais contribuidores de projetos open source populares recebem 6 meses de acesso gratuito ao plano Claude Max 20x. Boris Cherny (@bcherny), responsável pelo Claude Code, destaca que “muito do que torna o Claude Code excelente vem do feedback dos desenvolvedores OSS.”
Connectors no plano gratuito — Os Connectors do Claude estão agora acessíveis a usuários do plano gratuito. O catálogo conta com mais de 150 conectores nas categorias coding, data, design, finance, sales e outras.
🔗 Tweet de Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors
GitHub Enterprise: governança de IA em GA
26 de fevereiro — GitHub anuncia a disponibilidade geral (GA) dos Enterprise AI Controls e do Agent Control Plane, o conjunto de governança de IA para administradores do GitHub Enterprise.
As funcionalidades GA incluem: busca e filtragem da atividade das sessões de agentes (incluindo agentes terceiros), remoção do limite de 1 000 registros para sessões das últimas 24 horas, API para aplicar definições de agentes personalizadas em escala empresarial.
Permanece em pré-visualização pública: o gerenciamento de allowlists MCP em nível empresarial.
🔗 Enterprise AI Controls & Agent Control Plane agora geralmente disponíveis
GitHub Mobile: seletor de modelo para Copilot
26 de fevereiro — GitHub Mobile lança um seletor de modelo para sessões do agente Copilot. O usuário pode agora escolher entre Auto, Claude (Anthropic), OpenAI Codex e outros modelos ao iniciar uma sessão.
Codex + Figma: workflow code→design→code
26 de fevereiro — OpenAI Developers anuncia uma integração entre Codex e Figma permitindo um fluxo de trabalho bidirecional code→design→code. A funcionalidade permite gerar arquivos de design diretamente a partir do código, colaborar no Figma e então implementar as atualizações no Codex sem interromper o fluxo de trabalho.
pplx-embed: embeddings SOTA da Perplexity
26 de fevereiro — Perplexity lança duas famílias de modelos de embedding de texto: pplx-embed-v1 e pplx-embed-context-v1, disponíveis nos tamanhos 0,6B e 4B parâmetros. Os modelos estão acessíveis via API da Perplexity e no Hugging Face sob licença MIT.
| Benchmark | Pontuação | Referência |
|---|---|---|
| ConTEB (contextual retrieval) | 81,96% | Novo SOTA (vs voyage-context-3 79,45%) |
| MTEB Multilingual v2 (4B INT8) | 69,66% nDCG@10 | vs Gemini-embedding-001 67,71% |
| PPLXQuery2Query Recall@10 | 73,5% | vs Qwen3-Embedding-4B 67,9% (+5,6 pts) |
Os modelos suportam quantização INT8 (4x menos armazenamento que FP32) e BINARY (32x menos). Nenhum instruction prefix é necessário.
🔗 Artigo de pesquisa Perplexity
Gemini CLI v0.30.0 e Qwen 3.5 FP8
25 de fevereiro — Gemini CLI publica sua versão v0.30.0 com três eixos de mudanças: introdução de um SDK inicial (@google/gemini-cli-sdk), um novo Policy Engine substituindo --allowed-tools por um sistema de políticas granulares, e melhorias de interface (temas Solarized, melhor suporte a Vim, suspensão com Ctrl-Z).
25 de fevereiro — Alibaba publica os pesos quantizados FP8 da série Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponíveis no Hugging Face e ModelScope com suporte nativo vLLM e SGLang desde o dia 0. A quantização FP8 reduz significativamente a pegada de memória mantendo o desempenho.
Em resumo
-
Campo
phaseda Responses API (24 fev) — OpenAI adiciona o campophaseà Responses API, permitindo rotular mensagens de assistant comocommentaryoufinal_answerpara diferenciar as etapas de raciocínio intermediário da resposta final. 🔗 Changelog da OpenAI API -
GPT-5.3-Codex GA no Copilot Chat (25 fev) — Disponível em github.com, GitHub Mobile, VS Code e Visual Studio para todas as assinaturas Copilot pagas. Administradores Business/Enterprise devem ativar a política nas configurações. 🔗 Changelog do GitHub
-
NVIDIA AI Cybersecurity OT/ICS (23 fev) — Parcerias com Akamai, Forescout, Palo Alto Networks, Siemens e Xage Security para deploy da IA na cibersegurança de tecnologias operacionais e sistemas de controle industrial. 🔗 Blog NVIDIA
O que isso significa
A declaração de Dario Amodei sobre o Departamento da Guerra é inédita na indústria de IA. É a primeira vez que o CEO de um lab frontier documenta publicamente uma pressão governamental para suprimir salvaguardas éticas e recusa isso de forma explícita. O rótulo “risco de cadeia de abastecimento” mencionado pelo DoW costuma ser reservado a empresas chinesas — sua aplicação potencial a uma empresa americana seria uma escalada sem precedentes.
No terreno comercial, o dia 26 de fevereiro ilustra a consolidação em torno de poucas plataformas dominantes. O GitHub unifica Claude, Codex e Copilot numa única superfície com governança centralizada — é o modelo de “agent marketplace” ganhando forma concreta. A integração da Perplexity na Samsung segue a mesma lógica: menos novos dispositivos para conquistar, mais integrações profundas nas plataformas existentes.
O LillyPod da Eli Lilly sinaliza que a IA em pharma passa para escala industrial: construir sua própria AI factory em 4 meses com 1 016 GPUs Blackwell Ultra é sinal de que grandes empresas não esperam mais pelo cloud para workloads mais sensíveis.
Fontes - Declaração de Dario Amodei — Departamento da Guerra
- Tweet @lydiahallie — Claude para código aberto
- Tweet @claudeai — Plano gratuito de conectores
- CHANGELOG do Claude Code
- Claude e Codex GA — Copilot Business & Pro
- Controlo de IA Empresarial GA
- Seletor de modelo móvel do GitHub
- Perplexity + Samsung Galaxy S26
- artigo de investigação pplx-embed
- Lançamento Codex CLI v0.106.0
- Tweet @OpenAIDevs — Codex + Figma
- Blog NVIDIA LillyPod
- Cibersegurança de IA NVIDIA para OT
- Registo de alterações do Gemini CLI
- Tweet @Alibaba_Qwen — Qwen3.5 FP8
- Changelog da API Responses da OpenAI
- GPT-5.3-Codex GA no GitHub
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator