Pesquisar

Anthropic perante o Departamento da Guerra, Perplexity integrado ao Galaxy S26, Claude e Codex GA no Copilot

Anthropic perante o Departamento da Guerra, Perplexity integrado ao Galaxy S26, Claude e Codex GA no Copilot

26 de fevereiro de 2026 marca um dia intenso: Dario Amodei expõe publicamente as duas linhas vermelhas que a Anthropic se recusa a ultrapassar para o Departamento da Guerra americano, Perplexity obtém acesso a nível de SO em 800 milhões de dispositivos Samsung, o GitHub amplia Claude e Codex para Copilot Business e Pro, e a Eli Lilly inaugura LillyPod, a fábrica de IA farmacêutica mais poderosa jamais construída.


Anthropic perante o Departamento da Guerra

26 de fevereiro — Dario Amodei, CEO da Anthropic, publica uma declaração pública sobre as negociações em curso com o Departamento da Guerra (DoW) dos EUA. O texto expõe duas linhas vermelhas que a Anthropic se recusa a ultrapassar, mesmo sob pressão governamental.

Anthropic é o primeiro fornecedor de modelos frontier a ter implantado seus modelos em redes classificadas do governo americano, em laboratórios nacionais e para clientes de segurança nacional. Claude é usado para análise de inteligência, modelagem, planejamento operacional e operações cibernéticas.

Os dois casos de uso recusados:

Caso de usoPosição da Anthropic
Vigilância doméstica em massaIncompatível com valores democráticos. A IA permite montar dados dispersos em um retrato completo de qualquer pessoa, em larga escala.
Armas totalmente autônomasOs modelos atuais não são suficientemente confiáveis. Sem supervisão humana = riscos inaceitáveis para soldados e civis.

O DoW teria exigido que a Anthropic aceitasse “qualquer uso legal” e retirasse essas salvaguardas. Em caso de recusa, o DoW ameaçaria designar a Anthropic como “risco de cadeia de abastecimento” — rótulo nunca aplicado a uma empresa americana, normalmente reservado a adversários. Amodei nota a ironia: uma ameaça os qualifica como risco de segurança, a outra os considera essenciais para a segurança nacional.

A Anthropic indica que permanece disponível para uma transição suave caso o DoW escolha outro fornecedor.

🔗 Declaração de Dario Amodei sobre nossas discussões com o Departamento da Guerra


Perplexity integrado ao Samsung Galaxy S26

26 de fevereiro — Perplexity anuncia sua integração no Samsung Galaxy S26 como IA do sistema, com a palavra de ativação “Hey Plex”. É a primeira vez que a Samsung concede acesso a nível de SO a uma empresa terceira que não seja Google nem Samsung.

O que a integração permite:

FuncionalidadeDetalhe
Palavra de ativação”Hey Plex” + botão lateral (pressionamento longo)
Acesso nativoNotes, Calendar, Gallery, Clock, Reminders
BixbyUsa as API da Perplexity para pesquisa e raciocínio em tempo real
Samsung InternetIntegração das API da Perplexity com capacidades de agente browser
Motor de buscaDisponível como opção padrão no Samsung Browser

A Samsung projetou o S26 em torno de um modelo multi-agente. Seus dados internos indicam que 8 em cada 10 usuários já usam mais de dois agentes de IA por dia. Perplexity vem pré-instalado em todos os S26, sem download nem configuração. Com 800 milhões de dispositivos Samsung ativos em 2026, o acordo representa um acesso massivo ao hardware para a Perplexity.

🔗 Blog Perplexity — Parceria com a Samsung


Claude e Codex GA para Copilot Business e Pro

26 de fevereiro — GitHub amplia o acesso aos agentes Claude (Anthropic) e OpenAI Codex para assinaturas Copilot Business e Copilot Pro. Até então reservado ao Copilot Enterprise e Pro+, esse acesso é agora estendido a uma base de usuários bem mais ampla.

Os três agentes (Claude, Codex, Copilot) funcionam em uma plataforma unificada com governança centralizada, contexto compartilhado e memória comum. Eles estão acessíveis a partir de github.com, GitHub Mobile e VS Code, sem assinatura adicional necessária.

FuncionalidadeDetalhe
Agentes disponíveisClaude (Anthropic), OpenAI Codex, GitHub Copilot
Superfíciesgithub.com, GitHub Mobile, VS Code
GovernançaAgent Control Plane (GA) — audit logs, políticas centralizadas
Assinatura requeridaNenhuma adicional (incluído em Business/Pro)
SessõesAssíncronas com logs detalhados

Ativação para Copilot Business: um administrador deve ativar os agentes a nível empresarial (Enterprise AI Controls → Agents → Partner Agents) E a nível de organização (Settings → Copilot → Coding agent → Partner Agents).

Cada sessão de agente consome uma “premium request” durante o período de pré-visualização pública. As sessões são usadas a partir da aba Agents de um repositório, atribuindo uma issue para @claude ou @codex, ou mencionando-os nos comentários de PR.

🔗 Claude e Codex agora disponíveis para usuários Copilot Business & Pro


NVIDIA + Eli Lilly — LillyPod DGX SuperPOD

26 de fevereiro — Eli Lilly inaugura LillyPod, o primeiro NVIDIA DGX SuperPOD equipado com sistemas DGX B300, construído em quatro meses. É a fábrica de IA mais poderosa totalmente propriedade e operada por uma empresa farmacêutica.

MétricaValor
GPUs1 016 NVIDIA Blackwell Ultra (DGX B300)
Performance>9 000 petaflops IA
Prazo de construção4 meses
Conexões de rede~5 000

LillyPod suporta o treinamento de modelos de difusão de proteínas, de graph neural networks para pequenas moléculas, e de modelos de fundação em genômica. A arquitetura baseia-se no NVIDIA DGX SuperPOD com networking Spectrum-X Ethernet e NVIDIA Mission Control para orquestração.

🔗 Blog NVIDIA — LillyPod


Codex CLI v0.106.0

26 de fevereiro — OpenAI publica Codex CLI v0.106.0, um release estável com várias adições notáveis.

FuncionalidadeDetalhe
Script de instalação diretoNovo script para macOS e Linux, distribuído como asset do GitHub Release
App-server v2 Realtime APIEndpoints realtime com escopo de thread e fluxo thread/unsubscribe
js_repl promovido para /experimentalVerificações de compatibilidade Node (mínimo 22.22.0) na inicialização
request_user_input em modo DefaultNão mais disponível apenas em modo Plan
gpt-5.3-codex visível no CLIModelo agora listado para usuários da API
Memória baseada em diffEsquecimento baseado em diffs e seleção por uso

Entre as correções de bugs: um fix de segurança no caminho de execução zsh-fork que podia contornar wrappers de sandbox, e um limite de 1 milhão de caracteres em inputs TUI/app-server para evitar crashes em colagens massivas.

🔗 Release v0.106.0


Claude Code v2.1.59 + v2.1.61

26 de fevereiro — Claude Code publica as versões v2.1.59 e v2.1.61 com funcionalidades notáveis.

v2.1.59 — Novas funcionalidades:

FuncionalidadeDescrição
Auto-memoryClaude salva automaticamente o contexto útil em memória persistente. Gerenciável via /memory
Comando /copySeletor interativo quando blocos de código estão presentes — permite selecionar blocos individuais ou a resposta completa
Sugestões “always allow”Melhores sugestões para comandos bash compostos (ex: cd /tmp && git fetch && git push)
Ordem de tarefas curtasMelhoria do escalonamento em sessões multi-agente
Fix MCP OAuthCorreção de condição de corrida ao executar múltiplas instâncias do Claude Code simultaneamente

v2.1.61: correção de escritas concorrentes que corrompiam o arquivo de configuração no Windows.

🔗 CHANGELOG Claude Code


Novidades Anthropic: Open Source e Connectors

26 de fevereiro — Anthropic anuncia duas aberturas complementares:

Claude for Open Source — Mantenedores e principais contribuidores de projetos open source populares recebem 6 meses de acesso gratuito ao plano Claude Max 20x. Boris Cherny (@bcherny), responsável pelo Claude Code, destaca que “muito do que torna o Claude Code excelente vem do feedback dos desenvolvedores OSS.”

Connectors no plano gratuito — Os Connectors do Claude estão agora acessíveis a usuários do plano gratuito. O catálogo conta com mais de 150 conectores nas categorias coding, data, design, finance, sales e outras.

🔗 Tweet de Lydia Hallie — Claude for Open Source 🔗 claude.com/connectors


GitHub Enterprise: governança de IA em GA

26 de fevereiro — GitHub anuncia a disponibilidade geral (GA) dos Enterprise AI Controls e do Agent Control Plane, o conjunto de governança de IA para administradores do GitHub Enterprise.

As funcionalidades GA incluem: busca e filtragem da atividade das sessões de agentes (incluindo agentes terceiros), remoção do limite de 1 000 registros para sessões das últimas 24 horas, API para aplicar definições de agentes personalizadas em escala empresarial.

Permanece em pré-visualização pública: o gerenciamento de allowlists MCP em nível empresarial.

🔗 Enterprise AI Controls & Agent Control Plane agora geralmente disponíveis


GitHub Mobile: seletor de modelo para Copilot

26 de fevereiro — GitHub Mobile lança um seletor de modelo para sessões do agente Copilot. O usuário pode agora escolher entre Auto, Claude (Anthropic), OpenAI Codex e outros modelos ao iniciar uma sessão.

🔗 Tweet do @github


Codex + Figma: workflow code→design→code

26 de fevereiro — OpenAI Developers anuncia uma integração entre Codex e Figma permitindo um fluxo de trabalho bidirecional code→design→code. A funcionalidade permite gerar arquivos de design diretamente a partir do código, colaborar no Figma e então implementar as atualizações no Codex sem interromper o fluxo de trabalho.

🔗 Tweet do @OpenAIDevs


pplx-embed: embeddings SOTA da Perplexity

26 de fevereiro — Perplexity lança duas famílias de modelos de embedding de texto: pplx-embed-v1 e pplx-embed-context-v1, disponíveis nos tamanhos 0,6B e 4B parâmetros. Os modelos estão acessíveis via API da Perplexity e no Hugging Face sob licença MIT.

BenchmarkPontuaçãoReferência
ConTEB (contextual retrieval)81,96%Novo SOTA (vs voyage-context-3 79,45%)
MTEB Multilingual v2 (4B INT8)69,66% nDCG@10vs Gemini-embedding-001 67,71%
PPLXQuery2Query Recall@1073,5%vs Qwen3-Embedding-4B 67,9% (+5,6 pts)

Os modelos suportam quantização INT8 (4x menos armazenamento que FP32) e BINARY (32x menos). Nenhum instruction prefix é necessário.

🔗 Artigo de pesquisa Perplexity


Gemini CLI v0.30.0 e Qwen 3.5 FP8

25 de fevereiro — Gemini CLI publica sua versão v0.30.0 com três eixos de mudanças: introdução de um SDK inicial (@google/gemini-cli-sdk), um novo Policy Engine substituindo --allowed-tools por um sistema de políticas granulares, e melhorias de interface (temas Solarized, melhor suporte a Vim, suspensão com Ctrl-Z).

🔗 Changelog do Gemini CLI

25 de fevereiro — Alibaba publica os pesos quantizados FP8 da série Qwen 3.5 Medium (35B-A3B, 122B-A10B, 27B), disponíveis no Hugging Face e ModelScope com suporte nativo vLLM e SGLang desde o dia 0. A quantização FP8 reduz significativamente a pegada de memória mantendo o desempenho.

🔗 Tweet do @Alibaba_Qwen


Em resumo

  • Campo phase da Responses API (24 fev) — OpenAI adiciona o campo phase à Responses API, permitindo rotular mensagens de assistant como commentary ou final_answer para diferenciar as etapas de raciocínio intermediário da resposta final. 🔗 Changelog da OpenAI API

  • GPT-5.3-Codex GA no Copilot Chat (25 fev) — Disponível em github.com, GitHub Mobile, VS Code e Visual Studio para todas as assinaturas Copilot pagas. Administradores Business/Enterprise devem ativar a política nas configurações. 🔗 Changelog do GitHub

  • NVIDIA AI Cybersecurity OT/ICS (23 fev) — Parcerias com Akamai, Forescout, Palo Alto Networks, Siemens e Xage Security para deploy da IA na cibersegurança de tecnologias operacionais e sistemas de controle industrial. 🔗 Blog NVIDIA


O que isso significa

A declaração de Dario Amodei sobre o Departamento da Guerra é inédita na indústria de IA. É a primeira vez que o CEO de um lab frontier documenta publicamente uma pressão governamental para suprimir salvaguardas éticas e recusa isso de forma explícita. O rótulo “risco de cadeia de abastecimento” mencionado pelo DoW costuma ser reservado a empresas chinesas — sua aplicação potencial a uma empresa americana seria uma escalada sem precedentes.

No terreno comercial, o dia 26 de fevereiro ilustra a consolidação em torno de poucas plataformas dominantes. O GitHub unifica Claude, Codex e Copilot numa única superfície com governança centralizada — é o modelo de “agent marketplace” ganhando forma concreta. A integração da Perplexity na Samsung segue a mesma lógica: menos novos dispositivos para conquistar, mais integrações profundas nas plataformas existentes.

O LillyPod da Eli Lilly sinaliza que a IA em pharma passa para escala industrial: construir sua própria AI factory em 4 meses com 1 016 GPUs Blackwell Ultra é sinal de que grandes empresas não esperam mais pelo cloud para workloads mais sensíveis.


Fontes - Declaração de Dario Amodei — Departamento da Guerra

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator