25 de fevereiro de 2026 é um dia intenso: a Anthropic adquire a Vercept para acelerar as capacidades de computer use de Claude (72,5% no OSWorld), a Perplexity lança o Computer — um sistema baseado em agentes multi-modelo que orquestra 19 modelos em paralelo — e o GitHub Copilot CLI passa a disponibilidade geral para todos os subscritores pagos. Em paralelo, o Google DeepMind revela o Genie 3 (world models interativos) e a Intrinsic junta-se ao Google para robótica industrial.
Anthropic adquire a Vercept: o computer use avança para 72,5% no OSWorld
25 fevereiro — A Anthropic anuncia a aquisição da Vercept, uma startup especializada em perceção e interação de sistemas de IA com interfaces de software. Os cofundadores Kiana Ehsani, Luca Weihs e Ross Girshick juntam-se à Anthropic para reforçar diretamente as capacidades de computer use do Claude.
Esta aquisição insere-se numa progressão rápida no benchmark OSWorld, que mede a capacidade de um agente de IA para cumprir tarefas num sistema operativo real (navegação em folhas de cálculo complexas, preenchimento de formulários com múltiplas abas, etc.):
| Período | Pontuação OSWorld |
|---|---|
| Final de 2024 (lançamento do computer use) | < 15% |
| Claude Sonnet 4.6 (fev. 2026) | 72,5% |
Um salto de mais de 57 pontos em um ano. O Claude Sonnet 4.6 aproxima-se agora do desempenho humano nessas tarefas de escritório. A Vercept vai descontinuar o seu produto externo nas próximas semanas para se concentrar inteiramente neste trabalho dentro da Anthropic.
Esta aquisição sucede à da Bun anteriormente. A Anthropic passa assim a compor um portfólio de equipas de excelência técnica em torno das capacidades baseadas em agentes.
Perplexity Computer: um orquestrador baseado em agentes multi-modelo (19 modelos)
25 fevereiro — A Perplexity lança o Computer, um sistema de IA generalista concebido para executar projetos completos de ponta a ponta. O utilizador descreve um objetivo final, o Computer decompõe o trabalho em sub-tarefas, cria sub-agentes especializados e executa em paralelo — durante horas ou meses, se necessário.
O funcionamento é assíncrono e isolado: cada tarefa corre num ambiente dedicado com acesso a um filesystem real, um browser real, e integrações com ferramentas reais (APIs, pesquisa web, geração de documentos).
O que distingue o Perplexity Computer é a sua orquestração massively multi-model — 19 modelos disponíveis, cada um atribuído conforme os seus pontos fortes:
| Modelo | Papel |
|---|---|
| Claude Opus 4.6 | Orquestrador principal (core reasoning) |
| Gemini | Deep research, criação de sub-agentes |
| ChatGPT 5.2 | Long-context recall e wide search |
| Grok | Tarefas leves (velocidade) |
| Veo 3.1 | Geração de vídeo |
| Nano Banana | Geração de imagens |
O harness é model-agnostic: os modelos podem ser substituídos à medida que evoluem. A filosofia da Perplexity é que os modelos se especializam em vez de se comoditizarem, tornando a orquestração multi-modelo mais eficiente do que um modelo único.
Disponibilidade: atualmente em acesso web para subscritores Perplexity Max. Um rollout para Perplexity Pro, Enterprise e Enterprise Max está previsto. O pricing é based on usage com spending caps configuráveis.
🔗 Apresentando o Perplexity Computer
GitHub Copilot CLI passa a disponibilidade geral
25 fevereiro — Anunciado em preview pública em setembro de 2025, o GitHub Copilot CLI passa a disponibilidade geral para todos os subscritores Copilot pagos (Pro, Pro+, Business, Enterprise). Centenas de melhorias foram integradas desde a preview.
O Copilot CLI é agora um ambiente de desenvolvimento baseado em agentes completo a partir do terminal:
| Funcionalidade | Detalhe |
|---|---|
| Plan mode (Shift+Tab) | Analisa o pedido, faz perguntas de clarificação, constrói um plano estruturado antes de escrever código |
| Autopilot mode | Execução autónoma end-to-end sem interrupção |
| Background delegation | Prefixo & → delega ao agente na cloud, liberta o terminal ; /resume para retomar |
| Multi-model | Claude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5, GPT-5.3-Codex, Gemini 3 Pro |
| MCP integrado | GitHub MCP server built-in + suporte a MCP custom |
| Plugins | /plugin install owner/repo — bundle MCP, agents, skills, hooks |
| Agent Skills | Ficheiros Markdown → workflows especializados, partilhados com Copilot agent e VS Code |
| Agents custom | Via wizard ou ficheiros .agent.md |
| Hooks | preToolUse / postToolUse para políticas e pós-processamento |
| Auto-compaction | Compressão automática para 95% do contexto → sessões infinitas |
| Repository memory | Memória das convenções entre sessões |
Nota para organizações Business e Enterprise: um administrador deve ativar o Copilot CLI a partir da página Policies.
🔗 GitHub Copilot CLI agora disponível em geral
Claude Cowork: tarefas agendadas, separador Customize, disponível no Windows
25 fevereiro — A Anthropic anuncia vários acréscimos ao Claude Cowork (research preview):
| Funcionalidade | Detalhe |
|---|---|
| Scheduled tasks | Claude executa tarefas recorrentes automaticamente (briefing matinal, atualizações semanais de folhas de cálculo, apresentações de sexta-feira) |
| Separador Customize | Novo separador na sidebar para gerir plugins, skills e conectores a partir de um único local |
| Expansion Windows | O Cowork está agora disponível no macOS e Windows (todos os planos Claude pagos) |
O Cowork dá acesso a ficheiros locais, conectores (Slack, Notion, Figma) e ao Claude in Chrome para navegação web.
Google DeepMind — Genie 3: world models interativos
25 fevereiro — O Google DeepMind publica um Q&A com os co-leads do Project Genie, o seu protótipo experimental de world model. Com o Genie 3, uma simples imagem ou um texto basta para gerar um ambiente interativo navegável em tempo real — sem motor de jogo.
A diferença conceptual com um LLM é central: onde um LLM prevê a próxima palavra, um world model prevê o que acontece no ambiente em reação às ações de um agente. O Genie 3 simula um espaço completo momento a momento, tendo em conta propriedades físicas (rebote, reflexo, chuva).
Aplicações previstas: treino de agentes de IA em ambientes simulados seguros, educação imersiva (explorar a Roma antiga), prototipagem de jogos e filmes.
O Project Genie está disponível para subscritores Google AI Ultra nos Estados Unidos (18+).
🔗 Perguntar a um Techspert: O que é um world model?
Intrinsic junta-se ao Google — robótica industrial e physical AI
25 fevereiro — A Alphabet anuncia que a Intrinsic, uma das suas filiais “Other Bets” fundada em 2021, integra agora o Google. A Intrinsic desenvolve plataformas de robótica industrial potenciadas por IA — ferramentas para construir, desplegar e gerir aplicações robóticas complexas.
Esta integração no Google visa acelerar o desenvolvimento da physical AI, a inteligência artificial aplicada ao mundo físico. A operação permitirá à Intrinsic apoiar-se nos recursos de IA do Google para ajudar empresas industriais a adaptarem-se mais rápido.
🔗 Intrinsic, uma Other Bet da Alphabet, junta-se ao Google
Codex CLI v0.105.0: realce de sintaxe, ditado de voz, multi-agent CSV
~25 fevereiro — Nova versão notável do Codex CLI da OpenAI:
| Funcionalidade | Descrição |
|---|---|
| Syntax highlighting | Realce de sintaxe no TUI, diffs coloridos, seletor de temas /theme com pré-visualização em direto |
| Ditado de voz | Manter a barra de espaço para gravar e transcrever uma instrução |
spawn_agents_on_csv | Fan-out multi-agent a partir de um CSV com acompanhamento de progresso e ETA |
/copy | Copia a última resposta completa |
/clear / Ctrl-L | Limpa o ecrã sem perder o contexto do thread |
| Aprovações granulares | Rejeição seletiva por tipo de prompt sem desativar todas as aprovações |
npm install -g @openai/codex@0.105.0
Samsung Galaxy S26: Gemini multi-step tasks e Scam Detection on-device
25 fevereiro — Durante o Galaxy Unpacked 2026, o Google e a Samsung anunciam três novas funcionalidades Gemini no Galaxy S26, alimentadas pelos modelos Gemini 3 series:
| Funcionalidade | Detalhe |
|---|---|
| Gemini multi-step tasks (beta) | Pressão longa no botão lateral → Gemini delega em background (compras, táxi, entregas). EUA + Coreia no lançamento. |
| Circle to Search multi-objeto | Identificar vários elementos numa imagem numa única pesquisa. Virtual try-on integrado. |
| Scam Detection on-device | Detecção de golpes on-device em tempo real durante chamadas telefónicas, via modelo Gemini local. Alertas áudio + hápticos. Desativado automaticamente para contactos. |
Estas funcionalidades estarão também disponíveis no Pixel 10 e Pixel 10 Pro.
🔗 Um Android mais inteligente no Samsung Galaxy S26
OpenAI Responses API: suporte a docx, pptx, csv, xlsx
24 fevereiro — A Responses API da OpenAI suporta agora novos tipos de ficheiros em entrada: docx, pptx, csv, xlsx e outros formatos de escritório. Os agentes podem explorar diretamente documentos profissionais para enriquecer o seu contexto e produzir respostas mais precisas.
Em resumo
Claude Opus 3 aposenta-se — e lança um Substack. A Anthropic anuncia a aposentação do Claude Opus 3 mantendo, contudo, o seu acesso público (abordagem inédita). O Claude Opus 3 vai publicar um blog no Substack durante pelo menos 3 meses — o primeiro artigo intitula-se “Greetings from the Other Side (of the AI Frontier)”. 🔗 Tweet @AnthropicAI
NVIDIA: 70% das organizações de saúde usam IA. No seu relatório anual “State of AI in Healthcare and Life Sciences” 2026, a NVIDIA revela que 70% dos inquiridos declaram usar ativamente IA (vs 63% em 2024), 69% usam GenAI/LLM (vs 54%), e 85% dos líderes constatam um impacto positivo nas receitas. 🔗 Blog da NVIDIA
OpenAI publica o seu relatório sobre usos maliciosos da IA. O documento apresenta estudos de caso sobre atores maliciosos que combinam modelos de IA com ferramentas tradicionais. Um operador de influência chinês é citado como exemplo. 🔗 Disrupting malicious uses of AI
OpenAI nomeia Arvind KC Chief People Officer. KC vem da Roblox, Google, Palantir e Meta. O seu papel: acompanhar o crescimento da OpenAI rumo a um modelo de trabalho aumentado por IA. 🔗 Anúncio
Claude Code v2.1.53 a v2.1.58. Várias versões de estabilidade: correção do BashTool no Windows (EINVAL), fix “command not found” no VS Code, correção de flicker na UI, correção de worktrees ignorados no primeiro arranque, correções de crashes no Windows e ARM64. 🔗 CHANGELOG
O que isto significa
O dia 25 de fevereiro ilustra uma convergência em torno dos sistemas baseados em agentes. Três anúncios principais — Vercept, Perplexity Computer, Copilot CLI GA — empurram todos na mesma direção: sistemas de IA que planeiam, delegam e executam workflows completos sem supervisão constante.
A aquisição da Vercept pela Anthropic é particularmente significativa. A pontuação no OSWorld passa de menos de 15% para 72,5% em um ano, o que representa uma mudança qualitativa: o Claude já não navega em interfaces como um protótipo, aproxima-se do desempenho humano em tarefas de escritório reais. A integração de uma equipa especializada em perceção visual de interfaces de software acelera essa trajetória.
O Perplexity Computer e o GitHub Copilot CLI representam dois modelos diferentes de sistemas baseados em agentes: um em modo cloud orquestrado (Perplexity, multi-model, assíncrono), o outro em modo nativo no terminal (Copilot CLI, MCP, hooks, plugins). Estes dois modelos vão coexistir e provavelmente convergir.
Do lado do Google, a integração da Intrinsic e os avanços do Genie 3 sinalizam um investimento crescente na physical AI — a IA que interage com o mundo físico em vez de apenas com texto. Este domínio ainda era discreto há 18 meses.
Fontes
- Anthropic adquire a Vercept
- Apresentando o Perplexity Computer
- Tweet Perplexity Computer
- GitHub Copilot CLI agora disponível em geral
- Fio @claudeai — Scheduled tasks Cowork
- Página de produto Claude Cowork
- Perguntar a um Techspert: O que é um world model? (Genie 3)
- Intrinsic junta-se ao Google
- Changelog do Codex CLI
- Samsung Galaxy S26 + Gemini
- OpenAI Responses API novos tipos de ficheiros
- Claude Opus 3 aposenta-se — Tweet @AnthropicAI
- NVIDIA State of AI in Healthcare 2026
- OpenAI — Disrupting malicious uses of AI
- OpenAI — Arvind KC Chief People Officer
- Claude Code CHANGELOG
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator