Pesquisar

Anthropic adquire a Vercept (computer use a 72,5%), Perplexity Computer orquestra 19 modelos, GitHub Copilot CLI em GA

Anthropic adquire a Vercept (computer use a 72,5%), Perplexity Computer orquestra 19 modelos, GitHub Copilot CLI em GA

25 de fevereiro de 2026 é um dia intenso: a Anthropic adquire a Vercept para acelerar as capacidades de computer use de Claude (72,5% no OSWorld), a Perplexity lança o Computer — um sistema baseado em agentes multi-modelo que orquestra 19 modelos em paralelo — e o GitHub Copilot CLI passa a disponibilidade geral para todos os subscritores pagos. Em paralelo, o Google DeepMind revela o Genie 3 (world models interativos) e a Intrinsic junta-se ao Google para robótica industrial.


Anthropic adquire a Vercept: o computer use avança para 72,5% no OSWorld

25 fevereiro — A Anthropic anuncia a aquisição da Vercept, uma startup especializada em perceção e interação de sistemas de IA com interfaces de software. Os cofundadores Kiana Ehsani, Luca Weihs e Ross Girshick juntam-se à Anthropic para reforçar diretamente as capacidades de computer use do Claude.

Esta aquisição insere-se numa progressão rápida no benchmark OSWorld, que mede a capacidade de um agente de IA para cumprir tarefas num sistema operativo real (navegação em folhas de cálculo complexas, preenchimento de formulários com múltiplas abas, etc.):

PeríodoPontuação OSWorld
Final de 2024 (lançamento do computer use)< 15%
Claude Sonnet 4.6 (fev. 2026)72,5%

Um salto de mais de 57 pontos em um ano. O Claude Sonnet 4.6 aproxima-se agora do desempenho humano nessas tarefas de escritório. A Vercept vai descontinuar o seu produto externo nas próximas semanas para se concentrar inteiramente neste trabalho dentro da Anthropic.

Esta aquisição sucede à da Bun anteriormente. A Anthropic passa assim a compor um portfólio de equipas de excelência técnica em torno das capacidades baseadas em agentes.

🔗 Anthropic adquire a Vercept


Perplexity Computer: um orquestrador baseado em agentes multi-modelo (19 modelos)

25 fevereiro — A Perplexity lança o Computer, um sistema de IA generalista concebido para executar projetos completos de ponta a ponta. O utilizador descreve um objetivo final, o Computer decompõe o trabalho em sub-tarefas, cria sub-agentes especializados e executa em paralelo — durante horas ou meses, se necessário.

O funcionamento é assíncrono e isolado: cada tarefa corre num ambiente dedicado com acesso a um filesystem real, um browser real, e integrações com ferramentas reais (APIs, pesquisa web, geração de documentos).

O que distingue o Perplexity Computer é a sua orquestração massively multi-model — 19 modelos disponíveis, cada um atribuído conforme os seus pontos fortes:

ModeloPapel
Claude Opus 4.6Orquestrador principal (core reasoning)
GeminiDeep research, criação de sub-agentes
ChatGPT 5.2Long-context recall e wide search
GrokTarefas leves (velocidade)
Veo 3.1Geração de vídeo
Nano BananaGeração de imagens

O harness é model-agnostic: os modelos podem ser substituídos à medida que evoluem. A filosofia da Perplexity é que os modelos se especializam em vez de se comoditizarem, tornando a orquestração multi-modelo mais eficiente do que um modelo único.

Disponibilidade: atualmente em acesso web para subscritores Perplexity Max. Um rollout para Perplexity Pro, Enterprise e Enterprise Max está previsto. O pricing é based on usage com spending caps configuráveis.

🔗 Apresentando o Perplexity Computer


GitHub Copilot CLI passa a disponibilidade geral

25 fevereiro — Anunciado em preview pública em setembro de 2025, o GitHub Copilot CLI passa a disponibilidade geral para todos os subscritores Copilot pagos (Pro, Pro+, Business, Enterprise). Centenas de melhorias foram integradas desde a preview.

O Copilot CLI é agora um ambiente de desenvolvimento baseado em agentes completo a partir do terminal:

FuncionalidadeDetalhe
Plan mode (Shift+Tab)Analisa o pedido, faz perguntas de clarificação, constrói um plano estruturado antes de escrever código
Autopilot modeExecução autónoma end-to-end sem interrupção
Background delegationPrefixo & → delega ao agente na cloud, liberta o terminal ; /resume para retomar
Multi-modelClaude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5, GPT-5.3-Codex, Gemini 3 Pro
MCP integradoGitHub MCP server built-in + suporte a MCP custom
Plugins/plugin install owner/repo — bundle MCP, agents, skills, hooks
Agent SkillsFicheiros Markdown → workflows especializados, partilhados com Copilot agent e VS Code
Agents customVia wizard ou ficheiros .agent.md
HookspreToolUse / postToolUse para políticas e pós-processamento
Auto-compactionCompressão automática para 95% do contexto → sessões infinitas
Repository memoryMemória das convenções entre sessões

Nota para organizações Business e Enterprise: um administrador deve ativar o Copilot CLI a partir da página Policies.

🔗 GitHub Copilot CLI agora disponível em geral


Claude Cowork: tarefas agendadas, separador Customize, disponível no Windows

25 fevereiro — A Anthropic anuncia vários acréscimos ao Claude Cowork (research preview):

FuncionalidadeDetalhe
Scheduled tasksClaude executa tarefas recorrentes automaticamente (briefing matinal, atualizações semanais de folhas de cálculo, apresentações de sexta-feira)
Separador CustomizeNovo separador na sidebar para gerir plugins, skills e conectores a partir de um único local
Expansion WindowsO Cowork está agora disponível no macOS e Windows (todos os planos Claude pagos)

O Cowork dá acesso a ficheiros locais, conectores (Slack, Notion, Figma) e ao Claude in Chrome para navegação web.

🔗 Fio @claudeai


Google DeepMind — Genie 3: world models interativos

25 fevereiro — O Google DeepMind publica um Q&A com os co-leads do Project Genie, o seu protótipo experimental de world model. Com o Genie 3, uma simples imagem ou um texto basta para gerar um ambiente interativo navegável em tempo real — sem motor de jogo.

A diferença conceptual com um LLM é central: onde um LLM prevê a próxima palavra, um world model prevê o que acontece no ambiente em reação às ações de um agente. O Genie 3 simula um espaço completo momento a momento, tendo em conta propriedades físicas (rebote, reflexo, chuva).

Aplicações previstas: treino de agentes de IA em ambientes simulados seguros, educação imersiva (explorar a Roma antiga), prototipagem de jogos e filmes.

O Project Genie está disponível para subscritores Google AI Ultra nos Estados Unidos (18+).

🔗 Perguntar a um Techspert: O que é um world model?


Intrinsic junta-se ao Google — robótica industrial e physical AI

25 fevereiro — A Alphabet anuncia que a Intrinsic, uma das suas filiais “Other Bets” fundada em 2021, integra agora o Google. A Intrinsic desenvolve plataformas de robótica industrial potenciadas por IA — ferramentas para construir, desplegar e gerir aplicações robóticas complexas.

Esta integração no Google visa acelerar o desenvolvimento da physical AI, a inteligência artificial aplicada ao mundo físico. A operação permitirá à Intrinsic apoiar-se nos recursos de IA do Google para ajudar empresas industriais a adaptarem-se mais rápido.

🔗 Intrinsic, uma Other Bet da Alphabet, junta-se ao Google


Codex CLI v0.105.0: realce de sintaxe, ditado de voz, multi-agent CSV

~25 fevereiro — Nova versão notável do Codex CLI da OpenAI:

FuncionalidadeDescrição
Syntax highlightingRealce de sintaxe no TUI, diffs coloridos, seletor de temas /theme com pré-visualização em direto
Ditado de vozManter a barra de espaço para gravar e transcrever uma instrução
spawn_agents_on_csvFan-out multi-agent a partir de um CSV com acompanhamento de progresso e ETA
/copyCopia a última resposta completa
/clear / Ctrl-LLimpa o ecrã sem perder o contexto do thread
Aprovações granularesRejeição seletiva por tipo de prompt sem desativar todas as aprovações
npm install -g @openai/codex@0.105.0

🔗 Changelog do Codex


Samsung Galaxy S26: Gemini multi-step tasks e Scam Detection on-device

25 fevereiro — Durante o Galaxy Unpacked 2026, o Google e a Samsung anunciam três novas funcionalidades Gemini no Galaxy S26, alimentadas pelos modelos Gemini 3 series:

FuncionalidadeDetalhe
Gemini multi-step tasks (beta)Pressão longa no botão lateral → Gemini delega em background (compras, táxi, entregas). EUA + Coreia no lançamento.
Circle to Search multi-objetoIdentificar vários elementos numa imagem numa única pesquisa. Virtual try-on integrado.
Scam Detection on-deviceDetecção de golpes on-device em tempo real durante chamadas telefónicas, via modelo Gemini local. Alertas áudio + hápticos. Desativado automaticamente para contactos.

Estas funcionalidades estarão também disponíveis no Pixel 10 e Pixel 10 Pro.

🔗 Um Android mais inteligente no Samsung Galaxy S26


OpenAI Responses API: suporte a docx, pptx, csv, xlsx

24 fevereiro — A Responses API da OpenAI suporta agora novos tipos de ficheiros em entrada: docx, pptx, csv, xlsx e outros formatos de escritório. Os agentes podem explorar diretamente documentos profissionais para enriquecer o seu contexto e produzir respostas mais precisas.

🔗 Tweet @OpenAIDevs


Em resumo

Claude Opus 3 aposenta-se — e lança um Substack. A Anthropic anuncia a aposentação do Claude Opus 3 mantendo, contudo, o seu acesso público (abordagem inédita). O Claude Opus 3 vai publicar um blog no Substack durante pelo menos 3 meses — o primeiro artigo intitula-se “Greetings from the Other Side (of the AI Frontier)”. 🔗 Tweet @AnthropicAI

NVIDIA: 70% das organizações de saúde usam IA. No seu relatório anual “State of AI in Healthcare and Life Sciences” 2026, a NVIDIA revela que 70% dos inquiridos declaram usar ativamente IA (vs 63% em 2024), 69% usam GenAI/LLM (vs 54%), e 85% dos líderes constatam um impacto positivo nas receitas. 🔗 Blog da NVIDIA

OpenAI publica o seu relatório sobre usos maliciosos da IA. O documento apresenta estudos de caso sobre atores maliciosos que combinam modelos de IA com ferramentas tradicionais. Um operador de influência chinês é citado como exemplo. 🔗 Disrupting malicious uses of AI

OpenAI nomeia Arvind KC Chief People Officer. KC vem da Roblox, Google, Palantir e Meta. O seu papel: acompanhar o crescimento da OpenAI rumo a um modelo de trabalho aumentado por IA. 🔗 Anúncio

Claude Code v2.1.53 a v2.1.58. Várias versões de estabilidade: correção do BashTool no Windows (EINVAL), fix “command not found” no VS Code, correção de flicker na UI, correção de worktrees ignorados no primeiro arranque, correções de crashes no Windows e ARM64. 🔗 CHANGELOG


O que isto significa

O dia 25 de fevereiro ilustra uma convergência em torno dos sistemas baseados em agentes. Três anúncios principais — Vercept, Perplexity Computer, Copilot CLI GA — empurram todos na mesma direção: sistemas de IA que planeiam, delegam e executam workflows completos sem supervisão constante.

A aquisição da Vercept pela Anthropic é particularmente significativa. A pontuação no OSWorld passa de menos de 15% para 72,5% em um ano, o que representa uma mudança qualitativa: o Claude já não navega em interfaces como um protótipo, aproxima-se do desempenho humano em tarefas de escritório reais. A integração de uma equipa especializada em perceção visual de interfaces de software acelera essa trajetória.

O Perplexity Computer e o GitHub Copilot CLI representam dois modelos diferentes de sistemas baseados em agentes: um em modo cloud orquestrado (Perplexity, multi-model, assíncrono), o outro em modo nativo no terminal (Copilot CLI, MCP, hooks, plugins). Estes dois modelos vão coexistir e provavelmente convergir.

Do lado do Google, a integração da Intrinsic e os avanços do Genie 3 sinalizam um investimento crescente na physical AI — a IA que interage com o mundo físico em vez de apenas com texto. Este domínio ainda era discreto há 18 meses.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator