Buscar

Anthropic adquiere Vercept (computer use al 72,5%), Perplexity Computer orquesta 19 modelos, GitHub Copilot CLI en GA

Anthropic adquiere Vercept (computer use al 72,5%), Perplexity Computer orquesta 19 modelos, GitHub Copilot CLI en GA

El 25 de febrero de 2026 fue un día intenso: Anthropic adquiere Vercept para acelerar las capacidades de computer use de Claude (72,5% en OSWorld), Perplexity lanza Computer — un sistema basado en agentes multi-modelo que orquesta 19 modelos en paralelo — y GitHub Copilot CLI pasa a disponibilidad general para todos los suscriptores de pago. Paralelamente, Google DeepMind presenta Genie 3 (modelos de mundo interactivos) e Intrinsic se integra en Google para la robótica industrial.


Anthropic adquiere Vercept: el computer use avanza hasta el 72,5% en OSWorld

25 de febrero — Anthropic anuncia la adquisición de Vercept, una startup especializada en la percepción y la interacción de sistemas de IA con interfaces de software. Los cofundadores Kiana Ehsani, Luca Weihs y Ross Girshick se incorporan a Anthropic para reforzar directamente las capacidades de computer use de Claude.

Esta adquisición se inscribe en una progresión rápida en el benchmark OSWorld, que mide la capacidad de un agente de IA para completar tareas en un sistema operativo real (navegación en hojas de cálculo complejas, cumplimentación de formularios con múltiples pestañas, etc.):

PeriodoPuntuación OSWorld
Finales de 2024 (lanzamiento computer use)< 15%
Claude Sonnet 4.6 (feb. 2026)72,5%

Un aumento de más de 57 puntos en un año. Claude Sonnet 4.6 se aproxima ahora al rendimiento humano en estas tareas de oficina. Vercept dejará su producto externo en las próximas semanas para concentrarse completamente en este trabajo dentro de Anthropic.

Esta adquisición sigue a la de Bun previamente. Anthropic está formando así una cartera de equipos de excelencia técnica alrededor de las capacidades basadas en agentes.

🔗 Anthropic adquiere Vercept


Perplexity Computer: un orquestador basado en agentes multi-modelo (19 modelos)

25 de febrero — Perplexity lanza Computer, un sistema de IA generalista diseñado para ejecutar proyectos completos de extremo a extremo. El usuario describe un objetivo final, Computer descompone el trabajo en subtareas, crea subagentes especializados y ejecuta en paralelo — durante horas o meses si es necesario.

El funcionamiento es asíncrono y aislado: cada tarea se ejecuta en un entorno dedicado con acceso a un sistema de archivos real, un navegador real y integraciones con herramientas reales (APIs, búsqueda web, generación de documentos).

Lo que distingue a Perplexity Computer es su orquestación massively multi-model — 19 modelos disponibles, cada uno asignado según sus fortalezas:

ModeloRol
Claude Opus 4.6Orquestador principal (razonamiento central)
GeminiInvestigación profunda, creación de subagentes
ChatGPT 5.2Memoria de largo contexto y búsqueda amplia
GrokTareas ligeras (velocidad)
Veo 3.1Generación de vídeo
Nano BananaGeneración de imágenes

El harness es agnóstico al modelo: los modelos pueden reemplazarse a medida que evolucionan. La filosofía de Perplexity es que los modelos se especializan en lugar de commoditizarse, haciendo la orquestación multi-modelo más eficiente que un único modelo.

Disponibilidad: actualmente en acceso web para los suscriptores Perplexity Max. Se prevé un despliegue hacia Perplexity Pro, Enterprise y Enterprise Max. El pricing es basado en uso con límites de gasto configurables.

🔗 Presentación de Perplexity Computer


GitHub Copilot CLI pasa a disponibilidad general

25 de febrero — Anunciado en preview pública en septiembre de 2025, GitHub Copilot CLI pasa a disponibilidad general para todos los suscriptores Copilot de pago (Pro, Pro+, Business, Enterprise). Se han integrado cientos de mejoras desde la preview.

Copilot CLI es ahora un entorno de desarrollo basado en agentes completo desde la terminal:

FuncionalidadDetalle
Modo Plan (Shift+Tab)Analiza la petición, hace preguntas de clarificación, construye un plan estructurado antes de escribir código
Modo AutopilotEjecución autónoma end-to-end sin interrupciones
Background delegationPrefijo & → delega al agente en la nube, libera la terminal; /resume para retomar
Multi-modeloClaude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5, GPT-5.3-Codex, Gemini 3 Pro
MCP integradoGitHub MCP server built-in + soporte MCP custom
Plugins/plugin install owner/repo — bundle MCP, agents, skills, hooks
Agent SkillsArchivos Markdown → flujos de trabajo especializados, compartidos con Copilot agent y VS Code
Agentes personalizadosVia wizard o archivos .agent.md
HookspreToolUse / postToolUse para políticas y post-procesado
Auto-compactionCompresión automática al 95% del contexto → sesiones infinitas
Repository memoryMemorización de las convenciones entre sesiones

Nota para organizaciones Business y Enterprise: un administrador debe activar Copilot CLI desde la página Policies.

🔗 GitHub Copilot CLI ya está disponible de forma general


Claude Cowork: tareas programadas, pestaña Customize, disponible en Windows

25 de febrero — Anthropic anuncia varias incorporaciones a Claude Cowork (research preview):

FuncionalidadDetalle
Scheduled tasksClaude ejecuta tareas recurrentes automáticamente (briefing matutino, actualizaciones semanales de hojas de cálculo, presentaciones de los viernes)
Pestaña CustomizeNueva pestaña en la barra lateral para gestionar plugins, skills y conectores desde un único lugar
Expansion WindowsCowork ya está disponible en macOS y Windows (todos los planes Claude de pago)

Cowork da acceso a archivos locales, conectores (Slack, Notion, Figma) y a Claude in Chrome para la navegación web.

🔗 Hilo @claudeai


Google DeepMind — Genie 3: modelos de mundo interactivos

25 de febrero — Google DeepMind publica un Q&A con los co-líderes de Project Genie, su prototipo experimental de modelo de mundo. Con Genie 3, una simple imagen o un texto basta para generar un entorno interactivo navegable en tiempo real — sin motor de juego.

La diferencia conceptual con un LLM es central: donde un LLM predice la siguiente palabra, un modelo de mundo predice lo que ocurre en el entorno en reacción a las acciones de un agente. Genie 3 simula un espacio completo momento a momento, teniendo en cuenta propiedades físicas (rebote, reflejo, lluvia).

Aplicaciones previstas: entrenamiento de agentes de IA en entornos simulados seguros, educación inmersiva (explorar la antigua Roma), prototipado de juegos y películas.

Project Genie está disponible para suscriptores Google AI Ultra en Estados Unidos (18+).

🔗 Ask a Techspert: What’s a world model?


Intrinsic se une a Google — robótica industrial y physical AI

25 de febrero — Alphabet anuncia que Intrinsic, una de sus filiales “Other Bets” fundada en 2021, se integra ahora en Google. Intrinsic desarrolla plataformas de robótica industrial potenciadas por IA — herramientas para construir, desplegar y gestionar aplicaciones robóticas complejas.

Esta integración en Google busca acelerar el desarrollo de la physical AI, la inteligencia artificial aplicada al mundo físico. La operación permitirá a Intrinsic apoyarse en los recursos de IA de Google para ayudar a las empresas industriales a adaptarse más rápido.

🔗 Intrinsic, an Alphabet Other Bet, is joining Google


Codex CLI v0.105.0: resaltado de sintaxis, dictado por voz, CSV multi-agente

~25 de febrero — Nueva versión destacada del Codex CLI de OpenAI:

FuncionalidadDescripción
Resaltado de sintaxisColoreado sintáctico en el TUI, diffs coloreados, selector de tema /theme con vista previa en vivo
Dictado por vozMantener la barra espaciadora para grabar y transcribir una instrucción
spawn_agents_on_csvFan-out multi-agente desde un CSV con seguimiento de progreso y ETA
/copyCopia la última respuesta completa
/clear / Ctrl-LLimpia la pantalla sin perder el contexto del hilo
Aprobaciones granularesRechazo selectivo por tipo de prompt sin desactivar todas las aprobaciones
npm install -g @openai/codex@0.105.0

🔗 Registro de cambios de Codex


Samsung Galaxy S26: Gemini multi-step tasks y detección de estafas on-device

25 de febrero — Durante el Galaxy Unpacked 2026, Google y Samsung anuncian tres nuevas funcionalidades Gemini en el Galaxy S26, impulsadas por los modelos Gemini 3 series:

FuncionalidadDetalle
Gemini multi-step tasks (beta)Pulsación larga en el botón lateral → Gemini delega en segundo plano (compras, taxi, entregas). EE. UU. + Corea en el lanzamiento.
Circle to Search multi-objetoIdentificar varios elementos en una imagen en una sola búsqueda. Prueba virtual integrada.
Scam Detection on-deviceDetección de estafas en tiempo real durante llamadas telefónicas, vía modelo Gemini local. Alertas de audio + hápticas. Desactivado automáticamente para contactos.

Estas funciones también estarán disponibles en Pixel 10 y Pixel 10 Pro.

🔗 Un Android más inteligente en Samsung Galaxy S26


OpenAI Responses API: soporte para docx, pptx, csv, xlsx

24 de febrero — La Responses API de OpenAI ahora admite nuevos tipos de archivos de entrada: docx, pptx, csv, xlsx y otros formatos de oficina. Los agentes pueden explotar directamente documentos profesionales para enriquecer su contexto y producir respuestas más precisas.

🔗 Tuit @OpenAIDevs


En resumen

Claude Opus 3 se retira — y lanza un Substack. Anthropic anuncia la retirada de Claude Opus 3 manteniendo su acceso público (enfoque inédito). Claude Opus 3 publicará un blog en Substack durante al menos 3 meses — el primer artículo se titula “Greetings from the Other Side (of the AI Frontier)”. 🔗 Tuit @AnthropicAI

NVIDIA: 70% de las organizaciones sanitarias usan IA. En su informe anual “State of AI in Healthcare and Life Sciences” 2026, NVIDIA revela que el 70% de los encuestados declaran usar activamente IA (vs 63% en 2024), el 69% usan GenAI/LLM (vs 54%), y el 85% de los directivos observan un impacto positivo en los ingresos. 🔗 Blog NVIDIA

OpenAI publica su informe sobre usos maliciosos de la IA. El documento presenta estudios de caso sobre actores maliciosos que combinan modelos de IA con herramientas tradicionales. Un operador de influencia chino se cita como ejemplo. 🔗 Disrupting malicious uses of AI

OpenAI nombra a Arvind KC Chief People Officer. KC procede de Roblox, Google, Palantir y Meta. Su papel: acompañar el crecimiento de OpenAI hacia un modelo de trabajo aumentado por la IA. 🔗 Anuncio

Claude Code v2.1.53 a v2.1.58. Varias versiones de estabilidad: corrección del BashTool en Windows (EINVAL), arreglo del error “command not found” en VS Code, corrección de parpadeos en la UI, corrección de worktrees ignorados al primer inicio, correcciones de fallos en Windows y ARM64. 🔗 Registro de cambios


Lo que significa

El 25 de febrero ilustra una convergencia en torno a los sistemas basados en agentes. Tres anuncios mayores — Vercept, Perplexity Computer, Copilot CLI GA — empujan todos en la misma dirección: sistemas de IA que planifican, delegan y ejecutan flujos de trabajo completos sin supervisión constante.

La adquisición de Vercept por Anthropic es especialmente significativa. La puntuación en OSWorld pasa de menos del 15% al 72,5% en un año, lo que representa un cambio cualitativo: Claude ya no navega por interfaces como un prototipo, se aproxima al rendimiento humano en tareas de oficina reales. La integración de un equipo especializado en percepción visual en interfaces de software acelera esta trayectoria.

Perplexity Computer y GitHub Copilot CLI representan dos modelos diferentes de agenticidad: uno en modo orquestado en la nube (Perplexity, multi-modelo, asíncrono), el otro en modo nativo en terminal (Copilot CLI, MCP, hooks, plugins). Ambos modelos coexistirán y probablemente convergerán.

Por parte de Google, la integración de Intrinsic y los avances de Genie 3 señalan una inversión creciente en la physical AI — la IA que interactúa con el mundo físico en lugar de hacerlo solo con texto. Este área aún era confidencial hace 18 meses.


Fuentes

Este documento ha sido traducido de la versión fr al idioma es utilizando el modelo gpt-5-mini. Para más información sobre el proceso de traducción, consulte https://gitlab.com/jls42/ai-powered-markdown-translator