Cerca

Anthropic acquisisce Vercept (uso del computer al 72,5%), Perplexity Computer orchestra 19 modelli, GitHub Copilot CLI in GA

Anthropic acquisisce Vercept (uso del computer al 72,5%), Perplexity Computer orchestra 19 modelli, GitHub Copilot CLI in GA

Il 25 febbraio 2026 è una giornata intensa: Anthropic acquisisce Vercept per accelerare le capacità di uso del computer di Claude (72,5% su OSWorld), Perplexity lancia Computer — un sistema agentico multimodello che orchestra 19 modelli in parallelo — e GitHub Copilot CLI passa in disponibilità generale per tutti gli abbonati a pagamento. Parallelamente, Google DeepMind presenta Genie 3 (world models interattivi) e Intrinsic entra in Google per la robotica industriale.


Anthropic acquisisce Vercept: l’uso del computer sale al 72,5% su OSWorld

25 febbraio — Anthropic annuncia l’acquisizione di Vercept, una startup specializzata nella percezione e nell’interazione dei sistemi IA con le interfacce software. I co-fondatori Kiana Ehsani, Luca Weihs e Ross Girshick si uniscono ad Anthropic per rafforzare direttamente le capacità di uso del computer di Claude.

Questa acquisizione rientra in una rapida progressione sul benchmark OSWorld, che misura la capacità di un agente IA di svolgere compiti su un vero sistema operativo (navigazione in fogli di calcolo complessi, compilazione di form multi-tab, ecc.):

PeriodoPunteggio OSWorld
Fine 2024 (lancio uso del computer)< 15%
Claude Sonnet 4.6 (feb. 2026)72,5%

Un balzo di oltre 57 punti in un anno. Claude Sonnet 4.6 si avvicina ora alle prestazioni umane in questi compiti d’ufficio. Vercept interromperà il suo prodotto esterno nelle prossime settimane per concentrarsi completamente su questo lavoro all’interno di Anthropic.

Questa acquisizione segue quella di Bun in precedenza. Anthropic sta così costruendo un portafoglio di team di eccellenza tecnica intorno alle capacità agentiche.

🔗 Anthropic acquisisce Vercept


Perplexity Computer: un orchestratore agentico multimodello (19 modelli)

25 febbraio — Perplexity lancia Computer, un sistema di IA generalista progettato per eseguire progetti completi end-to-end. L’utente descrive un obiettivo finale, Computer scompone il lavoro in sotto-attività, crea sub-agent specializzati ed esegue in parallelo — per ore o mesi se necessario.

Il funzionamento è asincrono e isolato: ogni attività viene eseguita in un ambiente dedicato con accesso a un vero filesystem, un vero browser e integrazioni con strumenti reali (APIs, ricerca web, generazione di documenti).

Ciò che distingue Perplexity Computer è la sua orchestrazione massively multi-model — 19 modelli disponibili, ciascuno assegnato in base ai suoi punti di forza:

ModelloRuolo
Claude Opus 4.6Orchestratore principale (core reasoning)
GeminiDeep research, creazione di sub-agent
ChatGPT 5.2Richiamo a lungo contesto e wide search
GrokCompiti leggeri (velocità)
Veo 3.1Generazione video
Nano BananaGenerazione di immagini

Il harness è model-agnostic: i modelli possono essere sostituiti man mano che evolvono. La filosofia di Perplexity è che i modelli si specializzino piuttosto che diventare commodity, rendendo l’orchestrazione multimodello più efficiente rispetto a un singolo modello.

Disponibilità: attualmente accessibile via web per gli abbonati Perplexity Max. È previsto un rollout su Perplexity Pro, Enterprise ed Enterprise Max. Il pricing è basato sull’uso con spending caps configurabili.

🔗 Presentazione di Perplexity Computer


GitHub Copilot CLI passa in disponibilità generale

25 febbraio — Annunciato in preview pubblica a settembre 2025, GitHub Copilot CLI passa in disponibilità generale per tutti gli abbonati Copilot a pagamento (Pro, Pro+, Business, Enterprise). Sono state integrate centinaia di migliorie dalla preview.

Copilot CLI è ora un ambiente di sviluppo agentico completo dal terminale:

FeatureDettaglio
Plan mode (Shift+Tab)Analizza la richiesta, pone domande di chiarimento, costruisce un piano strutturato prima di scrivere codice
Autopilot modeEsecuzione autonoma end-to-end senza interruzioni
Background delegationPrefisso & → delega all’agent cloud, libera il terminale ; /resume per riprendere
Multi-modelloClaude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5, GPT-5.3-Codex, Gemini 3 Pro
MCP integratoGitHub MCP server built-in + support MCP custom
Plugins/plugin install owner/repo — bundle MCP, agents, skills, hooks
Agent SkillsFile Markdown → workflow specializzati, condivisi con Copilot agent e VS Code
Agents customTramite wizard o file .agent.md
HookspreToolUse / postToolUse per politiche e post-processing
Auto-compactionCompressione automatica al 95% del contesto → sessioni infinite
Repository memoryMemorizzazione delle convenzioni tra sessioni

Nota per le organizzazioni Business ed Enterprise: un amministratore deve attivare Copilot CLI dalla pagina Policies.

🔗 GitHub Copilot CLI ora disponibile per tutti


Claude Cowork: attività pianificate, scheda Customize, disponibile su Windows

25 febbraio — Anthropic annuncia diversi aggiunte a Claude Cowork (research preview):

FunzionalitàDettaglio
Scheduled tasksClaude esegue attività ricorrenti automaticamente (briefing mattutino, aggiornamenti settimanali di fogli di calcolo, presentazioni del venerdì)
Scheda CustomizeNuova scheda nella sidebar per gestire plugin, skills e connettori da un unico posto
Expansion WindowsCowork è ora disponibile su macOS e Windows (tutti i piani Claude a pagamento)

Cowork dà accesso ai file locali, ai connettori (Slack, Notion, Figma) e a Claude in Chrome per la navigazione web.

🔗 Thread @claudeai


Google DeepMind — Genie 3: world models interattivi

25 febbraio — Google DeepMind pubblica un Q&A con i co-leads di Project Genie, il suo prototipo sperimentale di world model. Con Genie 3, una semplice immagine o un testo è sufficiente per generare un ambiente interattivo navigabile in tempo reale — senza motore di gioco.

La differenza concettuale rispetto a un LLM è centrale: dove un LLM predice la parola successiva, un world model predice cosa succede nell’ambiente in reazione alle azioni di un agente. Genie 3 simula uno spazio completo momento per momento, tenendo conto delle proprietà fisiche (rimbalzo, riflesso, pioggia).

Applicazioni previste: addestramento di agenti IA in ambienti simulati sicuri, educazione immersiva (esplorare l’antica Roma), prototipazione di giochi e film.

Project Genie è disponibile per gli abbonati Google AI Ultra negli Stati Uniti (18+).

🔗 Ask a Techspert: What’s a world model?


Intrinsic entra in Google — robotica industriale e physical AI

25 febbraio — Alphabet annuncia che Intrinsic, una delle sue filiali “Other Bets” fondata nel 2021, si integra ora in Google. Intrinsic sviluppa piattaforme di robotica industriale abilitate dall’IA — strumenti per costruire, distribuire e gestire applicazioni robotiche complesse.

Questa integrazione in Google mira ad accelerare lo sviluppo della physical AI, l’intelligenza artificiale applicata al mondo fisico. L’operazione permetterà a Intrinsic di sfruttare le risorse di IA di Google per aiutare le aziende industriali ad adattarsi più rapidamente.

🔗 Intrinsic, an Alphabet Other Bet, is joining Google


Codex CLI v0.105.0: evidenziazione sintassi, dettatura vocale, multi-agent CSV

~25 febbraio — Nuova versione importante del Codex CLI di OpenAI:

FunzionalitàDescrizione
Syntax highlightingEvidenziazione sintassi nel TUI, diff colorati, selettore di tema /theme con anteprima live
Dictée vocaleTenere premuta la barra spaziatrice per registrare e trascrivere un’istruzione
spawn_agents_on_csvFan-out multi-agent da un CSV con tracking di progresso e ETA
/copyCopia l’ultima risposta completa
/clear / Ctrl-LPulisce lo schermo senza perdere il contesto del thread
Approvazioni granulariRifiuto selettivo per tipo di prompt senza disabilitare tutte le approvazioni
npm install -g @openai/codex@0.105.0

🔗 Codex changelog


Samsung Galaxy S26: Gemini multi-step tasks e Scam Detection on-device

25 febbraio — Durante il Galaxy Unpacked 2026, Google e Samsung annunciano tre nuove funzionalità Gemini sul Galaxy S26, alimentate dai modelli Gemini 3 series:

FunzionalitàDettaglio
Gemini multi-step tasks (beta)Pressione prolungata sul tasto laterale → Gemini delega in background (spesa, taxi, consegne). USA + Corea al lancio.
Circle to Search multi-oggettoIdentificare più elementi in un’immagine con una sola ricerca. Virtual try-on integrato.
Scam Detection on-deviceRilevamento di truffe on-device in tempo reale durante le chiamate telefoniche, tramite modello Gemini locale. Avvisi audio + aptici. Disattivato automaticamente per i contatti.

Queste funzionalità saranno disponibili anche su Pixel 10 e Pixel 10 Pro.

🔗 A more intelligent Android on Samsung Galaxy S26


OpenAI Responses API: supporto docx, pptx, csv, xlsx

24 febbraio — La Responses API di OpenAI supporta ora nuovi tipi di file in input: docx, pptx, csv, xlsx e altri formati da ufficio. Gli agenti possono sfruttare direttamente documenti professionali per arricchire il loro contesto e produrre risposte più precise.

🔗 Tweet @OpenAIDevs


In breve

Claude Opus 3 va in pensione — e lancia un Substack. Anthropic annuncia il ritiro di Claude Opus 3 pur mantenendone l’accesso pubblico (approccio inedito). Claude Opus 3 pubblicherà un blog su Substack per almeno 3 mesi — il primo articolo è intitolato “Greetings from the Other Side (of the AI Frontier)”. 🔗 Tweet @AnthropicAI

NVIDIA: 70% delle organizzazioni sanitarie usa l’IA. Nel suo rapporto annuale “State of AI in Healthcare and Life Sciences” 2026, NVIDIA rileva che il 70% degli intervistati dichiara di utilizzare attivamente l’IA (vs 63% nel 2024), il 69% utilizza GenAI/LLM (vs 54%), e l’85% dei dirigenti nota un impatto positivo sui ricavi. 🔗 Blog NVIDIA

OpenAI pubblica il suo report sugli usi malevoli dell’IA. Il documento presenta casi di studio su attori malevoli che combinano modelli di IA con strumenti tradizionali. Un operatore d’influenza cinese è citato come esempio. 🔗 Disrupting malicious uses of AI

OpenAI nomina Arvind KC Chief People Officer. KC proviene da Roblox, Google, Palantir e Meta. Il suo ruolo: accompagnare la crescita di OpenAI verso un modello di lavoro aumentato dall’IA. 🔗 Annuncio

Claude Code v2.1.53 a v2.1.58. Diverse release di stabilità: correzione del BashTool su Windows (EINVAL), fix “command not found” su VS Code, fix flicker UI, fix worktrees ignorati al primo avvio, correzioni di crash su Windows e ARM64. 🔗 CHANGELOG


Cosa significa

La giornata del 25 febbraio illustra una convergenza intorno all’agentica. Tre annunci principali — Vercept, Perplexity Computer, Copilot CLI GA — spingono tutti nella stessa direzione: sistemi IA che pianificano, delegano ed eseguono workflow completi senza supervisione costante.

L’acquisizione di Vercept da parte di Anthropic è particolarmente significativa. Il punteggio OSWorld passa da meno del 15% a 72,5% in un anno, il che rappresenta un cambiamento qualitativo: Claude non naviga più nelle interfacce come un prototipo, si avvicina alle prestazioni umane su compiti d’ufficio reali. L’integrazione di un team specializzato nella percezione visiva delle interfacce software accelera questa traiettoria.

Perplexity Computer e GitHub Copilot CLI rappresentano due modelli diversi di agentica: uno in modalità cloud orchestrata (Perplexity, multimodello, asincrono), l’altro in modalità terminal-native (Copilot CLI, MCP, hooks, plugin). I due modelli coesisteranno probabilmente e tenderanno a convergere.

Sul fronte Google, l’integrazione di Intrinsic e i progressi di Genie 3 segnalano un investimento crescente nella physical AI — l’IA che interagisce con il mondo fisico piuttosto che con il testo. Questo ambito era ancora riservato 18 mesi fa.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator