Cerca

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API: 11 marzo 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API: 11 marzo 2026

L’11 marzo 2026 è una giornata intensa: Anthropic crea un istituto interdisciplinare per il dibattito pubblico sull’IA, Perplexity dispiega la sua visione “Computer” con quattro API simultanee, OpenAI pubblica le nuove primitive agentiche della Responses API, e Meta dettaglia quattro generazioni di chip IA custom sviluppate in due anni.


Anthropic Institute : Jack Clark a capo del beneficio pubblico

11 marzo 2026 — Anthropic lancia The Anthropic Institute, un nuovo sforzo per far progredire il dibattito pubblico sulle sfide poste dall’IA potente. L’iniziativa è guidata dal cofondatore Jack Clark, che assume un nuovo ruolo come “Head of Public Benefit” (responsabile del beneficio pubblico) in Anthropic.

L’Istituto riunirà un team interdisciplinare — ricercatori, economisti, giuristi, esperti di politiche pubbliche — con un accesso unico ai modelli di punta di Anthropic. La sua missione: analizzare e comunicare gli impatti sociali, economici e di sicurezza dell’IA man mano che si sviluppano.

Sono state annunciate le prime tre assunzioni:

RecrueParcours
Matt BotvinickResident Fellow, Yale Law School ; ex-Senior Director of Research, Google DeepMind
Anton KorinekProfessore di economia (in congedo sabbatico), team Economic Research
Zoë HitzigEx-OpenAI, specializzata negli impatti sociali ed economici dell’IA

L’Istituto si appoggia sui team esistenti di Anthropic: Frontier Red Team, Societal Impacts, Economic Research. In parallelo, Anthropic annuncia l’espansione del suo team Public Policy, focalizzato sulla trasparenza dei modelli, la protezione dei consumatori di energia, i controlli all’export e la governance globale dell’IA.

La creazione di questo Istituto segna una tappa significativa: Anthropic struttura formalmente il suo impegno pubblico e gli dà un volto con uno dei suoi cofondatori.

🔗 Annuncio di The Anthropic Institute


Perplexity : lancio coordinato della visione “Everything is Computer”

11 marzo 2026 — Perplexity pubblica simultaneamente quattro annunci che costituiscono un lancio coordinato intorno alla sua visione “Computer”: l’IA come computer personale e professionale.

Personal Computer e Enterprise

Il Personal Computer è un Mac mini dedicato che gira 24/7, connesso alle applicazioni locali e ai server Perplexity. Agisce come un proxy digitale dell’utente — le azioni sensibili richiedono un’approvazione esplicita. Lista d’attesa aperta.

Il Computer for Enterprise si connette a Snowflake, Salesforce, HubSpot e centinaia di piattaforme. Le competenze (skills) sono personalizzabili, e l’integrazione con Slack permette di lavorare nei DM o nei canali condivisi. Si basa su SOC 2 Type II, SAML SSO e log di audit (audit logs). Perplexity presenta un dato da uno studio interno su 16.000 richieste: un risparmio di 1,6 milioni di dollari in costi di manodopera e 3,25 anni di lavoro completati in 4 settimane.

Comet Enterprise è un browser IA nativo con controlli amministrativi (permessi per dominio, log di azione, MDM) e una partnership con CrowdStrike per protezioni a livello di browser.

Perplexity Finance integra 40+ strumenti finanziari in tempo reale (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), con connessione broker via Plaid per l’analisi di un portafoglio reale.

Premium Sources offre accesso a Statista, CB Insights e PitchBook direttamente nei flussi di ricerca — le fonti a pagamento sono citate automaticamente.

🔗 Tutto è Computer

Agent API : runtime di orchestrazione completo

L’Agent API è un runtime gestito per costruire workflow agentici con ricerca integrata, esecuzione di strumenti e orchestrazione multi-modello. Sostituisce in un unico punto d’integrazione un router di modelli, un layer di ricerca, un provider di embeddings, un servizio sandbox e una stack di monitoring.

Outil intégréCapacités
web_searchFiltraggio per dominio, recenza, intervallo di date, lingua, budget di contenuto
fetch_urlRecupero diretto di URL
Fonctions personnaliséesSupporto completo

Quattro profili ottimizzati (presets) coprono i casi d’uso: ricerca fattuale rapida, ricerca bilanciata, analisi multi-sorgente approfondita e ricerca istituzionale. Deep Research 2.0 è disponibile tramite il profilo advanced-deep-research — avvia decine di ricerche per richiesta e processa centinaia di documenti.

L’Agent API è agnostica rispetto ai modelli, supporta catene di fallback multi-modello per una disponibilità prossima al 100%, ed è disponibile oggi su docs.perplexity.ai.

🔗 Agent API

Search API : snippet migliorati e benchmark SEAL

L’aggiornamento della Search API riguarda la qualità degli estratti (snippets) e l’infrastruttura di valutazione.

La nuova pipeline di marcatura a livello di frammento (span-level labeling) identifica quali segmenti di un documento sorgente sono pertinenti per una query. Risultato: estratti più piccoli e più precisi, che riducono i costi in token e migliorano la gestione del contesto per i modelli a valle.

Il benchmark SEAL testa se un sistema di retrieval può rispondere a domande la cui risposta cambia nel tempo. Perplexity avanza su SEAL-Hard mentre altri fornitori declinano. Il framework search_evals è aggiornato come open source su GitHub.

Altre migliorie: supporto multi-query (fino a 5 in una singola richiesta API), filtraggio per lingua (codice ISO 639-1) e per paese, e SDK Python (pip install perplexityai) con supporto nativo delle tre API.

🔗 Aggiornamento Search API

Sandbox API : esecuzione di codice isolata per agenti

Perplexity apre il suo ambiente di esecuzione di codice interno come servizio autonomo. Ogni sessione gira in un pod Kubernetes isolato, con un filesystem persistente montato. Linguaggi supportati: Python, JavaScript, SQL. L’installazione di pacchetti al momento dell’esecuzione (at runtime) è possibile.

Le sessioni hanno uno stato persistente (stateful): i file creati in una fase sono disponibili nelle fasi successive, e i workflow lunghi possono essere messi in pausa e ripresi ore dopo. La sicurezza si basa su un modello zero-trust: nessun accesso di rete diretto, traffico in uscita tramite proxy, il codice non ha mai accesso alle chiavi API in chiaro.

La Sandbox API sarà integrabile nell’Agent API con la stessa chiave API e gli stessi crediti. Stato: beta privata prossimamente.

🔗 Sandbox API


OpenAI : la Responses API riceve un ambiente informatico per agenti

11 marzo 2026 — OpenAI pubblica un articolo di engineering che dettaglia le nuove primitive della Responses API per costruire agenti autonomi affidabili: shell tool Unix, contenitori ospitati, compaction nativa del contesto e agent skills riutilizzabili.

Lo shell tool

Lo shell tool permette al modello di interagire con un computer tramite la riga di comando, con accesso agli utility Unix classici (grep, curl, awk). A differenza dell’interprete di codice esistente che eseguiva solo Python, lo shell tool supporta Go, Java, Node.js e altri ambienti. I modelli GPT-5.2 e successivi sono addestrati a suggerire comandi shell.

La Responses API può eseguire più comandi shell in parallelo tramite sessioni di container separate, e applica un tetto di output per comando per evitare di saturare la finestra di contesto.

Contenitori ospitati

Il container costituisce lo spazio di lavoro del modello:

ComposantDescription
Système de fichiersUpload, organizzazione e gestione delle risorse via APIs container e file
Bases de donnéesStorage strutturato (SQLite) — il modello interroga le tabelle invece di caricare tutto il contenuto
Accès réseauProxy egress centralizzato con lista di autorizzazioni, injection di secret per dominio

Compaction nativa del contesto

Per i compiti a lunga durata, la Responses API integra un meccanismo di compaction nativa: i modelli sono addestrati a produrre una rappresentazione compatta e cifrata dello stato conversazionale. Disponibile lato server (soglia configurabile) o tramite un endpoint /compact. Codex utilizza questo meccanismo per mantenere sessioni di coding a lunga durata senza degrado.

Agent skills

Le skills (competenze d’agente) codificano pattern di workflow ripetitivi in bundle riutilizzabili: una cartella con un file SKILL.md e le risorse associate. La Responses API carica automaticamente la skill nel contesto prima di inviare il prompt al modello. Le skills sono gestite via API e versionate.

In parallelo, un post sul blog per sviluppatori celebra un anno della Responses API con cinque case study clienti. Le due pubblicazioni offrono un quadro coerente dell’evoluzione della piattaforma verso l’agentico.

🔗 Responses API + ambiente informatico 🔗 1 anno della Responses API


OpenAI : strategia di difesa contro il prompt injection

11 marzo 2026 — OpenAI pubblica un articolo di sicurezza sulla resistenza degli agenti IA agli attacchi di injection di prompt (prompt injection).

I primi attacchi consistevano nell’inserire istruzioni dirette in contenuti esterni (pagine Wikipedia, email). Con il miglioramento dei modelli, questi attacchi sono evoluti verso l’ingegneria sociale (social engineering): contesto professionale convincente, urgenza simulata, autorizzazione pretesa. Un esempio del 2025 descritto nell’articolo mostrava un attacco riuscito nel 50% dei casi su una vecchia versione di ChatGPT.

OpenAI affronta il problema attraverso il prisma del sistema tripartito (datore di lavoro / agente / terzo malintenzionato), analogo a un agente di servizio clienti umano esposto a tentativi di manipolazione. L’obiettivo non è identificare perfettamente ogni attacco, ma limitare l’impatto di una manipolazione riuscita.

Contro-misuraDescription
Analyse source-sinkRilevamento delle combinazioni contenuto non affidabile + azione pericolosa
Safe UrlRileva se informazioni della conversazione verrebbero trasmesse a terzi — richiede conferma o blocca
Sandbox applicatifCanvas e ChatGPT Apps rilevano comunicazioni inattese e richiedono consenso

Safe Url si applica anche alle navigazioni in Atlas così come alle ricerche e navigazioni in Deep Research.

🔗 Designing AI agents to resist prompt injection


Meta MTIA : quattro generazioni di chip IA in due anni

11 marzo 2026 — Meta pubblica un articolo tecnico dettagliato sulla sua famiglia di chip IA custom MTIA (Meta Training and Inference Accelerator). In due anni, Meta ha sviluppato quattro generazioni successive per servire miliardi di utenti a costo ridotto.

“AI models are evolving faster than traditional chip development cycles.”

🇮🇹 I modelli IA si evolvono più velocemente dei tradizionali cicli di sviluppo dei chip.

GénérationInnovation principale
MTIA 300Primo chip ottimizzato per modelli di ranking e raccomandazione (Ranking & Recommendation), base modulare riutilizzabile
MTIA 400Evoluzione verso i carichi GenAI, rack da 72 chip in un dominio di scale-up unico
MTIA 450Raddoppio della banda HBM, +75% di FLOPS MX4, accelerazione hardware per attention e FFN
MTIA 500+50% di banda HBM vs MTIA 450, focus sull’inference GenAI

La progressione tra MTIA 300 e MTIA 500: banda HBM moltiplicata per 4,5 e FLOPS moltiplicati per 25. La strategia di Meta si basa su uno sviluppo ad alta velocità (un nuovo chip all’anno), un focus sull’inference piuttosto che sul pre-training, e un’integrazione nativa con PyTorch.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇮🇹 Le GPU mainstream sono tipicamente progettate per il carico più esigente — il pre-addestramento GenAI su larga scala — mentre il bisogno principale di Meta è l’inferenza.

L’architettura dell’elemento di processamento (Processing Element) combina due core RISC-V vettoriali, un motore prodotto scalare (Dot Product Engine), un’unità di funzioni speciali (Special Function Unit), un motore di riduzione e un DMA. Lo stack software si basa su PyTorch, vLLM, Triton e compilatori MTIA dedicati, con un’integrazione vLLM via architettura plugin.

🔗 Meta MTIA : scale AI chips for billions


Gemini CLI v0.33.0 : Plan Mode arricchito e autenticazione A2A

11 marzo 2026 — Gemini CLI pubblica la versione v0.33.0, due settimane dopo la v0.32.0 che aveva introdotto il Plan Mode.

CatégorieNouveautés
Architecture agentAutenticazione HTTP per agenti A2A remoti, discovery delle mappe di agenti A2A autenticati
Plan ModeSotto-agenti di ricerca integrati, supporto delle annotazioni per feedback utenti, nuova sotto-commanda copy
Interface CLIHeader compatto con icona ASCII, visualizzazione invertita della finestra di contesto, retention 30 giorni di default per la cronologia chat

L’aggiunta dell’autenticazione HTTP per il protocollo A2A (Agent-to-Agent) è la principale novità tecnica: Gemini CLI può ora scoprire e autenticarsi presso agenti remoti, ponendo le basi per un’orchestrazione multi-agente sicura.

🔗 Changelog Gemini CLI


Gemini in Chrome : espansione verso India, Nuova Zelanda e Canada

11 marzo 2026 — Google estende le funzionalità IA di Chrome a tre nuovi mercati: India, Nuova Zelanda e Canada.

Gemini in Chrome — l’assistente IA nel pannello laterale, basato su Gemini 3.1 — è ora disponibile su Mac, Windows e Chromebook Plus in queste regioni. Tra le funzionalità distribuite: accesso a Gmail, Maps, Calendar e YouTube da Chrome, analisi incrociata di più schede aperte e trasformazione di immagini direttamente nel browser tramite Nano Banana 2. L’aggiornamento aggiunge 50+ lingue supplementari, tra cui hindi, francese e spagnolo.

🔗 Chrome si espande in India, Nuova Zelanda e Canada

--- ## AlphaEvolve : nuove soglie per 5 numeri di Ramsey

11 marzo 2026 — Pushmeet Kohli (Google DeepMind) annuncia che AlphaEvolve ha stabilito nuove soglie inferiori per 5 numeri di Ramsey classici nella combinatoria estrema — problemi così difficili che lo stesso Erdős aveva commentato la loro complessità, e i cui migliori risultati precedenti risalivano ad almeno un decennio fa.

AlphaEvolve agisce come un meta-algoritmo che scopre automaticamente le procedure di ricerca necessarie, laddove storicamente si dovevano progettare manualmente algoritmi specifici. Questo risultato illustra le capacità di AlphaEvolve oltre le ottimizzazioni dei kernel Google per le quali era già noto.

🔗 Tweet di Pushmeet Kohli


Gemini Embedding 2 : primo embedding multimodale di Google

10 marzo 2026 — Google annuncia Gemini Embedding 2, descritto come “il nostro modello di embedding più capace e il primo completamente multimodale”. È il primo modello di embedding nativamente multimodale di Google, disponibile per gli sviluppatori tramite Gemini API e AI Studio.

🔗 Tweet di @googleaidevs


GitHub Copilot : revisione del codice dal terminale e miglioramenti per JetBrains

11 marzo 2026 — Due aggiornamenti rilevanti per GitHub Copilot.

Revisione del codice da GitHub CLI v2.88.0

È ora possibile richiedere una revisione del codice Copilot direttamente dal terminale. I comandi gh pr edit --add-reviewer @copilot (modalità non interattiva) e gh pr create (modalità interattiva) integrano Copilot accanto ai colleghi. La selezione dei revisori beneficia di una ricerca dinamica, migliorando le prestazioni nelle grandi organizzazioni e correggendo problemi di accessibilità. Disponibile su tutti i piani che includono Copilot code review — è richiesto l’aggiornamento a GitHub CLI v2.88.0.

🔗 Revisione del codice da GitHub CLI

Miglioramenti agentici per JetBrains IDEs

L’aggiornamento del plugin JetBrains porta in disponibilità generale (GA): gli agenti personalizzati (custom agents), i sotto-agenti e l’agent di pianificazione (plan agent), oltre alla selezione automatica del modello per tutti i piani. In anteprima pubblica (public preview): i hook d’agent (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) tramite un file hooks.json in .github/hooks/, e il supporto per i file AGENTS.md e CLAUDE.md.

Altri miglioramenti completano l’aggiornamento: approvazione automatica configurabile tramite MCP, pannello di pensiero per i modelli a ragionamento esteso, indicatore d’uso della finestra di contesto, e deprecazione della modalità Edit nel menu.

🔗 Miglioramenti JetBrains

Esplorare un repository in Copilot sul web

In anteprima pubblica: è possibile esplorare l’albero di un repository GitHub direttamente dall’interfaccia web di Copilot. I file selezionati vengono aggiunti automaticamente come riferimenti temporanei alla chat e possono diventare permanenti.

🔗 Esplorazione di repository in Copilot


Anthropic Sydney e Claude for Office

Sydney, quarto ufficio Asia-Pacifico

10 marzo 2026 — Anthropic annuncia l’imminente apertura di un ufficio a Sydney, il suo quarto in Asia-Pacifico (dopo Tokyo, Seul e Singapore). L’Australia è 4ª al mondo per utilizzo di Claude.ai pro capite; la Nuova Zelanda è 8ª secondo lo stesso indicatore (Anthropic Economic Index). L’ufficio si concentrerà inizialmente su clienti aziendali, startup e ricerca.

🔗 Sydney, quarto ufficio Asia-Pacifico

Claude for Excel e PowerPoint : contesto condiviso e Skills Office

11 marzo 2026 — Gli add-in Claude per Excel e Claude per PowerPoint ricevono due aggiornamenti importanti: la condivisione del contesto tra le due applicazioni (un analista può estrarre dati da una cartella Excel e usarli in una presentazione PowerPoint in una sola conversazione), e l’arrivo delle Skills (workflow riutilizzabili con un clic) in entrambi gli add-in.

Le Skills precaricate coprono i casi d’uso più frequenti: revisione delle formule, costruzione di modelli LBO/DCF, deck del panorama competitivo, aggiornamento di presentazioni con nuovi dati, e revisione di deck per banche d’affari. Gli add-in sono ora disponibili tramite Amazon Bedrock, Google Cloud Vertex AI e Microsoft Foundry per deployment conformi. Disponibilità: Mac e Windows sui piani a pagamento (Pro, Max, Team, Enterprise).

🔗 Claude per Excel e PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI e GTC 2026

11 marzo 2026 — NVIDIA è molto attiva attorno al GTC 2026.

Nemotron 3 Super offre una velocità 5 volte superiore per l’IA agentica rispetto alla generazione precedente. Si tratta di un modello MoE (Mixture of Experts) da 120 miliardi di parametri in open source, ottimizzato per carichi di inferenza ad alta frequenza.

NVIDIA e ComfyUI hanno annunciato durante il GDC 2026 (Game Developers Conference) un’integrazione che semplifica la generazione video IA locale per gli sviluppatori di giochi e i creatori, con supporto per i modelli FLUX e LTX-Video.

Il blog NVIDIA GTC 2026 Live Updates raccoglie gli annunci in diretta dalla conferenza a San Jose — anche Mistral AI presenta lì i suoi modelli frontier.

🔗 Nemotron 3 Super 🔗 ComfyUI al GDC 🔗 GTC 2026 Live


In breve

Runway Labs — Runway lancia un incubatore interno guidato da Alejandro Matamala Ortiz (co-fondatore, direttore dell’innovazione). Runway Labs prototiperà applicazioni radicalmente nuove per il video generativo e i modelli di simulazione del mondo (General World Models) in settori vari: cinema, salute, istruzione, videogiochi, pubblicità, immobiliare. Assunzioni aperte.

🔗 Presentazione di Runway Labs

Claude Code /btw — Un nuovo comando /btw permette di avere conversazioni laterali (side chain conversations) mentre un’attività è in esecuzione, senza interrompere il lavoro in corso.

🔗 Tweet di @bcherny

NotebookLM Flashcards — Aggiornamento dei quiz e delle flashcard: riprendi da dove eri rimasto, tracciamento delle flashcard superate o fallite, possibilità di eliminare o mischiare le flashcard.

🔗 Tweet di NotebookLM

Meta Canopy Height Maps v2 — Meta e il World Resources Institute pubblicano CHMv2, una nuova versione delle mappe dell’altezza della chioma forestale mondiale. Il modello DINOv3 (vision auto-supervisata di Meta) migliora la precisione e la copertura globale. Applicazioni: migrazione climatica, ripristino forestale, pianificazione urbana. Modelli disponibili in open source.

🔗 Canopy Height Maps v2

Z.ai GLM-5 — GLM-5 è ora accessibile agli utenti Lite (piano gratuito), dopo essere stato riservato agli utenti Pro dal suo lancio a febbraio 2026.

🔗 Tweet di @ZixuanLi_


Cosa significa

L’11 marzo 2026 illustra due tendenze di fondo che convergono.

La prima è la piattaformizzazione dell’agentica: OpenAI, Perplexity e GitHub pubblicano lo stesso giorno primitive complementari (shell tools, sandboxes, agent hooks, code review). L’ecosistema si struttura intorno a blocchi riutilizzabili — skills, contenitori, sotto-agenti — che permettono agli sviluppatori di costruire agenti affidabili senza reinventare l’infrastruttura.

La seconda è la corsa al silicio personalizzato: il dettaglio che Meta pubblica sulle sue quattro generazioni MTIA in due anni rivela una strategia chiara di indipendenza rispetto alle GPU consumer, calibrata per l’inferenza su larga scala. La stessa logica spinge NVIDIA a pubblicare Nemotron 3 Super lo stesso giorno del GTC, dove gli annunci si accumulano.

La creazione dell’Anthropic Institute si inserisce in un movimento più discreto ma duraturo: mentre le capacità progrediscono, le grandi aziende IA strutturano le loro équipe per l’impatto pubblico — non più come comunicazione di facciata, ma come uno sforzo di ricerca a sé stante.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator