Cerca

Claude Code auto mode, shopping visivo in ChatGPT, Grok Imagine multi-immagini verso video

Claude Code auto mode, shopping visivo in ChatGPT, Grok Imagine multi-immagini verso video

Giornata intensa il 23 e 24 marzo: Anthropic distribuisce l’auto mode in Claude Code — un classificatore di azioni che prende le decisioni di approvazione al posto dell’utente — e pubblica un articolo di ingegneria sulla sua architettura multi-agente ispirata ai GAN. OpenAI lancia lo shopping visivo in ChatGPT con l’Agentic Commerce Protocol, mentre xAI apre Grok Imagine al video multi-immagine su API. GitHub Copilot, Google DeepMind e l’Anthropic Science Blog completano questo quadro.


Claude Code : l’auto mode, un classifieur entre vous et les commandes

24 mars — Claude Code aggiunge un terzo livello di permessi: l’auto mode. Finora, lo strumento proponeva o di approvare manualmente ogni scrittura di file e comando bash, oppure di disattivare completamente i controlli. L’auto mode introduce una via intermedia: Claude prende lui stesso le decisioni, incorniciato da un classificatore (classifier) che analizza ogni azione prima dell’esecuzione.

Il meccanismo è semplice — prima di ogni chiamata a uno strumento, il classificatore valuta se l’azione è potenzialmente distruttiva. Le azioni giudicate sicure vengono eseguite automaticamente. Le azioni rischiose vengono bloccate, e Claude cerca un approccio alternativo senza interrompere l’utente.

Anthropic precisa che questa modalità riduce i rischi senza eliminarli, e ne raccomanda l’uso in ambienti isolati. Per attivarla: claude --enable-auto-mode, poi navigare verso questa modalità con Shift+Tab.

La funzionalità è disponibile in anteprima (research preview) sul piano Team. La distribuzione per Enterprise e API era annunciata per i giorni successivi.

New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.

🇮🇹 Novità in Claude Code: auto mode. Invece di approvare ogni scrittura di file e ogni comando bash, o di ignorare completamente i permessi, l’auto mode lascia che Claude prenda le decisioni di autorizzazione al posto tuo. Le protezioni controllano ogni azione prima che venga eseguita.@claudeai su X

🔗 Annuncio su X


Architecture multi-agents : l’approche GAN d’Anthropic Engineering

24 mars — In un articolo pubblicato su Anthropic Engineering Blog, Prithvi Rajasekaran (team Labs) descrive un’architettura multi-agente per spingere i limiti di Claude in due ambiti: il design dell’interfaccia e lo sviluppo applicativo autonomo di lunga durata.

L’approccio si ispira alle reti antagoniste generative (Generative Adversarial Networks, GAN): un agente generatore produce il codice o il design, mentre un agente valutatore distinto assegna un punteggio al risultato e fornisce un feedback critico. Questo disaccoppiamento risolve un problema noto — Claude tende ad auto-valutarsi con indulgenza. Un valutatore dedicato, calibrato progressivamente con esempi, diventa una leva di miglioramento efficace.

Per il design frontend, il valutatore riceve l’accesso a MCP Playwright per navigare le pagine in diretta. Vengono usati quattro criteri: qualità e coerenza del design, originalità (penalizzando i pattern generici detti “AI slop”), craft tecnico e funzionalità. In 10-15 iterazioni, il generatore produce interfacce notevolmente più distintive.

Per lo sviluppo applicativo, l’architettura aggiunge un pianificatore: trasforma un prompt di una frase in una specifica di prodotto completa. Generatore e valutatore negoziano “contratti di sprint” prima di ogni implementazione, definendo i criteri di successo. Il valutatore testa l’applicazione tramite Playwright e può bocciare uno sprint, costringendo a una revisione.

ApproccioDurataCostoRisultato
Agente singolo Opus 4.520 min9 $Applicazione rotta
Harness completo6 h200 $Applicazione funzionante
Harness con Opus 4.64 h124,70 $Applicazione funzionante + agente Claude integrato

Con Opus 4.6 — che non soffre più di “ansia da contesto” — l’autore ha potuto semplificare l’architettura, rimuovere i reset di sessione e ridurre i costi. Il principio guida resta: auditare regolarmente l’harness per rimuovere ciò che il modello sa ormai fare da solo.

🔗 Articolo completo 🔗 Annuncio su X


Computer Use dans Cowork et Claude Code (macOS, Pro/Max)

23 mars — Claude può ormai usare il tuo computer per svolgere attività direttamente. In anteprima, questa funzionalità è disponibile in Claude Cowork e Claude Code, solo su macOS.

Claude può aprire applicazioni, navigare nel browser, compilare fogli di calcolo. L’idea: affidare un compito dal proprio telefono, occuparsi d’altro e tornare a un lavoro completato. È anche possibile definire attività ricorrenti — scansionare le e-mail ogni mattina, generare un rapporto ogni venerdì.

La funzionalità Computer Use è disponibile sui piani Pro e Max, aggiornando l’app desktop e collegandola con l’app mobile.

🔗 Annuncio su X 🔗 Pagina prodotto Cowork


Anthropic Economic Index : “Learning curves” (5e rapport)

24 mars — Anthropic pubblica il suo quinto rapporto dell’Anthropic Economic Index, intitolato “Learning curves”, basato sui dati di utilizzo di Claude nel febbraio 2026 (circa 1 milione di conversazioni, dal 5 al 12 febbraio).

Il rapporto documenta due evoluzioni principali da novembre 2025. Prima, una diversificazione degli usi: i dieci compiti più frequenti su Claude.ai non rappresentano più che il 19% del traffico, contro il 24% tre mesi prima. Questa tendenza si spiega in parte con la migrazione dei compiti di coding verso l’API, trainata dalla crescita di Claude Code.

Poi, l’effetto “curva di apprendimento”: gli utenti di lunga data (più di sei mesi) mostrano un tasso di successo superiore di 4-5 punti percentuali. Lavorano su problemi più complessi, collaborano di più e delegano meno in modalità automatica. Gli autori vedono in questo un segnale di apprendimento attraverso la pratica (learning-by-doing), anche se resta possibile un bias di sopravvivenza.

Sulla scelta del modello, i dati confermano che gli utenti privilegiano Opus per i compiti ad alto valore: ogni fascia di 10 $/h aggiuntivi nel valore stimato di un compito è associata a un aumento di 1,5 punti nella proporzione di utilizzo di Opus su Claude.ai, e di 2,8 punti sull’API.

🔗 Rapporto completo 🔗 Annuncio su X


Anthropic Science Blog : un nouveau blog pour l’IA en recherche scientifique

23 mars — Anthropic lancia l’Anthropic Science Blog, dedicato all’intersezione tra IA e ricerca scientifica. L’obiettivo è documentare come l’IA accelera il lavoro dei ricercatori ed esplorare le domande che questa trasformazione solleva.

Il blog pubblicherà tre tipi di contenuti: articoli di approfondimento su risultati specifici con il ruolo dell’IA dettagliato (Features), guide pratiche per area scientifica (Workflows) e rassegne sull’attualità del settore (Field notes).

Due articoli inaugurali accompagnano questo lancio: “Vibe physics: The AI grad student” di Matthew Schwartz (un fisico supervisionato da Claude su un calcolo reale) e un tutorial sull’orchestrazione di Claude Code per compiti scientifici multi-giorno.

Questo blog si inserisce nelle iniziative già esistenti di Anthropic: il programma AI for Science (crediti API per ricercatori), Claude for Life Sciences (partnership con pharma e biotech) e la Genesis Mission.

🔗 Articolo di lancio 🔗 Annuncio su X


Shopping visivo dans ChatGPT et Agentic Commerce Protocol

24 mars — OpenAI lancia un’esperienza di acquisto visiva e immersiva direttamente in ChatGPT. Gli utenti possono esplorare i prodotti visivamente, confrontarli affiancati con dettagli (prezzo, recensioni, caratteristiche) e affinare la ricerca in conversazione — senza lasciare ChatGPT. È anche possibile caricare una foto d’ispirazione per trovare articoli simili.

Per alimentare questa funzionalità, OpenAI estende l’Agentic Commerce Protocol (ACP) alla scoperta di prodotti. Questo protocollo diventa il livello di connessione tra commercianti e utenti: i commercianti condividono i loro cataloghi via ACP e i dati confluiscono direttamente in ChatGPT. Salesforce e Stripe sono già integrati come fornitori terzi.

DettaglioInfo
DisponibilitàTutti gli utenti Free, Go, Plus, Pro — distribuzione questa settimana
Caricamento immaginiFoto d’ispirazione per trovare articoli simili
Commercianti integratiTarget, Sephora, Nordstrom, Lowe’s, Best Buy, The Home Depot, Wayfair
ShopifyCataloghi già integrati senza azione dei commercianti

Walmart è il primo commerciante a proporre una app ChatGPT nativa: dalla scoperta in ChatGPT a un ambiente Walmart con collegamento dell’account, programma fedeltà e pagamenti. Disponibile nel browser web, iOS e Android in arrivo. Nota: OpenAI abbandona la sua funzionalità iniziale “Instant Checkout”, giudicata insufficientemente flessibile per i commercianti, e si concentra sulla scoperta.

🔗 Annuncio ufficiale


OpenAI : politiche di sicurezza per adolescenti in open source

24 mars — OpenAI pubblica un insieme di politiche di sicurezza in open source per aiutare gli sviluppatori a creare esperienze adatte agli adolescenti. Queste politiche si presentano sotto forma di prompt utilizzabili direttamente con gpt-oss-safeguard, il modello di sicurezza open-weight di OpenAI.

L’obiettivo: permettere agli sviluppatori di tradurre obiettivi di sicurezza astratti in regole operative precise. Sei aree sono coperte:

AreaDescrizione
Contenuti violenti graficiFiltraggio della violenza esplicita
Contenuti sessuali graficiFiltraggio della sessualità esplicita
Ideali corporei pericolosiDisturbi alimentari, comportamenti a rischio
Attività e sfide pericoloseChallenge virali a rischio
Gioco di ruolo romantico o violentoInterazioni inappropriate
Beni e servizi riservati agli adultiAlcol, tabacco, giochi d’azzardo

Queste politiche sono state sviluppate con Common Sense Media e everyone.ai. Pubblicate tramite la ROOST Model Community (RMC GitHub), sono presentate esplicitamente come un punto di partenza, non una soluzione completa.

🔗 Annuncio ufficiale


OpenAI Foundation : almeno 1 miliardo di dollari deployés

24 mars — Bret Taylor, presidente del consiglio di amministrazione della OpenAI Foundation, annuncia che la Fondazione inizia a distribuire le risorse derivanti dalla ricapitalizzazione dell’autunno 2025. Almeno 1 miliardo di dollari sarà investito nell’anno in quattro aree: scienze della vita (Alzheimer, malattie ad alta mortalità), occupazione e impatto economico, resilienza IA (sicurezza dei bambini, biosicurezza) e programmi comunitari.

🔗 Annuncio ufficiale


OpenAI : Library tab pour gérer les fichiers dans ChatGPT

23 mars — OpenAI aggiunge nuove funzionalità di gestione dei file in ChatGPT: file recenti accessibili direttamente dalla barra degli strumenti, possibilità di interrogare un documento già caricato e una scheda Library nella barra laterale web per ritrovare l’insieme dei file. Disponibile per gli abbonati Plus, Pro e Business, con una distribuzione in arrivo per lo Spazio economico europeo, la Svizzera e il Regno Unito.

🔗 Annuncio su X


Gemini 3.1 Flash-Lite : un navigateur qui génère les pages en temps réel

24 mars — Google DeepMind pubblica una dimostrazione di Gemini 3.1 Flash-Lite: un browser sperimentale che genera ogni pagina web al volo, man mano che si clicca, si cerca e si naviga. Nessuna pagina HTML preesistente — ogni contenuto viene creato in tempo reale dal modello. La demo è accessibile direttamente da Google AI Studio e ha generato un forte coinvolgimento (85.000 visualizzazioni in poche ore).

🔗 Demo AI Studio 🔗 Annuncio su X


Google DeepMind × Agile Robots : partenariat robotique

24 mars — Google DeepMind annuncia una partnership di ricerca con Agile Robots, specialista della robotica umanoide. L’accordo prevede di integrare i modelli fondamentali Gemini nell’hardware robotico di Agile Robots, nell’ambito della strategia Gemini Robotics di Google DeepMind.

🔗 Annuncio su X


Grok Imagine : vidéo multi-images sur API (#1 Arena Elo 1342)

24 mars — xAI annuncia due nuove capacità per la sua API Grok Imagine: la generazione di video a partire da più immagini (multi-image to video) e l’estensione di video esistente (video extension).

Gli sviluppatori possono inviare fino a 7 immagini in input per generare un video coerente tramite il modello grok-imagine-video. L’API funziona in modo asincrono: si invia la richiesta, poi si interroga fino allo stato done. Gli output supportano il rapporto 16:9 in 720p.

Secondo Design Arena, Grok Imagine ha immediatamente preso il primo posto della classifica Multi Image to Video Arena con un punteggio Elo di 1342.

🔗 Annuncio @grok 🔗 Documentazione API Imagine


GitHub Copilot : @copilot pour modifier directement une PR

24 mars — GitHub Copilot può ormai modificare direttamente qualsiasi pull request su richiesta. Menzionando @copilot in un commento con un’istruzione in linguaggio naturale — correggere test falliti, rispondere a un commento di review, aggiungere un test unitario — l’agente lavora nel suo ambiente cloud, valida il proprio lavoro con test e linters, poi invia le modifiche sul branch. Il comportamento precedente (aprire una nuova PR) resta disponibile richiedendolo esplicitamente. Disponibile su tutti i piani Copilot a pagamento.

🔗 Changelog GitHub


GitHub Copilot : Gemini 3.1 Pro dans JetBrains, Xcode et Eclipse

23 mars — GitHub Copilot estende la disponibilità di Gemini 3.1 Pro agli IDE JetBrains, Xcode ed Eclipse. Le modello è ora accessibile tramite il selettore di modelli Copilot in tutte le modalità (agent, ask, edit) su questi ambienti, oltre alle piattaforme già supportate. In preview pubblica per i piani Enterprise, Business, Pro e Pro+.

🔗 Changelog GitHub


GitHub Copilot: gestione dell’accesso dell’agent per repository tramite API

24 marzo — GitHub rilascia in preview pubblica una API REST per gestire l’accesso del Copilot coding agent a livello dei repository di organizzazione. Gli amministratori possono autorizzare l’agent su nessun, tutti o alcuni repository specifici in modo programmatico — utile per le distribuzioni su larga scala in azienda.

🔗 Changelog GitHub


GitHub Copilot: log in tempo reale in Raycast

20 marzo — L’estensione GitHub Copilot per Raycast (il launcher macOS/Windows) consente ora di monitorare in tempo reale i log del coding agent senza uscire dal launcher. Tramite il comando “View Tasks”, poi la selezione della sessione, gli sviluppatori seguono l’avanzamento dell’agent in tempo reale. Disponibile per tutti gli abbonati Copilot a pagamento.

🔗 Changelog GitHub


Cosa significa

La modalità auto di Claude Code è il cambiamento più strutturante di questo periodo. Sposta il carico cognitivo dall’utente — non è più necessario approvare ogni comando — mantenendo al contempo una rete di sicurezza tramite il classificatore. È un passo verso agenti di sviluppo più autonomi, ma in un quadro esplicitamente consigliato per ambienti isolati. L’articolo di engineering sul harness multi-agent completa questo quadro: la traiettoria di Anthropic è chiaramente verso agenti che lavorano a lungo e in modo autonomo, con strutture di supervisione interne (valutatore dedicato, contratti di sprint) piuttosto che una supervisione umana a ogni fase.

Da parte di OpenAI, lo shopping visivo in ChatGPT segna una svolta verso i casi d’uso commerciali consumer. L’Agentic Commerce Protocol posiziona ChatGPT come uno strato di intermediazione tra commercianti e consumatori — una strategia diversa dalla API pura, che punta direttamente al valore transazionale.

Grok Imagine che raggiunge il primo posto della classifica Arena fin dal lancio sul multi-image to video illustra la velocità con cui xAI itera sulla generazione video. GitHub Copilot, da parte sua, rafforza sistematicamente l’autonomia del suo coding agent: la capacità di modificare direttamente una PR esistente riduce ancora gli scambi tra l’agent e lo sviluppatore.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator