Cerca

Riprogettazione di Claude Code Desktop, Agents SDK OpenAI, Gemini 3.1 Flash TTS e app Mac

Riprogettazione di Claude Code Desktop, Agents SDK OpenAI, Gemini 3.1 Flash TTS e app Mac

Giornata intensa il 15 aprile: Anthropic lancia un redesign completo dell’applicazione desktop Claude Code orientata agli agenti paralleli, OpenAI pubblica gli Agents SDK v0.14.0 con sandbox nativa e primitive agentiche standardizzate, Google annuncia simultaneamente Gemini 3.1 Flash TTS (Elo 1 211) e un’applicazione desktop macOS gratuita. In parallelo, Mistral apre i Connectors MCP in Studio, Anthropic pubblica due studi significativi sull’allineamento, e una prima nella pubblicità automobilistica: il primo spot Mazda completamente prodotto dall’IA.


Claude Code Desktop: redesign per agenti paralleli

14 aprile — Anthropic lancia un redesign completo dell’applicazione desktop Claude Code, pensato per l’esecuzione di più sessioni in parallelo.

“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”

🇮🇹 Abbiamo ripensato Claude Code su desktop. Ora puoi avviare più sessioni Claude in parallelo dalla stessa applicazione.@claudeai su X

FunzionalitàDescrizione
Sidebar delle sessioniTutte le sessioni attive e recenti, filtrabili per stato, progetto o ambiente
Side chat (⌘+; / Ctrl+;)Avvia una conversazione dalla sessione principale senza contaminarla
Terminale integratoAvviare test o build senza uscire dall’app
Editor di file in-appAprire, modificare e salvare file direttamente
Diff viewer ricostruitoPrestazioni migliorate sui grandi changeset
Preview estesaHTML, PDF, server locali nel pannello di preview
Layout drag-and-dropDisporre liberamente terminale, preview, diff viewer e chat
Parità con i plugin CLII plugin funzionano in modo identico nell’app desktop
SSH esteso a MacOltre a Linux, le sessioni possono puntare a macchine remote
3 modalità di vistaVerbose, Normal, Summary — dal dettaglio completo ai soli risultati

La sidebar delle sessioni costituisce il cambiamento più strutturale: centralizza tutte le sessioni attive in un unico posto, cambiando in modo fondamentale il modo di lavorare con più agenti in parallelo. La side chat (⌘+; su Mac, Ctrl+; su Linux/Windows) consente di avviare una conversazione secondaria senza contaminare il contesto della sessione principale — utile per porre una domanda rapida o testare un’ipotesi.

L’estensione SSH a macOS colma un divario notevole con Linux: le sessioni possono ora puntare a macchine remote dal Mac, aprendo la strada a workflow in cui il codice viene eseguito su un server remoto pur restando pilotato dall’interfaccia locale.

Disponibile ora per tutti gli utenti Claude Code sui piani Pro, Max, Team, Enterprise e tramite l’API Claude.

🔗 Blog Claude — Redesigning Claude Code on desktop 🔗 Scaricare l’applicazione


OpenAI Agents SDK v0.14.0: sandbox nativa e primitive agentiche

15 aprile — OpenAI pubblica un’evoluzione significativa del suo Agents SDK (openai-agents>=0.14.0). L’annuncio posiziona questo SDK come l’infrastruttura standard per costruire agenti in produzione.

Harness nativo arricchito

Lo SDK integra ora un insieme di primitive che si allineano a ciò che fanno gli altri ambienti di esecuzione agentica di punta:

PrimitiveDescrizione
MCP (tool use)Chiamata di strumenti tramite il protocollo MCP
AGENTS.mdIstruzioni personalizzate tramite file di configurazione
shell toolEsecuzione di comandi (execution of code)
apply patch toolModifica di file tramite patch
SkillsDivulgazione progressiva delle capacità
Memoria configurabileGestione dello stato a lungo termine dell’agente

Ambiente di esecuzione in bacino di sabbia (sandbox)

Gli agenti possono ora essere eseguiti in ambienti controllati (sandbox) con il loro file system, le loro dipendenze e i loro strumenti. La separazione tra orchestratore (harness) e calcolo (compute) è progettata per tre obiettivi: proteggere le credenziali negli ambienti in cui il codice generato viene eseguito, consentire un’esecuzione duratura tramite punto di controllo (checkpoint) e reidratazione se il container va in crash, e consentire la scalabilità (scaling) con più sandbox in parallelo.

Provider di sandbox supportati nativamente: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel.

Archiviazione tramite l’astrazione Manifest: AWS S3, Google Cloud Storage, Azure Blob Storage, Cloudflare R2.

Disponibilità

Python per primo, TypeScript previsto in una prossima versione. Tra le aziende che hanno testato in anteprima: Oscar Health, LexisNexis, Thomson Reuters, Zoom.

🔗 Annuncio ufficiale OpenAI


Gemini 3.1 Flash TTS: audio tags ed Elo 1 211

15 aprile — Google lancia Gemini 3.1 Flash TTS, il suo modello di sintesi vocale (text-to-speech) più espressivo e controllabile finora.

La novità principale è l’introduzione degli audio tags: comandi in linguaggio naturale integrati direttamente nel testo di input per pilotare stile vocale, ritmo e tonalità. Un passaggio circondato da [excitement] verrà pronunciato con entusiasmo, un passaggio [explanatory] adotterà un tono pedagogico. Questo approccio assegna allo sviluppatore il ruolo di «regista» per comporre esperienze audio precise.

FunzionalitàDettaglio
Audio tagsComandi in linguaggio naturale nel testo
Lingue supportate70+ (di cui 24 di alta qualità valutate)
Dialogo multi-speakerNativo
WatermarkingSynthID integrato su tutto l’audio generato
Punteggio Elo1 211 (Artificial Analysis TTS Leaderboard)

Con un punteggio Elo di 1 211 nella classifica di riferimento Artificial Analysis TTS — che misura migliaia di preferenze umane in test in cieco — il modello è posizionato nel «quadrante più attraente» per il suo equilibrio qualità/costo.

In Google AI Studio, sono disponibili tre controlli avanzati: Scene direction (definire l’ambiente e le istruzioni di recitazione), Speaker-level specificity (profili audio unici per personaggio), e Seamless export (esportazione dei parametri in codice API per mantenere la coerenza vocale tra progetti).

Tutto l’audio generato è marcato in modo impercettibile da SynthID, il watermark digitale di Google.

Disponibilità:

  • Sviluppatori: anteprima (preview) tramite l’API Gemini e Google AI Studio
  • Aziende: anteprima su Vertex AI
  • Utenti Workspace: tramite Google Vids

🔗 Articolo blog.google — Gemini 3.1 Flash TTS


Gemini App per Mac: client desktop nativo

15 aprile — Google lancia l’applicazione Gemini per macOS, disponibile gratuitamente per tutti gli utenti su macOS 15 e versioni successive.

FunzionalitàDettaglio
Scorciatoia globaleOption + Space da qualsiasi applicazione
Condivisione finestraContesto su documenti locali, codice, dati
Generazione di immaginiIntegrazione Nano Banana
Generazione di videoIntegrazione Veo
DisponibilitàGratis, macOS 15+, globale

L’applicazione è accessibile da qualsiasi schermata tramite Option + Space, consentendo di interrogare Gemini senza uscire dal proprio flusso di lavoro. Può condividere la finestra attiva per fornire un contesto istantaneo su file locali, tabelle, grafici o blocchi di codice.

Google presenta questa versione come una «prima versione» che getta le basi per un assistente desktop personale e proattivo, con ulteriori annunci previsti nei prossimi mesi.

🔗 Articolo blog.google — Gemini App per macOS


Claude Code v2.1.108 e v2.1.109: recap di sessione, caching 1h, thinking

14-15 aprile — Due nuove versioni di Claude Code in due giorni.

v2.1.108 porta diversi miglioramenti funzionali:

FunzionalitàDescrizione
Recap di sessione/recap o /config, attivato automaticamente dopo un’assenza. Forzabile tramite CLAUDE_CODE_ENABLE_AWAY_SUMMARY
Prompt caching 1hVariabile ENABLE_PROMPT_CACHING_1H per TTL 1h (API key, Bedrock, Vertex, Foundry). FORCE_PROMPT_CACHING_5M forza il TTL 5 min
Slash commands tramite Skill toolIl modello può invocare i comandi built-in (/init, /review, /security-review) tramite lo Skill tool
Alias /undo/undo è ora un alias per /rewind
Miglioramenti /modelAvviso prima del cambio di modello (la risposta successiva rilegge la cronologia completa senza cache)
Miglioramenti /resumePredefinito sulle sessioni della directory corrente; Ctrl+A per vedere tutti i progetti

La feature /recap è particolarmente utile in un contesto di agenti paralleli: quando si torna a una sessione lasciata in background, Claude riassume ciò che è accaduto dall’ultima interazione.

v2.1.109 porta un miglioramento dell’interfaccia per la modalità extended thinking: l’indicatore di avanzamento gira con un hint rotante per visualizzare meglio che il modello è in fase di riflessione.

🔗 CHANGELOG Claude Code


Anthropic: ricercatori di allineamento automatizzati (PGR 0.97)

14 aprile — Nell’ambito del programma Anthropic Fellows, un’esperienza originale: si può usare Claude Opus 4.6 per accelerare la ricerca sull’allineamento?

Il problema di supervisione «weak-to-strong» (weak-to-strong supervision) è un proxy della sfida che ci attende: come supervisionare modelli più intelligenti di noi? L’esperimento usa un modello forte (Qwen 3-4B-Base) e un modello debole come «insegnante» (Qwen 1.5-0.5B-Chat). La metrica performance gap recovered (PGR) misura in che misura il modello forte supera i limiti del debole insegnante.

Dispositivo: 9 copie di Claude Opus 4.6 equipaggiate con strumenti (sandbox, forum condiviso, storage, server di punteggio) lavorano in parallelo per 5 giorni. Ogni istanza riceve un punto di partenza leggermente diverso per incoraggiare la diversità degli approcci.

IndicatoreValore
Baseline umano (7 giorni, 4 metodi)PGR 0.23
Ricercatori automatizzati dopo 5 giorni (800h cumulative)PGR 0.97
Costo totale~18 000 ( 22(~22/ora per istanza)
Generalizzazione matematicaPGR 0.94
Generalizzazione codicePGR 0.47 (il doppio del baseline)
Test in produzione (Claude Sonnet 4)Nessun miglioramento significativo

I ricercatori precisano che questo risultato non significa che Claude sia uno «scienziato dell’allineamento generalista» — il problema scelto è eccezionalmente adatto all’automazione (misura oggettiva unica). Ma l’esperimento dimostra che Claude può moltiplicare il ritmo di sperimentazione nell’allineamento, e che la diversità dei punti di partenza è fondamentale. Il codice e i dati sono disponibili open source.

🔗 Blog Anthropic — Automated Alignment Researchers


Apprendimento subliminale nei LLM pubblicato su Nature

15 aprile — Un articolo di ricerca co-firmato da Anthropic e Owain Evans è stato pubblicato sulla rivista Nature sul fenomeno dell’apprendimento subliminale (subliminal learning) dei LLM.

“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”

🇮🇹 Ricerche che abbiamo co-redatto sull’apprendimento subliminale — come i LLM possono trasmettere tratti come preferenze o disallineamento tramite segnali nascosti nei dati — sono state pubblicate oggi su Nature.@AnthropicAI su X

L’articolo dimostra che i LLM possono trasmettere tratti (come «amare i gufi») attraverso dati apparentemente neutri (ad esempio, sequenze di numeri senza relazione con il tratto). Questo fenomeno di trasmissione nascosta pone domande importanti per la sicurezza: un modello potrebbe propagare preferenze o disallineamento attraverso i dati di addestramento senza che ciò sia rilevabile mediante ispezione diretta. Un preprint era stato pubblicato nel luglio 2025.

🔗 Articolo Nature — Subliminal Learning


GPT-5.4-Cyber e ampliamento del programma TAC

14 aprile — OpenAI annuncia l’espansione del suo programma Trusted Access for Cyber (TAC) a migliaia di difensori individuali verificati e centinaia di team responsabili della protezione di software critici.

Un nuovo modello, GPT-5.4-Cyber, è ora accessibile agli utenti dei livelli più alti del programma. Si tratta di una variante di GPT-5.4 ottimizzata per la cybersecurity difensiva, con una soglia di rifiuto abbassata per gli usi legittimi e una capacità esclusiva di reverse engineering binario (analisi di software compilato senza accesso al codice sorgente).

Il programma TAC opera su tre livelli:

  1. Utenti individuali: Verifica dell’identità su chatgpt.com/cyber
  2. Aziende: Accesso al team tramite rappresentante OpenAI
  3. Livelli superiori (accesso a GPT-5.4-Cyber): Autenticazione rafforzata + espressione di interesse

Codex Security, lanciato all’inizio del 2026, ha già contribuito a correggere più di 3 000 vulnerabilità critiche e gravi.

🔗 Annuncio ufficiale OpenAI


Gemini Personal Intelligence: distribuzione mondiale

15 aprile — La funzionalità Personal Intelligence dell’app Gemini si espande a livello internazionale. Finora limitata agli Stati Uniti, è ora accessibile agli abbonati Google AI Ultra, Pro e Plus di tutto il mondo, con un rollout verso gli utenti gratuiti previsto a breve.

Personal Intelligence consente a Gemini di fornire risposte personalizzate e contestuali collegandosi alle app Google dell’utente: Search, Gmail, Google Photos e YouTube. Google ha inoltre annunciato l’arrivo di Personal Intelligence in Google Chrome nel corso della settimana.

🔗 Tweet @GeminiApp


Mistral Connectors MCP in Studio (Public Preview)

15 aprile — Mistral AI lancia i Connectors in Mistral Studio in accesso anticipato pubblico (Public Preview), consentendo di collegare fonti di dati aziendali tramite il protocollo MCP.

Un connector incapsula un’integrazione in entità riutilizzabile basata su MCP. Una volta registrato, è governato e monitorato in Studio, e diventa uno strumento nativo per qualsiasi conversazione, agente o flusso di lavoro.

| Funzionalità | Dettaglio | | ------------------------------ | ---------------------------------------------------------------------------- | -------------------------------------------------------------------------------------------------- | | MCP integrati e personalizzati | Disponibili per tutte le richieste di modelli e agenti | | Chiamata diretta di strumenti | Controllo preciso su quando e come gli strumenti vengono invocati | | Validazione umana nel loop | Flusso di approvazione configurabile prima dell’esecuzione degli strumenti | | Accesso programmatico | Creazione, modifica, elenco ed eliminazione di connector tramite l’API | | Registro centralizzato | Disponibile in tutte le app Mistral (Le Chat, AI Studio, Vibe prossimamente) | Intégrations supportées : CRM, basi di conoscenza, strumenti di produttività, GitHub, ricerca web. |

🔗 Annuncio Mistral — Connectors


Primo spot pubblicitario automobilistico interamente prodotto da IA

15 aprile — Luma Agents ha alimentato il primo spot pubblicitario Mazda interamente prodotto da IA. L’agenzia creativa indipendente Boundless (Johannesburg) ha utilizzato Luma per creare una campagna che riunisce più generazioni della MX-5 e decenni di storytelling del marchio. Tempo totale dal concept fino all’approvazione finale: meno di due settimane.

Luma cita questo caso come esempio dei flussi di lavoro creativi nativi all’IA: produzione più rapida, senza compromessi sulla visione creativa.

🔗 Luma Labs — Boundless × Mazda


Annunci minori

Kling AI Skill (15 aprile) — Kling lancia un’encapsulazione one-stop delle sue API per un’integrazione diretta negli agenti IA. Gli agenti possono accedere alla generazione Text/Image-to-Video, alla generazione di immagini 4K e alla coerenza inter-scene, senza configurazioni complesse. Compatibile con Claude Code, Cursor, Codex, Copilot. 🔗 Documentazione Kling AI Skill

Qwen in OpenCode (15 aprile) — Qwen3.6-Plus e Qwen3.5-Plus sono ora disponibili nello strumento di coding OpenCode. Qwen3.5-Plus è 3x meno costoso di Qwen3.6-Plus, entrambi i modelli supportano le immagini e offrono la conservazione zero dei dati. 🔗 Tweet @Alibaba_Qwen

Copilot Cloud Agent — attivazione selettiva (15 aprile) — Gli amministratori GitHub Enterprise possono ora attivare il Copilot Cloud Agent in modo selettivo per organizzazione tramite le proprietà personalizzate (custom properties). Tre nuovi endpoint REST consentono di gestire questa politica via API. 🔗 Changelog GitHub


Cosa significa

La giornata del 15 aprile illustra una convergenza: i grandi attori dotano i loro ambienti di sviluppo di un’infrastruttura agentica standardizzata. Claude Code Desktop, gli Agents SDK OpenAI e i Mistral Connectors condividono la stessa logica — orchestrare più agenti in parallelo, dotarli di primitive (MCP, AGENTS.md, shell, file) e offrire loro un ambiente di esecuzione isolato.

L’annuncio più strutturante resta il redesign di Claude Code Desktop: la sidebar delle sessioni e la side chat cambiano il modo di lavorare con più agenti simultaneamente, un uso che sta diventando progressivamente la norma per gli sviluppatori che si affidano all’IA.

Sul fronte della ricerca, la pubblicazione di Nature sull’apprendimento subliminale e l’esperimento dei ricercatori di allineamento automatizzati (PGR 0.97 per 18 000 $) segnalano che Anthropic investe parallelamente nella comprensione dei rischi a lungo termine — un equilibrio tra produttività immediata e sicurezza strutturale.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator