Il 14 aprile 2026 segna una giornata intensa per gli strumenti di sviluppo assistiti dall’IA: Anthropic lancia le routine in Claude Code, consentendo di automatizzare interi workflow tramite pianificazione o webhook, senza lasciare acceso il computer. Google DeepMind pubblica Gemini Robotics-ER 1.6 con nuove capacità di percezione industriale sviluppate con Boston Dynamics. Z.ai apre GLM-5.1 sotto licenza MIT, classificato al numero 1 tra i modelli open source su SWE-Bench Pro. GitHub Copilot aggiunge tre funzionalità utili: risoluzione dei conflitti in tre clic, residenza dei dati US/EU e selezione del modello per gli agenti di terze parti.
Routine in Claude Code — ricerca preliminare (research preview)
14 aprile — Anthropic lancia le routine in Claude Code in research preview. Una routine è un’automazione configurata una sola volta — con un prompt, un repository e dei connettori — che poi viene eseguita in modo autonomo, senza che l’utente resti connesso.
Sono disponibili tre tipi di trigger:
| Type | Trigger | Esempio d’uso |
|---|---|---|
| Pianificata (Scheduled) | Cron (orario, notturno, settimanale) | Triage notturno dei bug Linear, apertura di PR di correzione |
| API | Chiamata HTTP POST verso un endpoint dedicato | Alert Datadog → triage automatico + bozza di fix |
| Webhook | Eventi GitHub (PR, push…) | Revisione automatica del codice su ogni PR aperta |
Ogni routine dispone del proprio endpoint e token di autenticazione. Le routine API si integrano in qualunque pipeline esistente (alert, hook di deployment, strumenti interni). Le routine webhook avviano una nuova sessione per ogni PR che corrisponde ai filtri definiti e alimentano la sessione con gli aggiornamenti successivi (commenti, fallimenti dell’integrazione continua).
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇮🇹 Configura una routine una sola volta (un prompt, un repository e i tuoi connettori), e può essere eseguita su una pianificazione, a partire da una chiamata API, oppure in risposta a un evento. Le routine girano sulla nostra infrastruttura web, quindi non c’è bisogno di lasciare acceso il tuo computer. — @claudeai su X
Disponibilità e limiti:
| Plan | Routine/giorno |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
Disponibile su tutti i piani a pagamento (Pro, Max, Team, Enterprise) con Claude Code web attivato. Oltre le quote, è ancora possibile un utilizzo supplementare. Le routine consumano i crediti dell’abbonamento come le sessioni interattive.
Casi d’uso documentati:
- Gestione del backlog: triage notturno, etichettatura, riepilogo Slack
- Deriva della documentazione (docs drift): scansione settimanale delle PR fuse, rilevamento delle pagine da aggiornare
- Verifica post-deploy: test di fumo (smoke checks) dopo ogni release
- Porting di SDK: ogni PR Python fusa attiva automaticamente un porting verso l’SDK Go
🔗 Blog Anthropic 🔗 Tweet di annuncio
Claude Code v2.1.105 — hook PreCompact, monitor dei plugin, /proactive
11 al 13 aprile — La versione 2.1.105 di Claude Code apporta diversi miglioramenti notevoli:
| Funzionalità | Descrizione |
|---|---|
Parametro path per EnterWorktree | Consente di passare a un worktree esistente del repository corrente |
| Hook PreCompact | Gli hook possono ora bloccare la compattazione (codice di uscita 2 o {"decision":"block"}) |
| Background monitors per plugin | Chiave monitors nel manifesto del plugin — armato automaticamente all’avvio della sessione |
/proactive | Nuovo alias per /loop |
| Abbandono degli Streams API bloccati | Abbandono dopo 5 minuti senza dati + retry in modalità non-streaming |
| Messaggi di errore di rete | Visualizzazione immediata di un messaggio di retry invece di uno spinner silenzioso |
| Visualizzazione file lunghi | Le scritture single-line molto lunghe (es: JSON minimificato) vengono troncate nell’interfaccia |
/doctor migliorato | Icone di stato + tasto f per chiedere a Claude di correggere i problemi rilevati |
14 aprile — La versione 2.1.107 apporta un miglioramento dell’interfaccia: gli indizi di progresso (thinking hints) vengono ora visualizzati prima durante le operazioni lunghe, riducendo la sensazione di attesa senza ritorno visivo.
Anthropic — Vas Narasimhan entra nel consiglio di amministrazione
14 aprile — Il Long-Term Benefit Trust (LTBT) di Anthropic ha nominato Vas Narasimhan nel consiglio di amministrazione. Medico-scienziato e CEO di Novartis, ha supervisionato lo sviluppo e l’approvazione di oltre 35 farmaci innovativi in uno dei settori più regolamentati al mondo.
Con questa nomina, gli amministratori nominati dal Trust costituiscono ora la maggioranza del consiglio. Il LTBT è un organo indipendente i cui membri non hanno alcun interesse finanziario in Anthropic — il suo ruolo è mantenere l’equilibrio tra successo commerciale e missione di beneficio pubblico a lungo termine.
Gemini Robotics-ER 1.6 — percezione industriale e sicurezza
14 aprile — Google DeepMind pubblica Gemini Robotics-ER 1.6, aggiornamento del suo modello di ragionamento incarnato (embodied reasoning) per la robotica. Il modello migliora la comprensione visiva e spaziale per consentire ai robot di pianificare ed eseguire compiti reali con maggiore autonomia. Supera Gemini Robotics-ER 1.5 e Gemini 3.0 Flash nei benchmark robotici interni.
Nuove capacità:
| Capacità | Descrizione |
|---|---|
| Puntamento spaziale (Pointing) | Rilevamento e conteggio di oggetti, logica relazionale (più piccolo/grande), traiettorie e punti di presa, vincoli complessi |
| Rilevamento del successo multi-vista | Analizza più angoli di camera per verificare che un compito sia davvero completato |
| Lettura di strumenti | Legge indicatori circolari e tubi trasparenti (sight glasses) — sviluppato con Boston Dynamics per l’ispezione industriale |
| Sicurezza (benchmark ASIMOV v2) | Miglior punteggio tra tutti i modelli testati nel rispetto delle istruzioni di sicurezza |
La capacità di lettura degli strumenti nasce dalla collaborazione con Boston Dynamics per il robot Spot, usato nelle ispezioni di impianti industriali. Combina ragionamento spaziale ed esecuzione di codice per interpretare indicatori di pressione con alta precisione.
Disponibilità: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio e notebook di avvio su GitHub Colab.
🔗 Blog Google DeepMind 🔗 Tweet di annuncio
GLM-5.1 — Z.ai apre il suo modello agentico sotto licenza MIT
7 aprile (annuncio recuperato — passato sotto il radar durante la scansione della settimana scorsa) — Z.ai (ex ZhipuAI) ha pubblicato GLM-5.1, il suo nuovo modello di punta per il coding agentico (agentic coding), disponibile open source sotto licenza MIT.
Prestazioni sui benchmark di codice:
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
GLM-5.1 si classifica numero 1 nell’open source e terzo al mondo su SWE-Bench Pro, Terminal-Bench e NL2Repo.
La differenza chiave: l’orizzonte lungo. I modelli precedenti, incluso GLM-5, migliorano rapidamente le loro prestazioni all’inizio, poi raggiungono un plateau. GLM-5.1 è progettato per restare efficace su compiti agentici su orizzonti molto più lunghi: può lavorare in modo autonomo per 8 ore, affinando le proprie strategie nel corso di migliaia di chiamate agli strumenti.
Tre scenari illustrano questa capacità:
- Ottimizzazione di database vettoriale su 600 iterazioni: GLM-5.1 raggiunge 21.500 richieste al secondo su VectorDBBench, cioè 6 volte il miglior risultato ottenuto in una sessione di 50 turni.
- Ottimizzazione di kernel GPU su 1.000+ turni: accelerazione di 3,6 volte su KernelBench Livello 3.
- Costruzione di un desktop Linux in 8 ore: a partire da un semplice prompt in linguaggio naturale, GLM-5.1 produce un ambiente desktop completo nel browser (file manager, terminale, editor, monitor di sistema).
Disponibilità: pesi open source su HuggingFace (zai-org/GLM-5.1), API su api.z.ai e BigModel.cn, compatibile con Claude Code, Cline, Roo Code, Kilo Code e OpenCode.
🔗 Blog GLM-5.1 🔗 Tweet di annuncio
Codex CLI v0.120.0 — diffusione in tempo reale degli agenti
11 aprile — La versione 0.120.0 del Codex CLI viene pubblicata come versione stabile. Porta diversi miglioramenti funzionali:
| Funzionalità | Dettaglio |
|---|---|
| Realtime V2 | Diffonde in tempo reale l’avanzamento degli agenti in background, accoda le risposte successive |
| Hook TUI migliorati | Gli hook attivi vengono mostrati separatamente, la cronologia degli hook completati è alleggerita |
| Titolo del thread nello stato | Gli stati TUI personalizzati possono includere il titolo del thread rinominato |
| Schema di output code-mode | Le dichiarazioni degli strumenti code-mode includono ora i dettagli outputSchema MCP |
| Hook SessionStart | Distingue le sessioni create da /clear dagli avvii o riprese |
La versione include anche diverse correzioni di bug: gestione delle sandbox Windows elevate, panic durante connessioni WebSocket TLS, conservazione dell’ordine dei risultati di ricerca degli strumenti.
GitHub Copilot — tre nuove funzionalità
Selezione del modello per gli agenti di terze parti
14 aprile — È ora possibile scegliere il modello quando si avvia un’attività con gli agenti Claude (Anthropic) e Codex (OpenAI) su github.com.
| Agent | Modelli disponibili |
|---|---|
| Claude | Claude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5 |
| Codex | GPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4 |
Incluso con l’abbonamento Copilot esistente (Business o Enterprise), ma l’amministratore deve attivare le politiche corrispondenti a livello di azienda o organizzazione.
🔗 Changelog selezione del modello
Risoluzione dei conflitti di merge in tre clic
13 aprile — Un nuovo pulsante “Fix with Copilot” appare sulle pull request con conflitti di merge. In tre clic, il Copilot cloud agent risolve i conflitti, verifica che build e test passino, quindi effettua il push dal suo ambiente cloud isolato. La menzione @copilot nelle PR permette anche di correggere workflow GitHub Actions che falliscono o di rispondere a commenti di code review. Disponibile su tutti i piani Copilot a pagamento.
🔗 Changelog conflitti di merge
Residenza dei dati US/EU e conformità FedRAMP
13 aprile — GitHub Copilot supporta ora la residenza dei dati per le regioni US ed EU: tutte le inferenze e i dati associati restano nella zona geografica designata. I clienti governativi statunitensi beneficiano inoltre della conformità FedRAMP Moderate. Le richieste data-resident comportano un sovrapprezzo del 10% sul moltiplicatore delle premium requests. I modelli Gemini non sono ancora supportati (GCP non offre ancora endpoint di inferenza con residenza dei dati). Giappone e Australia sono sulla roadmap per il 2026.
Media generativa — Runway, Luma, MiniMax, ElevenLabs
Runway Characters nelle videochiamate
14 aprile — Runway distribuisce un aggiornamento dei Characters che consente di inviare il proprio avatar IA in una videochiamata Zoom, Google Meet o Teams. La procedura: scegliere o creare un Character → incollare il link della riunione → cliccare “Join Meeting”. La funzionalità, inizialmente disponibile come API per sviluppatori dal 9 marzo, è ora accessibile a tutti gli utenti dall’app Runway.
Luma — dettatura vocale e animazione del logo
14 aprile — Luma Labs lancia due nuove funzionalità: la dettatura vocale nella sua app (l’utente parla, la descrizione viene convertita in un prompt di generazione) e l’animazione cinematografica del logo (carica il proprio logo, l’agente produce un’introduzione animata orientata al branding).
🔗 Tweet dettatura vocale · Tweet animazione logo
MiniMax — tre Music Skills open source per agenti
14 aprile — MiniMax apre in open source tre Music Skills per agenti: minimax-music-gen (generazione di un brano completo da un prompt, con scelta automatica tra originale, strumentale e cover), buddy-sings (l’agente IA canta come compagno vocale) e Playlist curation (curation di playlist dalla libreria dell’utente). Questi componenti sono destinati all’integrazione in agenti M2.7.
ElevenLabs — 100 milioni di dollari di ricavi ricorrenti netti nel Q1 2026
13 aprile — Il CEO Mati Staniszewski annuncia che ElevenLabs ha aggiunto oltre 100 milioni di dollari di ricavi ricorrenti annuali netti nel Q1 2026 — il loro trimestre migliore finora. Crescita trainata dalle partnership aziendali (Klarna, Revolut, Deutsche Telekom, Toyota).
Cosa significa
Le routine in Claude Code rappresentano un cambio di paradigma: lo strumento di sviluppo non risponde più soltanto alle richieste interattive, ma può ormai prendere iniziative pianificate o reattive nell’infrastruttura di un progetto. La combinazione scheduled + webhook trasforma Claude Code in un agente permanente su un repository, con un costo di configurazione minimo.
Sul fronte dell’open source, GLM-5.1 conferma che i modelli agentici cinesi hanno raggiunto il livello dei migliori modelli proprietari sui benchmark di coding. La capacità di mantenere un orizzonte di 8 ore di lavoro autonomo — con migliaia di chiamate agli strumenti — apre possibilità concrete per attività di ottimizzazione intensiva che i modelli tradizionali non possono gestire in una sola sessione.
Gemini Robotics-ER 1.6 illustra una tendenza diversa: modelli di IA generale adattati ai vincoli fisici del mondo reale, con una collaborazione tra software e hardware (Boston Dynamics/Spot) che produce nuove capacità come la lettura di strumenti industriali.
Sources
- Blog Anthropic — Routine Claude Code
- Tweet @claudeai — Routine
- CHANGELOG Claude Code
- Anthropic — Nomina Vas Narasimhan
- Blog Google DeepMind — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Blog Z.ai — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub Changelog — Selezione del modello per agenti di terze parti
- GitHub Changelog — Conflitti di merge Copilot
- GitHub Changelog — Residenza dei dati US/EU FedRAMP
- Tweet @runwayml — Chiamata video dei personaggi
- Tweet @LumaLabsAI — Dettatura vocale
- Tweet @LumaLabsAI — Animazione del logo
- Tweet @MiniMax_AI — Competenze musicali
- Tweet CEO ElevenLabs — 100M ARR
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator