ai-powered-markdown-translatorArticolo tradotto dal fr al it con gpt-5.4-mini.
GitHub Copilot compie un nuovo passo nell’adozione enterprise con la gestione centralizzata dei plugin CLI, mentre gli aggiornamenti di aprile per VS Code introducono BYOK, la ricerca semantica in tutti gli spazi di lavoro e una cronologia chat interrogabile. Claude Code prosegue il suo ritmo intenso con 60 correzioni aggiuntive questa settimana. In parallelo, Luma AI apre l’API del suo modello Uni-1.1, al primo posto nella classifica Human Preference Elo, e Qwen3.6-35B-A3B segna +8.2 punti sul benchmark ODinW.
GitHub Copilot CLI — Plugin gestiti dall’azienda in anteprima pubblica
6 maggio — GitHub lancia in anteprima pubblica la gestione centralizzata dei plugin Copilot CLI per le aziende. Gli amministratori possono ora definire e distribuire plugin (agenti personalizzati, competenze, hook, configurazioni MCP) a tutti gli utenti della propria organizzazione da un file settings.json unico.
Funzionamento concreto:
| Parametro | Valore |
|---|---|
| File di configurazione | .github-private/.github/copilot/settings.json |
| Piani richiesti | Copilot Business, Copilot Enterprise |
| Stato | Anteprima pubblica (Public Preview) |
| Installazione | Automatica all’autenticazione |
Copilot CLI recupera e applica queste impostazioni per tutti gli utenti con licenza. I plugin possono includere agenti personalizzati, hook di workflow e configurazioni MCP su scala organizzativa. Se l’azienda aveva già configurato una sorgente per gli agenti personalizzati tramite .github-private, quello stesso repository viene riutilizzato. Gli amministratori possono verificare la configurazione dalla pagina Agents nelle impostazioni enterprise, sotto AI controls.
Questa funzionalità colma un divario importante tra l’adozione individuale di Copilot CLI e la sua distribuzione su scala organizzativa: finora, ogni sviluppatore doveva configurare manualmente i propri plugin.
GitHub Copilot in VS Code — Aggiornamenti aprile 2026 (v1.116–v1.119)
6 maggio — GitHub pubblica il riepilogo degli aggiornamenti Copilot per VS Code che copre le versioni v1.116 a v1.119 (da aprile a inizio maggio 2026), dopo il passaggio di VS Code alle release stabili settimanali.
Contesto più intelligente:
| Funzionalità | Stato |
|---|---|
| Ricerca semantica (tutti gli spazi di lavoro) | Disponibile |
githubTextSearch (grep su repository GitHub) | Disponibile |
/chronicle (cronologia chat locale) | Sperimentale |
| Cache dei prompt + caricamento differito degli strumenti | Disponibile |
La ricerca semantica è ora attiva in tutti gli spazi di lavoro, non più solo nei repository indicizzati. Lo strumento githubTextSearch consente query di tipo grep su interi repository e organizzazioni GitHub. Il comando sperimentale /chronicle crea un database locale della cronologia chat per ritrovare sessioni passate, file coinvolti e PR citate.
Esperienza agent migliorata:
| Funzionalità | Stato |
|---|---|
| BYOK (Business + Enterprise) | Disponibile |
| Integrated Browser | Disponibile |
| Monitoring CLI remoto | Sperimentale |
| Accesso ai terminali aperti | Disponibile |
Il BYOK (Bring Your Own Key) consente alle organizzazioni Copilot Business e Enterprise di collegare direttamente in VS Code le proprie chiavi API: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama e Foundry Local sono supportati. Gli agent possono leggere e scrivere nei terminali aperti (REPL, script interattivi). La funzionalità Integrated Browser permette di condividere schede del browser in tempo reale come contesto per gli agenti. Le sessioni Copilot CLI possono essere controllate da remoto da GitHub.com o dall’app mobile (sperimentale).
Claude Code — 60+ correzioni di affidabilità (settimana dell’8 maggio)
8 maggio — Il team Claude Code pubblica un thread che elenca più di 60 correzioni distribuite questa settimana, che si aggiungono alle 50+ della settimana precedente.
“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”
🇮🇹 “La settimana scorsa abbiamo rilasciato 50+ correzioni di affidabilità per Claude Code. Questa settimana, altre 60+. Sessioni lunghe più fluide, un loop agent più efficiente, un’autenticazione che funziona in più ambienti e correzioni del terminale.” — @ClaudeDevs su X
| Ambito | Correzioni rilevanti |
|---|---|
| Stabilità | claude -p accetta >10 Mo via stdin, ripresa dopo sospensione |
| Loop agent | Prompt cache per sotto-agent, cache opt-in di 1h tramite ENABLE_PROMPT_CACHING_1H |
| Autenticazione | Incolla del codice OAuth direttamente nel terminale (WSL, SSH, container) |
| MCP | Riconnessione automatica + stato chiaro in /mcp, fix memoria limitata |
| Rendering terminale | Fix scorrimento Cursor, VS Code, JetBrains; fix caratteri giapponesi |
Per applicare queste correzioni: claude update.
GitHub Copilot — Deprecazione di Grok Code Fast 1 (15 maggio)
8 maggio — GitHub annuncia la deprecazione di Grok Code Fast 1 in tutti gli ambienti Copilot il 15 maggio 2026, cioè una settimana dopo l’annuncio. Il motivo: il modello è a sua volta deprecato da xAI.
| Modello | Data di deprecazione | Alternativa suggerita |
|---|---|---|
| Grok Code Fast 1 | 15 maggio 2026 | GPT-5 mini, Claude Haiku 4.5 |
Gli amministratori Copilot Enterprise devono verificare che i modelli alternativi siano attivati nelle loro policy dei modelli prima di questa data. La transizione dopo la deprecazione è automatica — non è richiesta alcuna azione aggiuntiva per rimuovere il modello.
Google Health App — Fitbit diventa Google Health con coach Gemini
8 maggio — L’app Fitbit evolve e diventa la nuova app Google Health. Questo restyling conserva tutte le funzionalità Fitbit esistenti e integra un coach salute personalizzato alimentato da Gemini. Questo coach analizza i dati dei dispositivi indossabili (wearables), le app salute preferite e le cartelle cliniche per fornire consigli proattivi e adattati a ciascun utente.
L’app è compatibile con gli orologi Fitbit e Pixel Watch, e si integra con centinaia di app e dispositivi di terze parti.
Gemini API — File Search multimodale, Webhooks, Gemma 4 MTP 3x più veloce
8 maggio — Il riepilogo settimanale @GoogleAI elenca tre uscite per sviluppatori della settimana, a 11 giorni da Google I/O:
| Funzionalità | Data | Impatto |
|---|---|---|
| File Search multimodale | 5 maggio | RAG multimodale verificabile con citazioni di pagina |
| Webhook Gemini API | 4 maggio | Sostituzione del polling con notifiche push |
| Gemma 4 MTP drafters | 5 maggio | Fino a 3x più veloce nell’inferenza |
Lo strumento File Search supporta ora i metadati personalizzati e le citazioni di pagina, consentendo di costruire sistemi RAG (Retrieval-Augmented Generation) verificabili su fonti multimodali. I webhook eliminano la necessità di interrogazioni continue per le attività lunghe. Gli acceleratori MTP (Multi-Token Prediction) per Gemma 4 offrono fino a 3x più velocità di inferenza nei workflow di deployment.
Luma AI Uni-1.1 API — Apertura pubblica
5 maggio — Luma AI apre la sua API Uni-1.1, rendendo il suo modello di intelligenza unificata (Unified Intelligence model) accessibile agli sviluppatori tramite un’interfaccia REST. Questo modello integra ragionamento e generazione di immagini in un’unica architettura — a differenza dell’approccio standard che assembla più modelli separati in inferenza.
| Metricas | Valore |
|---|---|
| Human Preference Elo | #1 (generazione globale, stile, riferimento guidato) |
| Image Arena | Top 3 (Text-to-Image + Image Edit) |
| RISEBench ragionamento spaziale | Primo posto |
| Riferimenti per richiesta | Fino a 9 immagini |
| Tempo di generazione | ~31 secondi per immagine |
| Partner in produzione | Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt |
L’API propone due endpoint principali: Generate Image (text-to-image con fino a 9 immagini di riferimento per preservare identità, composizione o stile) e Modify Image (editing in linguaggio naturale). Sono disponibili gli SDK Python e JavaScript/TypeScript. Due livelli tariffari: Build (fatturazione a consumo) e Scale (limiti di throughput più elevati, supporto dedicato).
NVIDIA + SakanaAI — Paper ICML 2026 sui kernel sparse TwELL
8 maggio — NVIDIA AI e SakanaAI Labs pubblicano congiuntamente un paper di ricerca accettato a ICML 2026, dedicato ai kernel di transformer sparsi (sparse transformer kernels) e ai formati di dati ottimizzati per l’esecuzione su GPU NVIDIA moderne. Il progetto si chiama TwELL.
L’intuizione centrale: il cervello umano attiva solo i neuroni necessari a un pensiero specifico. Applicato ai modelli linguistici, questo si traduce in un calcolo selettivo dei pesi attivi tramite sparsità strutturata, riducendo il carico computazionale senza sacrificare le prestazioni. Questa ricerca si allinea con la direzione di NVIDIA verso un’inferenza più efficiente, in particolare per le architetture Mixture-of-Experts (MoE). Il tweet ha ottenuto 50.000 visualizzazioni e 66 repost nella community ML.
Qwen3.6-35B-A3B — +8.2 punti sul benchmark ODinW
9 maggio — Tongyi Lab (Alibaba) annuncia un avanzamento nel rilevamento di oggetti orientato alle istruzioni (Instruction-Oriented Object Detection) grazie al modello Qwen3.6-35B-A3B. A differenza del rilevamento classico, che si limita a localizzare elementi visivi, questo approccio mira a comprendere semanticamente istruzioni in linguaggio naturale per guidare il rilevamento.
| Metrica | Qwen3.5 | Qwen3.6-35B-A3B | Guida |
|---|---|---|---|
| ODinW score | 42.6 | 50.8 | +8.2 pts |
Una demo interattiva è disponibile su ModelScope.
Tongyi Lab — 1.200+ lingue per l’inclusione globale
9 maggio — Tongyi Lab (Alibaba) pubblica un video intitolato “1,200+ Languages. One Vision for AI Inclusion”, ponendo la questione dell’accesso equo all’IA per le comunità linguistiche sottorappresentate. L’iniziativa punta a una copertura di oltre 1.200 lingue — ben al di là delle 92 lingue di Qwen-MT annunciato nel luglio 2025 — in risposta al divario tra la tecnologia globale e le comunità che dovrebbe servire.
OpenAI Codex Switch — Pagina di migrazione ChatGPT verso Codex
8 maggio — OpenAI pubblica un tweet minimalista che punta a chatgpt.com/codex/switch-to-codex/, con il solo messaggio “Just gonna leave this here.” Il tweet genera 517.000 visualizzazioni. Questo teaser si inserisce nella strategia di posizionamento di Codex come assistente di sviluppo centrale della piattaforma ChatGPT. La pagina di destinazione non era accessibile durante la scansione.
Brevi
- OpenAI supply.openai.com — @OpenAIDevs pubblica un tweet criptico: “Available until the goblins notice.” 🧌, citando un link verso
supply.openai.com. La pagina non era accessibile durante la scansione (274.000 visualizzazioni). 🔗 Tweet
Cosa significa
L’enterprise diventa la battaglia centrale di Copilot. GitHub sta costruendo le fondamenta di una distribuzione Copilot gestita a livello organizzativo: plugin centralizzati tramite .github-private, BYOK per connettere i propri modelli, monitoring CLI remoto e Integrated Browser come contesto live per gli agent. Queste funzionalità rispondono a una domanda reale dei CIO che vogliono standardizzare gli strumenti IA senza lasciare che ogni sviluppatore configuri il proprio stack. La deprecazione simultanea di Grok Code Fast 1 (sostituito da GPT-5 mini o Claude Haiku 4.5) mostra anche la rapidità con cui i modelli di terze parti vengono integrati e poi rimossi in questo ecosistema.
Claude Code punta tutto sull’affidabilità. 110+ correzioni in due settimane consecutive su temi specifici — sessioni lunghe, auth OAuth in ambienti ristretti, MCP, rendering del terminale — segnalano che il team Anthropic ha identificato l’affidabilità come il principale ostacolo all’adozione in produzione. I fix su WSL, SSH e container mirano esplicitamente agli ambienti enterprise in cui il browser non può raggiungere localhost. L’opt-in della cache dei prompt di un’ora sui sotto-agent è anche un segnale: i workflow multi-agent di lunga durata stanno diventando un caso d’uso prioritario.
Luma AI e l’API unificata: una scommessa architetturale. Dove la maggior parte delle pipeline di generazione immagini assembla più modelli specializzati, Uni-1 integra ragionamento e generazione in un’unica architettura. La possibilità di usare fino a 9 immagini di riferimento per richiesta — e i risultati #1 Human Preference Elo — suggeriscono che questo approccio unificato offre una coerenza stilistica difficile da ottenere con pipeline assemblate. Gli 8 partner già in produzione confermano che l’API è pronta per carichi di lavoro reali.
Alibaba/Qwen punta al multimodale e al multilinguismo. Il guadagno di +8.2 punti su ODinW per Qwen3.6-35B-A3B nel rilevamento di oggetti guidato dal linguaggio naturale, combinato con l’ambizione di coprire 1.200+ lingue, delinea una strategia Tongyi Lab orientata a casi d’uso ad alto impatto sociale: visione industriale accessibile tramite istruzioni testuali, e IA utilizzabile da comunità linguistiche oggi non servite. Questi due assi convergono in una stessa logica di accessibilità estesa.
Fonti
- GitHub Copilot CLI — Enterprise-managed plugins (Public Preview)
- GitHub Copilot VS Code — April 2026 Releases
- GitHub Copilot — Dépréciation Grok Code Fast 1
- Claude Code — Thread 60+ reliability fixes (@ClaudeDevs)
- Claude Code — Changelog ufficiale
- Google Health App — Annuncio @GoogleAI
- Gemini API — Blog Google Developers Tools
- Luma AI Uni-1.1 API
- NVIDIA + SakanaAI — Paper TwELL ICML26
- Qwen3.6-35B-A3B — ODinW +8.2 pts (@Ali_TongyiLab)
- ModelScope — Demo Object Detection Qwen
- Tongyi Lab — 1200+ Languages (@Ali_TongyiLab)
- OpenAI Codex Switch
- OpenAI supply.openai.com — teaser (@OpenAIDevs)