Cerca

GitHub Copilot CLI plugin enterprise, VS Code BYOK + /chronicle, Claude Code 60+ correzioni

GitHub Copilot CLI plugin enterprise, VS Code BYOK + /chronicle, Claude Code 60+ correzioni

ai-powered-markdown-translator

Articolo tradotto dal fr al it con gpt-5.4-mini.

Vedi progetto su GitHub ↗

GitHub Copilot compie un nuovo passo nell’adozione enterprise con la gestione centralizzata dei plugin CLI, mentre gli aggiornamenti di aprile per VS Code introducono BYOK, la ricerca semantica in tutti gli spazi di lavoro e una cronologia chat interrogabile. Claude Code prosegue il suo ritmo intenso con 60 correzioni aggiuntive questa settimana. In parallelo, Luma AI apre l’API del suo modello Uni-1.1, al primo posto nella classifica Human Preference Elo, e Qwen3.6-35B-A3B segna +8.2 punti sul benchmark ODinW.


GitHub Copilot CLI — Plugin gestiti dall’azienda in anteprima pubblica

6 maggio — GitHub lancia in anteprima pubblica la gestione centralizzata dei plugin Copilot CLI per le aziende. Gli amministratori possono ora definire e distribuire plugin (agenti personalizzati, competenze, hook, configurazioni MCP) a tutti gli utenti della propria organizzazione da un file settings.json unico.

Funzionamento concreto:

ParametroValore
File di configurazione.github-private/.github/copilot/settings.json
Piani richiestiCopilot Business, Copilot Enterprise
StatoAnteprima pubblica (Public Preview)
InstallazioneAutomatica all’autenticazione

Copilot CLI recupera e applica queste impostazioni per tutti gli utenti con licenza. I plugin possono includere agenti personalizzati, hook di workflow e configurazioni MCP su scala organizzativa. Se l’azienda aveva già configurato una sorgente per gli agenti personalizzati tramite .github-private, quello stesso repository viene riutilizzato. Gli amministratori possono verificare la configurazione dalla pagina Agents nelle impostazioni enterprise, sotto AI controls.

Questa funzionalità colma un divario importante tra l’adozione individuale di Copilot CLI e la sua distribuzione su scala organizzativa: finora, ogni sviluppatore doveva configurare manualmente i propri plugin.

🔗 Annuncio GitHub Changelog


GitHub Copilot in VS Code — Aggiornamenti aprile 2026 (v1.116–v1.119)

6 maggio — GitHub pubblica il riepilogo degli aggiornamenti Copilot per VS Code che copre le versioni v1.116 a v1.119 (da aprile a inizio maggio 2026), dopo il passaggio di VS Code alle release stabili settimanali.

Contesto più intelligente:

FunzionalitàStato
Ricerca semantica (tutti gli spazi di lavoro)Disponibile
githubTextSearch (grep su repository GitHub)Disponibile
/chronicle (cronologia chat locale)Sperimentale
Cache dei prompt + caricamento differito degli strumentiDisponibile

La ricerca semantica è ora attiva in tutti gli spazi di lavoro, non più solo nei repository indicizzati. Lo strumento githubTextSearch consente query di tipo grep su interi repository e organizzazioni GitHub. Il comando sperimentale /chronicle crea un database locale della cronologia chat per ritrovare sessioni passate, file coinvolti e PR citate.

Esperienza agent migliorata:

FunzionalitàStato
BYOK (Business + Enterprise)Disponibile
Integrated BrowserDisponibile
Monitoring CLI remotoSperimentale
Accesso ai terminali apertiDisponibile

Il BYOK (Bring Your Own Key) consente alle organizzazioni Copilot Business e Enterprise di collegare direttamente in VS Code le proprie chiavi API: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama e Foundry Local sono supportati. Gli agent possono leggere e scrivere nei terminali aperti (REPL, script interattivi). La funzionalità Integrated Browser permette di condividere schede del browser in tempo reale come contesto per gli agenti. Le sessioni Copilot CLI possono essere controllate da remoto da GitHub.com o dall’app mobile (sperimentale).

🔗 Annuncio GitHub Changelog


Claude Code — 60+ correzioni di affidabilità (settimana dell’8 maggio)

8 maggio — Il team Claude Code pubblica un thread che elenca più di 60 correzioni distribuite questa settimana, che si aggiungono alle 50+ della settimana precedente.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇮🇹 “La settimana scorsa abbiamo rilasciato 50+ correzioni di affidabilità per Claude Code. Questa settimana, altre 60+. Sessioni lunghe più fluide, un loop agent più efficiente, un’autenticazione che funziona in più ambienti e correzioni del terminale.”@ClaudeDevs su X

AmbitoCorrezioni rilevanti
Stabilitàclaude -p accetta >10 Mo via stdin, ripresa dopo sospensione
Loop agentPrompt cache per sotto-agent, cache opt-in di 1h tramite ENABLE_PROMPT_CACHING_1H
AutenticazioneIncolla del codice OAuth direttamente nel terminale (WSL, SSH, container)
MCPRiconnessione automatica + stato chiaro in /mcp, fix memoria limitata
Rendering terminaleFix scorrimento Cursor, VS Code, JetBrains; fix caratteri giapponesi

Per applicare queste correzioni: claude update.

🔗 Changelog Claude Code


GitHub Copilot — Deprecazione di Grok Code Fast 1 (15 maggio)

8 maggio — GitHub annuncia la deprecazione di Grok Code Fast 1 in tutti gli ambienti Copilot il 15 maggio 2026, cioè una settimana dopo l’annuncio. Il motivo: il modello è a sua volta deprecato da xAI.

ModelloData di deprecazioneAlternativa suggerita
Grok Code Fast 115 maggio 2026GPT-5 mini, Claude Haiku 4.5

Gli amministratori Copilot Enterprise devono verificare che i modelli alternativi siano attivati nelle loro policy dei modelli prima di questa data. La transizione dopo la deprecazione è automatica — non è richiesta alcuna azione aggiuntiva per rimuovere il modello.

🔗 Annuncio deprecazione


Google Health App — Fitbit diventa Google Health con coach Gemini

8 maggio — L’app Fitbit evolve e diventa la nuova app Google Health. Questo restyling conserva tutte le funzionalità Fitbit esistenti e integra un coach salute personalizzato alimentato da Gemini. Questo coach analizza i dati dei dispositivi indossabili (wearables), le app salute preferite e le cartelle cliniche per fornire consigli proattivi e adattati a ciascun utente.

L’app è compatibile con gli orologi Fitbit e Pixel Watch, e si integra con centinaia di app e dispositivi di terze parti.

🔗 Annuncio @GoogleAI


Gemini API — File Search multimodale, Webhooks, Gemma 4 MTP 3x più veloce

8 maggio — Il riepilogo settimanale @GoogleAI elenca tre uscite per sviluppatori della settimana, a 11 giorni da Google I/O:

FunzionalitàDataImpatto
File Search multimodale5 maggioRAG multimodale verificabile con citazioni di pagina
Webhook Gemini API4 maggioSostituzione del polling con notifiche push
Gemma 4 MTP drafters5 maggioFino a 3x più veloce nell’inferenza

Lo strumento File Search supporta ora i metadati personalizzati e le citazioni di pagina, consentendo di costruire sistemi RAG (Retrieval-Augmented Generation) verificabili su fonti multimodali. I webhook eliminano la necessità di interrogazioni continue per le attività lunghe. Gli acceleratori MTP (Multi-Token Prediction) per Gemma 4 offrono fino a 3x più velocità di inferenza nei workflow di deployment.

🔗 Blog Google Developers


Luma AI Uni-1.1 API — Apertura pubblica

5 maggio — Luma AI apre la sua API Uni-1.1, rendendo il suo modello di intelligenza unificata (Unified Intelligence model) accessibile agli sviluppatori tramite un’interfaccia REST. Questo modello integra ragionamento e generazione di immagini in un’unica architettura — a differenza dell’approccio standard che assembla più modelli separati in inferenza.

MetricasValore
Human Preference Elo#1 (generazione globale, stile, riferimento guidato)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench ragionamento spazialePrimo posto
Riferimenti per richiestaFino a 9 immagini
Tempo di generazione~31 secondi per immagine
Partner in produzioneEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

L’API propone due endpoint principali: Generate Image (text-to-image con fino a 9 immagini di riferimento per preservare identità, composizione o stile) e Modify Image (editing in linguaggio naturale). Sono disponibili gli SDK Python e JavaScript/TypeScript. Due livelli tariffari: Build (fatturazione a consumo) e Scale (limiti di throughput più elevati, supporto dedicato).

🔗 Annuncio Luma AI


NVIDIA + SakanaAI — Paper ICML 2026 sui kernel sparse TwELL

8 maggio — NVIDIA AI e SakanaAI Labs pubblicano congiuntamente un paper di ricerca accettato a ICML 2026, dedicato ai kernel di transformer sparsi (sparse transformer kernels) e ai formati di dati ottimizzati per l’esecuzione su GPU NVIDIA moderne. Il progetto si chiama TwELL.

L’intuizione centrale: il cervello umano attiva solo i neuroni necessari a un pensiero specifico. Applicato ai modelli linguistici, questo si traduce in un calcolo selettivo dei pesi attivi tramite sparsità strutturata, riducendo il carico computazionale senza sacrificare le prestazioni. Questa ricerca si allinea con la direzione di NVIDIA verso un’inferenza più efficiente, in particolare per le architetture Mixture-of-Experts (MoE). Il tweet ha ottenuto 50.000 visualizzazioni e 66 repost nella community ML.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 punti sul benchmark ODinW

9 maggio — Tongyi Lab (Alibaba) annuncia un avanzamento nel rilevamento di oggetti orientato alle istruzioni (Instruction-Oriented Object Detection) grazie al modello Qwen3.6-35B-A3B. A differenza del rilevamento classico, che si limita a localizzare elementi visivi, questo approccio mira a comprendere semanticamente istruzioni in linguaggio naturale per guidare il rilevamento.

MetricaQwen3.5Qwen3.6-35B-A3BGuida
ODinW score42.650.8+8.2 pts

Una demo interattiva è disponibile su ModelScope.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1.200+ lingue per l’inclusione globale

9 maggio — Tongyi Lab (Alibaba) pubblica un video intitolato “1,200+ Languages. One Vision for AI Inclusion”, ponendo la questione dell’accesso equo all’IA per le comunità linguistiche sottorappresentate. L’iniziativa punta a una copertura di oltre 1.200 lingue — ben al di là delle 92 lingue di Qwen-MT annunciato nel luglio 2025 — in risposta al divario tra la tecnologia globale e le comunità che dovrebbe servire.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Pagina di migrazione ChatGPT verso Codex

8 maggio — OpenAI pubblica un tweet minimalista che punta a chatgpt.com/codex/switch-to-codex/, con il solo messaggio “Just gonna leave this here.” Il tweet genera 517.000 visualizzazioni. Questo teaser si inserisce nella strategia di posizionamento di Codex come assistente di sviluppo centrale della piattaforma ChatGPT. La pagina di destinazione non era accessibile durante la scansione.

🔗 Tweet @OpenAI


Brevi

  • OpenAI supply.openai.com — @OpenAIDevs pubblica un tweet criptico: “Available until the goblins notice.” 🧌, citando un link verso supply.openai.com. La pagina non era accessibile durante la scansione (274.000 visualizzazioni). 🔗 Tweet

Cosa significa

L’enterprise diventa la battaglia centrale di Copilot. GitHub sta costruendo le fondamenta di una distribuzione Copilot gestita a livello organizzativo: plugin centralizzati tramite .github-private, BYOK per connettere i propri modelli, monitoring CLI remoto e Integrated Browser come contesto live per gli agent. Queste funzionalità rispondono a una domanda reale dei CIO che vogliono standardizzare gli strumenti IA senza lasciare che ogni sviluppatore configuri il proprio stack. La deprecazione simultanea di Grok Code Fast 1 (sostituito da GPT-5 mini o Claude Haiku 4.5) mostra anche la rapidità con cui i modelli di terze parti vengono integrati e poi rimossi in questo ecosistema.

Claude Code punta tutto sull’affidabilità. 110+ correzioni in due settimane consecutive su temi specifici — sessioni lunghe, auth OAuth in ambienti ristretti, MCP, rendering del terminale — segnalano che il team Anthropic ha identificato l’affidabilità come il principale ostacolo all’adozione in produzione. I fix su WSL, SSH e container mirano esplicitamente agli ambienti enterprise in cui il browser non può raggiungere localhost. L’opt-in della cache dei prompt di un’ora sui sotto-agent è anche un segnale: i workflow multi-agent di lunga durata stanno diventando un caso d’uso prioritario.

Luma AI e l’API unificata: una scommessa architetturale. Dove la maggior parte delle pipeline di generazione immagini assembla più modelli specializzati, Uni-1 integra ragionamento e generazione in un’unica architettura. La possibilità di usare fino a 9 immagini di riferimento per richiesta — e i risultati #1 Human Preference Elo — suggeriscono che questo approccio unificato offre una coerenza stilistica difficile da ottenere con pipeline assemblate. Gli 8 partner già in produzione confermano che l’API è pronta per carichi di lavoro reali.

Alibaba/Qwen punta al multimodale e al multilinguismo. Il guadagno di +8.2 punti su ODinW per Qwen3.6-35B-A3B nel rilevamento di oggetti guidato dal linguaggio naturale, combinato con l’ambizione di coprire 1.200+ lingue, delinea una strategia Tongyi Lab orientata a casi d’uso ad alto impatto sociale: visione industriale accessibile tramite istruzioni testuali, e IA utilizzabile da comunità linguistiche oggi non servite. Questi due assi convergono in una stessa logica di accessibilità estesa.


Fonti