Il 13 aprile 2026, GitHub lancia la funzionalità di controllo remoto (remote control) per le sessioni Copilot CLI, consentendo di pilotare un terminale dal web o da un telefono tramite un semplice QR code. MiniMax pubblica M2.7, un modello agent disponibile su ModelScope con un ecosistema cloud operativo fin dal primo giorno. Alibaba rende disponibile l’API Qwen3.5-Omni per gli sviluppatori di tutto il mondo, e Google DeepMind annuncia che Gemini 3.1 Flash Live (Thinking) occupa ormai il primo posto della classifica τ-Voice per gli agenti vocali.
GitHub Copilot CLI — Controllo remoto dal web e da mobile
13 aprile — GitHub lancia copilot --remote in public preview: una sessione Copilot CLI in corso può ora essere monitorata e controllata da GitHub.com o dall’app GitHub Mobile, senza accesso diretto alla macchina.
Il funzionamento è semplice: all’avvio di una sessione remota, il CLI mostra un link e un QR code. Navigando verso questo link da un browser o da un telefono, l’utente accede all’interfaccia della sessione in corso. La sincronizzazione è bidirezionale: le azioni eseguite sul web o da mobile si riflettono nel terminale, e viceversa.
| Funzionalità | Dettaglio |
|---|---|
| Avvio | copilot --remote o /remote in una sessione esistente |
| Accesso | Link + QR code mostrato dal CLI |
| Applicazioni | GitHub.com + GitHub Mobile (iOS TestFlight, beta Android Google Play) |
| Sincronizzazione | Bidirezionale in tempo reale |
| Privacy | Sessione privata, visibile solo all’utente che l’ha avviata |
| Mantenimento sessione | Comando /keep-alive per evitare la sospensione durante attività lunghe |
Tutte le normali funzionalità del CLI restano accessibili da remoto: controllo in corso di sessione (steering), revisione e modifica dei piani, cambio di modalità (plan / interactive / autopilot), approvazione o rifiuto dei permessi, risposta alle domande ask_user.
Nota per le aziende: gli utenti Copilot Business o Enterprise hanno bisogno che un amministratore attivi le politiche di controllo remoto e del CLI prima dell’utilizzo.
MiniMax M2.7 — Modello agent open-source con ecosistema cloud giorno 0
12 aprile — MiniMax pubblica M2.7, un LLM con architettura agent disponibile su ModelScope, con un’integrazione vLLM operativa fin dal primo giorno.
Le prestazioni pubblicate collocano M2.7 al livello dei migliori modelli di coding disponibili:
| Benchmark | Punteggio M2.7 |
|---|---|
| SWE-Pro | 56,22% (uguale a GPT-5.3-Codex) |
| Terminal Bench 2 | 57,0% |
Il modello è progettato per l’orchestrazione multi-agent (Agent Teams), il coding avanzato e l’automazione di attività in linea di comando. È accessibile immediatamente tramite Together AI (serverless e dedicato) e Fireworks AI.
Da notare: MiniMax ha precisato dopo la pubblicazione che M2.7 non è strettamente open-source nel senso della licenza: il modello è stato ripubblicato con condizioni d’uso modificate.
🔗 Annuncio open-source su ModelScope 🔗 Supporto vLLM giorno 0 🔗 Disponibilità Together AI
Qwen3.5-Omni API — Disponibilità internazionale
13 aprile — Tongyi Lab (Alibaba) annuncia la disponibilità internazionale dell’API Qwen3.5-Omni tramite Alibaba Cloud Model Studio. Il modello qwen3.5-omni-plus è accessibile immediatamente con una chiave API.
Presentato in un articolo di ricerca il 29 marzo 2026, Qwen3.5-Omni è un modello omnimodale nativo: tratta testo, immagini, audio e video in una sola inferenza, senza pipeline multi-step. Dispone di due modalità di funzionamento — Thinker (ragionamento) e Talker (conversazione vocale) — tramite un’architettura ibrida.
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇮🇹 L’API Qwen3.5-Omni è ora ufficialmente disponibile, pronta a trasformare il modo in cui trattate contenuti video. — @Ali_TongyiLab su X
🔗 Thread di annuncio 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — N°1 della classifica τ-Voice
13 aprile — Tulsee Doshi (Product Manager Google DeepMind) annuncia che Gemini 3.1 Flash Live con la modalità Thinking attivata ha conquistato la prima posizione della τ-Voice Leaderboard di Sierra Platform.
Questa classifica misura le prestazioni dei modelli per la costruzione di agenti vocali in tempo reale: comprensione del parlato, ragionamento multi-turno ed esecuzione di azioni in scenari vicini alla produzione. Gemini 3.1 Flash Live era stato lanciato il 26 marzo 2026; questo risultato convalida le sue capacità per gli sviluppatori che costruiscono applicazioni vocali.
Il modello è disponibile tramite l’API Gemini Live in Google AI Studio.
🔗 Annuncio su X 🔗 τ-Voice Leaderboard
Connettori TurboTax e Aiwyn Tax per Claude
12 aprile — Henry Shi (Anthropic) annuncia due nuovi connettori per Claude: TurboTax e Aiwyn Tax (precedentemente Column Tax), lanciati a pochi giorni dalla scadenza americana del 15 aprile per la dichiarazione dei redditi.
Una volta connesso, Claude può stimare il rimborso o l’importo dovuto, spiegare i moduli fiscali e guidare l’utente nel processo di dichiarazione. Questi connettori sono destinati agli utenti statunitensi con un abbonamento Claude.
Cosa significa
La funzionalità copilot --remote di GitHub è la più strutturante della giornata: apre un nuovo modo d’uso per le lunghe attività CLI — avviare una sessione da una postazione di lavoro, poi monitorarla o controllarla da qualsiasi dispositivo. È una risposta diretta ai casi d’uso di agent autonomi che eseguono attività per ore.
Sul fronte dei modelli, MiniMax M2.7 e Qwen3.5-Omni illustrano due dinamiche diverse: M2.7 si rivolge agli sviluppatori che distribuiscono agent di coding (con un’integrazione vLLM dal primo giorno, a differenza della maggior parte dei modelli che arrivano tardi in questo ecosistema); Qwen3.5-Omni punta sulla multimodalità nativa, con il video come argomento centrale.
Il risultato di Gemini 3.1 Flash Live sulla τ-Voice Leaderboard conferma che Google investe seriamente nel segmento degli agent vocali in produzione — un mercato ancora poco strutturato ma in crescita.
Fonti
- GitHub Changelog — Copilot CLI remote control (13 aprile)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — supporto vLLM
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- API Qwen3.5-Omni disponibile — tweet principale
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- Connettori TurboTax/Aiwyn Tax per Claude
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator