Cerca

Copilot CLI Remote Control, MiniMax M2.7, Qwen3.5-Omni API

Copilot CLI Remote Control, MiniMax M2.7, Qwen3.5-Omni API

Il 13 aprile 2026, GitHub lancia la funzionalità di controllo remoto (remote control) per le sessioni Copilot CLI, consentendo di pilotare un terminale dal web o da un telefono tramite un semplice QR code. MiniMax pubblica M2.7, un modello agent disponibile su ModelScope con un ecosistema cloud operativo fin dal primo giorno. Alibaba rende disponibile l’API Qwen3.5-Omni per gli sviluppatori di tutto il mondo, e Google DeepMind annuncia che Gemini 3.1 Flash Live (Thinking) occupa ormai il primo posto della classifica τ-Voice per gli agenti vocali.


GitHub Copilot CLI — Controllo remoto dal web e da mobile

13 aprile — GitHub lancia copilot --remote in public preview: una sessione Copilot CLI in corso può ora essere monitorata e controllata da GitHub.com o dall’app GitHub Mobile, senza accesso diretto alla macchina.

Il funzionamento è semplice: all’avvio di una sessione remota, il CLI mostra un link e un QR code. Navigando verso questo link da un browser o da un telefono, l’utente accede all’interfaccia della sessione in corso. La sincronizzazione è bidirezionale: le azioni eseguite sul web o da mobile si riflettono nel terminale, e viceversa.

FunzionalitàDettaglio
Avviocopilot --remote o /remote in una sessione esistente
AccessoLink + QR code mostrato dal CLI
ApplicazioniGitHub.com + GitHub Mobile (iOS TestFlight, beta Android Google Play)
SincronizzazioneBidirezionale in tempo reale
PrivacySessione privata, visibile solo all’utente che l’ha avviata
Mantenimento sessioneComando /keep-alive per evitare la sospensione durante attività lunghe

Tutte le normali funzionalità del CLI restano accessibili da remoto: controllo in corso di sessione (steering), revisione e modifica dei piani, cambio di modalità (plan / interactive / autopilot), approvazione o rifiuto dei permessi, risposta alle domande ask_user.

Nota per le aziende: gli utenti Copilot Business o Enterprise hanno bisogno che un amministratore attivi le politiche di controllo remoto e del CLI prima dell’utilizzo.

🔗 Annuncio GitHub Changelog


MiniMax M2.7 — Modello agent open-source con ecosistema cloud giorno 0

12 aprile — MiniMax pubblica M2.7, un LLM con architettura agent disponibile su ModelScope, con un’integrazione vLLM operativa fin dal primo giorno.

Le prestazioni pubblicate collocano M2.7 al livello dei migliori modelli di coding disponibili:

BenchmarkPunteggio M2.7
SWE-Pro56,22% (uguale a GPT-5.3-Codex)
Terminal Bench 257,0%

Il modello è progettato per l’orchestrazione multi-agent (Agent Teams), il coding avanzato e l’automazione di attività in linea di comando. È accessibile immediatamente tramite Together AI (serverless e dedicato) e Fireworks AI.

Da notare: MiniMax ha precisato dopo la pubblicazione che M2.7 non è strettamente open-source nel senso della licenza: il modello è stato ripubblicato con condizioni d’uso modificate.

🔗 Annuncio open-source su ModelScope 🔗 Supporto vLLM giorno 0 🔗 Disponibilità Together AI


Qwen3.5-Omni API — Disponibilità internazionale

13 aprile — Tongyi Lab (Alibaba) annuncia la disponibilità internazionale dell’API Qwen3.5-Omni tramite Alibaba Cloud Model Studio. Il modello qwen3.5-omni-plus è accessibile immediatamente con una chiave API.

Presentato in un articolo di ricerca il 29 marzo 2026, Qwen3.5-Omni è un modello omnimodale nativo: tratta testo, immagini, audio e video in una sola inferenza, senza pipeline multi-step. Dispone di due modalità di funzionamento — Thinker (ragionamento) e Talker (conversazione vocale) — tramite un’architettura ibrida.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇮🇹 L’API Qwen3.5-Omni è ora ufficialmente disponibile, pronta a trasformare il modo in cui trattate contenuti video.@Ali_TongyiLab su X

🔗 Thread di annuncio 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — N°1 della classifica τ-Voice

13 aprile — Tulsee Doshi (Product Manager Google DeepMind) annuncia che Gemini 3.1 Flash Live con la modalità Thinking attivata ha conquistato la prima posizione della τ-Voice Leaderboard di Sierra Platform.

Questa classifica misura le prestazioni dei modelli per la costruzione di agenti vocali in tempo reale: comprensione del parlato, ragionamento multi-turno ed esecuzione di azioni in scenari vicini alla produzione. Gemini 3.1 Flash Live era stato lanciato il 26 marzo 2026; questo risultato convalida le sue capacità per gli sviluppatori che costruiscono applicazioni vocali.

Il modello è disponibile tramite l’API Gemini Live in Google AI Studio.

🔗 Annuncio su X 🔗 τ-Voice Leaderboard


Connettori TurboTax e Aiwyn Tax per Claude

12 aprile — Henry Shi (Anthropic) annuncia due nuovi connettori per Claude: TurboTax e Aiwyn Tax (precedentemente Column Tax), lanciati a pochi giorni dalla scadenza americana del 15 aprile per la dichiarazione dei redditi.

Una volta connesso, Claude può stimare il rimborso o l’importo dovuto, spiegare i moduli fiscali e guidare l’utente nel processo di dichiarazione. Questi connettori sono destinati agli utenti statunitensi con un abbonamento Claude.

🔗 Annuncio di Henry Shi su X


Cosa significa

La funzionalità copilot --remote di GitHub è la più strutturante della giornata: apre un nuovo modo d’uso per le lunghe attività CLI — avviare una sessione da una postazione di lavoro, poi monitorarla o controllarla da qualsiasi dispositivo. È una risposta diretta ai casi d’uso di agent autonomi che eseguono attività per ore.

Sul fronte dei modelli, MiniMax M2.7 e Qwen3.5-Omni illustrano due dinamiche diverse: M2.7 si rivolge agli sviluppatori che distribuiscono agent di coding (con un’integrazione vLLM dal primo giorno, a differenza della maggior parte dei modelli che arrivano tardi in questo ecosistema); Qwen3.5-Omni punta sulla multimodalità nativa, con il video come argomento centrale.

Il risultato di Gemini 3.1 Flash Live sulla τ-Voice Leaderboard conferma che Google investe seriamente nel segmento degli agent vocali in produzione — un mercato ancora poco strutturato ma in crescita.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5.4-mini. Per ulteriori informazioni sul processo di traduzione, consulta https://gitlab.com/jls42/ai-powered-markdown-translator