Rechercher

Copilot CLI Remote Control, MiniMax M2.7, Qwen3.5-Omni API

Le 13 avril 2026, GitHub lance la fonctionnalité de contrôle à distance (remote control) pour les sessions Copilot CLI, permettant de piloter un terminal depuis le web ou un téléphone via un simple QR code. MiniMax publie M2.7, un modèle agent disponible sur ModelScope avec un écosystème cloud opérationnel dès le premier jour. Alibaba met à disposition l’API Qwen3.5-Omni pour les développeurs du monde entier, et Google DeepMind annonce que Gemini 3.1 Flash Live (Thinking) occupe désormais la première place du classement τ-Voice pour les agents vocaux.


GitHub Copilot CLI — Contrôle à distance depuis le web et mobile

13 avril — GitHub lance copilot --remote en public preview : une session Copilot CLI en cours peut désormais être surveillée et pilotée depuis GitHub.com ou depuis l’application GitHub Mobile, sans accès direct à la machine.

Le fonctionnement est simple : au démarrage d’une session à distance, le CLI affiche un lien et un QR code. En naviguant vers ce lien depuis un navigateur ou un téléphone, l’utilisateur accède à l’interface de la session en cours. La synchronisation est bidirectionnelle — les actions effectuées sur le web ou mobile se répercutent dans le terminal, et vice versa.

FonctionnalitéDétail
Démarragecopilot --remote ou /remote dans une session existante
AccèsLien + QR code affiché par le CLI
ApplicationsGitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta)
SynchronisationBidirectionnelle en temps réel
ConfidentialitéSession privée, visible uniquement par l’utilisateur qui l’a démarrée
Maintien de sessionCommande /keep-alive pour éviter la mise en veille lors de tâches longues

Toutes les fonctionnalités CLI habituelles restent accessibles à distance : pilotage en cours de session (steering), révision et modification des plans, changement de mode (plan / interactif / autopilot), approbation ou refus de permissions, réponse aux questions ask_user.

Note pour les entreprises : les utilisateurs Copilot Business ou Enterprise ont besoin qu’un administrateur active les politiques de contrôle à distance et de CLI avant utilisation.

🔗 Annonce GitHub Changelog


MiniMax M2.7 — Modèle agent open-source avec écosystème cloud jour-0

12 avril — MiniMax publie M2.7, un LLM à architecture agent disponible sur ModelScope, avec une intégration vLLM opérationnelle dès le premier jour.

Les performances publiées placent M2.7 au niveau des meilleurs modèles de codage disponibles :

BenchmarkScore M2.7
SWE-Pro56,22% (égal GPT-5.3-Codex)
Terminal Bench 257,0%

Le modèle est conçu pour l’orchestration multi-agents (Agent Teams), le codage avancé et l’automatisation de tâches en ligne de commande. Il est accessible immédiatement via Together AI (serverless et dédié) et Fireworks AI.

À noter : MiniMax a précisé après la publication que M2.7 n’est pas strictement open-source au sens de la licence — le modèle a été republié avec des conditions d’utilisation modifiées.

🔗 Annonce open-source sur ModelScope 🔗 Support vLLM jour-0 🔗 Disponibilité Together AI


Qwen3.5-Omni API — Disponibilité internationale

13 avril — Tongyi Lab (Alibaba) annonce la disponibilité internationale de l’API Qwen3.5-Omni via Alibaba Cloud Model Studio. Le modèle qwen3.5-omni-plus est accessible immédiatement avec une clé API.

Présenté dans un article de recherche le 29 mars 2026, Qwen3.5-Omni est un modèle omnimodal natif : il traite texte, images, audio et vidéo en une seule inférence, sans pipeline multi-étapes. Il dispose de deux modes de fonctionnement — Thinker (raisonnement) et Talker (conversation vocale) — via une architecture hybride.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇫🇷 L’API Qwen3.5-Omni est maintenant officiellement disponible, prête à transformer la façon dont vous traitez du contenu vidéo.@Ali_TongyiLab sur X

🔗 Thread d’annonce 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — N°1 du classement τ-Voice

13 avril — Tulsee Doshi (Product Manager Google DeepMind) annonce que Gemini 3.1 Flash Live avec le mode Thinking activé a pris la première place du τ-Voice Leaderboard de Sierra Platform.

Ce classement mesure la performance des modèles pour la construction d’agents vocaux en temps réel : compréhension de la parole, raisonnement multi-tour et exécution d’actions dans des scénarios proches de la production. Gemini 3.1 Flash Live avait été lancé le 26 mars 2026 ; ce résultat valide ses capacités pour les développeurs qui construisent des applications vocales.

Le modèle est disponible via l’API Gemini Live dans Google AI Studio.

🔗 Annonce sur X 🔗 τ-Voice Leaderboard


Connecteurs TurboTax et Aiwyn Tax pour Claude

12 avril — Henry Shi (Anthropic) annonce deux nouveaux connecteurs pour Claude : TurboTax et Aiwyn Tax (anciennement Column Tax), lancés à quelques jours de la date limite de déclaration fiscale américaine du 15 avril.

Une fois connecté, Claude peut estimer le remboursement ou le montant dû, expliquer les formulaires fiscaux et guider l’utilisateur dans le processus de déclaration. Ces connecteurs s’adressent aux utilisateurs américains disposant d’un abonnement Claude.

🔗 Annonce Henry Shi sur X


Ce que ça signifie

La fonctionnalité copilot --remote de GitHub est la plus structurante de la journée : elle ouvre un nouveau mode d’usage pour les longues tâches CLI — lancer une session depuis un poste de travail, puis la surveiller ou la piloter depuis n’importe quel appareil. C’est une réponse directe aux cas d’usage d’agents autonomes qui s’exécutent pendant des heures.

Sur le plan des modèles, MiniMax M2.7 et Qwen3.5-Omni illustrent deux dynamiques différentes : M2.7 cible les développeurs qui déploient des agents de codage (avec une intégration vLLM dès le premier jour, contrairement à la plupart des modèles qui arrivent tardivement dans cet écosystème) ; Qwen3.5-Omni mise sur la multimodalité native, avec la vidéo comme argument central.

Le résultat de Gemini 3.1 Flash Live sur le τ-Voice Leaderboard confirme que Google investit sérieusement dans le segment des agents vocaux en production — un marché encore peu structuré mais en croissance.


Sources