Zoeken

Copilot CLI-afstandsbediening, MiniMax M2.7, Qwen3.5-Omni API

Copilot CLI-afstandsbediening, MiniMax M2.7, Qwen3.5-Omni API

Op 13 april 2026 lanceert GitHub de functie voor afstandsbediening (remote control) voor Copilot CLI-sessies, waarmee een terminal via het web of een telefoon kan worden bestuurd met een eenvoudige QR-code. MiniMax brengt M2.7 uit, een agentmodel dat beschikbaar is op ModelScope met een cloud-ecosysteem dat al op dag één operationeel is. Alibaba stelt de Qwen3.5-Omni API beschikbaar voor ontwikkelaars over de hele wereld, en Google DeepMind kondigt aan dat Gemini 3.1 Flash Live (Thinking) nu bovenaan de τ-Voice-ranglijst voor spraakagenten staat.


GitHub Copilot CLI — Afstandsbediening via web en mobiel

13 april — GitHub lanceert copilot --remote in public preview: een lopende Copilot CLI-sessie kan voortaan worden bewaakt en bestuurd vanaf GitHub.com of vanuit de GitHub Mobile-app, zonder directe toegang tot de machine.

De werking is eenvoudig: bij het starten van een sessie op afstand toont de CLI een link en een QR-code. Door vanaf een browser of telefoon naar die link te gaan, krijgt de gebruiker toegang tot de interface van de lopende sessie. De synchronisatie is bidirectioneel — acties die op web of mobiel worden uitgevoerd, worden weerspiegeld in de terminal, en omgekeerd.

FunctieDetail
Startcopilot --remote of /remote in een bestaande sessie
ToegangLink + QR-code weergegeven door de CLI
ApplicatiesGitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta)
SynchronisatieBidirectioneel in realtime
PrivacyPrivésessie, alleen zichtbaar voor de gebruiker die haar heeft gestart
SessiebehoudCommando /keep-alive om slaapstand te voorkomen bij lange taken

Alle gebruikelijke CLI-functies blijven op afstand beschikbaar: sturen tijdens de sessie (steering), plannen beoordelen en wijzigen, modus wisselen (plan / interactief / autopilot), permissies goedkeuren of weigeren, antwoorden op ask_user-vragen.

Opmerking voor bedrijven: Copilot Business- of Enterprise-gebruikers hebben een beheerder nodig die de beleidsregels voor afstandsbediening en CLI activeert vóór gebruik.

🔗 GitHub Changelog-aankondiging


MiniMax M2.7 — Open-source agentmodel met dag-0 cloud-ecosysteem

12 april — MiniMax brengt M2.7 uit, een LLM met agentarchitectuur beschikbaar op ModelScope, met een vLLM-integratie die vanaf dag één operationeel is.

De gepubliceerde prestaties plaatsen M2.7 op het niveau van de beste beschikbare codemodellen:

BenchmarkScore M2.7
SWE-Pro56,22% (gelijk aan GPT-5.3-Codex)
Terminal Bench 257,0%

Het model is ontworpen voor multi-agentorkestratie (Agent Teams), geavanceerd coderen en automatisering van taken in de opdrachtregel. Het is direct toegankelijk via Together AI (serverless en dedicated) en Fireworks AI.

Ter info: MiniMax verduidelijkte na publicatie dat M2.7 niet strikt open-source is in de zin van de licentie — het model werd opnieuw gepubliceerd met gewijzigde gebruiksvoorwaarden.

🔗 Open-source aankondiging op ModelScope 🔗 Dag-0 vLLM-ondersteuning 🔗 Beschikbaarheid bij Together AI


Qwen3.5-Omni API — Internationale beschikbaarheid

13 april — Tongyi Lab (Alibaba) kondigt de internationale beschikbaarheid aan van de Qwen3.5-Omni API via Alibaba Cloud Model Studio. Het model qwen3.5-omni-plus is direct toegankelijk met een API-sleutel.

Qwen3.5-Omni werd gepresenteerd in een onderzoeksartikel op 29 maart 2026 en is een native omnimodaal model: het verwerkt tekst, afbeeldingen, audio en video in één enkele inferentie, zonder meerstaps-pipeline. Het beschikt over twee werkmodi — Thinker (redenering) en Talker (spraakconversatie) — via een hybride architectuur.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇳🇱 De Qwen3.5-Omni API is nu officieel beschikbaar, klaar om de manier waarop je videocontent verwerkt te veranderen.@Ali_TongyiLab op X

🔗 Aankondigingsthread 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — Nr. 1 in de τ-Voice-ranglijst

13 april — Tulsee Doshi (Product Manager Google DeepMind) kondigt aan dat Gemini 3.1 Flash Live met de Thinking-modus geactiveerd de eerste plaats heeft ingenomen in het τ-Voice Leaderboard van Sierra Platform.

Deze ranglijst meet de prestaties van modellen voor het bouwen van realtime spraakagenten: spraakbegrip, meerturn-redenering en uitvoering van acties in productienabije scenario’s. Gemini 3.1 Flash Live werd gelanceerd op 26 maart 2026; dit resultaat bevestigt zijn capaciteiten voor ontwikkelaars die spraakapplicaties bouwen.

Het model is beschikbaar via de Gemini Live API in Google AI Studio.

🔗 Aankondiging op X 🔗 τ-Voice Leaderboard


TurboTax- en Aiwyn Tax-connectors voor Claude

12 april — Henry Shi (Anthropic) kondigt twee nieuwe connectors voor Claude aan: TurboTax en Aiwyn Tax (voorheen Column Tax), gelanceerd enkele dagen voor de Amerikaanse fiscale aangiftedeadline van 15 april.

Eenmaal verbonden kan Claude de terugbetaling of het verschuldigde bedrag schatten, fiscale formulieren uitleggen en de gebruiker door het aangifteproces begeleiden. Deze connectors zijn bedoeld voor Amerikaanse gebruikers met een Claude-abonnement.

🔗 Aankondiging van Henry Shi op X


Wat dit betekent

De copilot --remote-functie van GitHub is het meest structurele nieuws van de dag: zij opent een nieuwe gebruikswijze voor lange CLI-taken — een sessie starten vanaf een werkplek, en die vervolgens vanaf elk apparaat bewaken of besturen. Het is een direct antwoord op gebruiksscenario’s van autonome agents die urenlang draaien.

Op modelniveau illustreren MiniMax M2.7 en Qwen3.5-Omni twee verschillende dynamieken: M2.7 richt zich op ontwikkelaars die coding agents uitrollen (met dag-1 vLLM-integratie, in tegenstelling tot de meeste modellen die te laat in dit ecosysteem verschijnen); Qwen3.5-Omni zet in op native multimodaliteit, met video als centraal argument.

Het resultaat van Gemini 3.1 Flash Live op het τ-Voice Leaderboard bevestigt dat Google serieus investeert in het segment van spraakagenten in productie — een nog weinig gestructureerde maar groeiende markt.


Bronnen

Dit document is vertaald van de fr-versie naar de nl-taal met behulp van het model gpt-5.4-mini. Voor meer informatie over het vertaalproces, raadpleeg https://gitlab.com/jls42/ai-powered-markdown-translator