Sök

Copilot CLI fjärrstyrning, MiniMax M2.7, Qwen3.5-Omni API

Den 13 april 2026 lanserar GitHub funktionen för fjärrstyrning (remote control) för Copilot CLI-sessioner, vilket gör det möjligt att styra en terminal från webben eller en telefon via en enkel QR-kod. MiniMax släpper M2.7, en agentmodell tillgänglig på ModelScope med ett molnekosystem i drift redan första dagen. Alibaba gör Qwen3.5-Omni API tillgängligt för utvecklare världen över, och Google DeepMind meddelar att Gemini 3.1 Flash Live (Thinking) nu ligger på förstaplats i τ-Voice-rankningen för röstagenter.


GitHub Copilot CLI — Fjärrstyrning från webben och mobilen

13 april — GitHub lanserar copilot --remote i public preview: en pågående Copilot CLI-session kan nu övervakas och styras från GitHub.com eller från GitHub Mobile-appen, utan direkt åtkomst till maskinen.

Funktionen är enkel: när en fjärrsession startas visar CLI:t en länk och en QR-kod. Genom att gå till länken från en webbläsare eller telefon får användaren tillgång till gränssnittet för den pågående sessionen. Synkroniseringen är dubbelriktad — åtgärder som utförs på webben eller mobilen återspeglas i terminalen, och vice versa.

FunktionDetalj
Startcopilot --remote eller /remote i en befintlig session
ÅtkomstLänk + QR-kod som visas av CLI:t
ApparGitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta)
SynkroniseringDubbelriktad i realtid
SekretessPrivat session, endast synlig för användaren som startade den
SessionshållningKommandot /keep-alive för att förhindra viloläge vid långa uppgifter

Alla vanliga CLI-funktioner är fortfarande tillgängliga på distans: styrning under pågående session (steering), granskning och ändring av planer, byte av läge (plan / interaktiv / autopilot), godkännande eller avslag av behörigheter, svar på frågor ask_user.

Obs för företag: användare av Copilot Business eller Enterprise behöver att en administratör aktiverar policys för fjärrstyrning och CLI innan användning.

🔗 GitHub Changelog-annonsering


MiniMax M2.7 — Öppen källkods-agentmodell med molnekosystem dag 0

12 april — MiniMax släpper M2.7, en LLM med agentarkitektur tillgänglig på ModelScope, med en vLLM-integration i drift redan första dagen.

De publicerade prestandasiffrorna placerar M2.7 på nivå med de bästa kodningsmodellerna som finns tillgängliga:

BenchmarkM2.7-poäng
SWE-Pro56,22% (lika med GPT-5.3-Codex)
Terminal Bench 257,0%

Modellen är utformad för orkestrering av flera agenter (Agent Teams), avancerad kodning och automatisering av kommandoradsuppgifter. Den är omedelbart tillgänglig via Together AI (serverless och dedikerad) samt Fireworks AI.

Att notera: MiniMax förtydligade efter publiceringen att M2.7 inte strikt är öppen källkod i licensens mening — modellen publicerades på nytt med ändrade användningsvillkor.

🔗 Öppen källkods-annonsering på ModelScope 🔗 vLLM-stöd dag 0 🔗 Tillgänglighet via Together AI


Qwen3.5-Omni API — Internationell tillgänglighet

13 april — Tongyi Lab (Alibaba) meddelar att Qwen3.5-Omni API nu är internationellt tillgängligt via Alibaba Cloud Model Studio. Modellen qwen3.5-omni-plus är omedelbart tillgänglig med en API-nyckel.

Qwen3.5-Omni presenterades i en forskningsartikel den 29 mars 2026 och är en inbyggt omnimodal modell: den hanterar text, bilder, ljud och video i en enda inferens, utan en fler-stegs pipeline. Den har två arbetslägen — Thinker (resonemang) och Talker (röstkonversation) — via en hybridarkitektur.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇸🇪 Qwen3.5-Omni API är nu officiellt tillgängligt, redo att förändra sättet du hanterar videoinnehåll på.@Ali_TongyiLab på X

🔗 Annonseringstråd 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — Nr 1 i τ-Voice-rankningen

13 april — Tulsee Doshi (Product Manager Google DeepMind) meddelar att Gemini 3.1 Flash Live med Thinking-läget aktiverat har tagit förstaplatsen i τ-Voice Leaderboard från Sierra Platform.

Rankningen mäter modellernas prestanda för att bygga röstagenter i realtid: talförståelse, resonemang över flera turer och utförande av åtgärder i scenarier nära produktion. Gemini 3.1 Flash Live lanserades den 26 mars 2026; detta resultat bekräftar dess kapacitet för utvecklare som bygger röstapplikationer.

Modellen är tillgänglig via Gemini Live API i Google AI Studio.

🔗 Annonsering på X 🔗 τ-Voice Leaderboard


TurboTax- och Aiwyn Tax-kopplingar för Claude

12 april — Henry Shi (Anthropic) meddelar två nya kopplingar för Claude: TurboTax och Aiwyn Tax (tidigare Column Tax), lanserade några dagar före den amerikanska skattedeklarationens deadline den 15 april.

När den är ansluten kan Claude uppskatta återbäringen eller beloppet som ska betalas, förklara skatteformulär och vägleda användaren genom deklarationsprocessen. Dessa kopplingar riktar sig till amerikanska användare med en Claude-prenumeration.

🔗 Henry Shis annonsering på X


Vad det betyder

GitHubs funktion copilot --remote är dagens mest betydelsefulla nyhet: den öppnar ett nytt användningssätt för långa CLI-uppgifter — starta en session från en arbetsstation och övervaka eller styra den från vilken enhet som helst. Det är ett direkt svar på användningsfall med autonoma agenter som körs i timmar.

När det gäller modeller visar MiniMax M2.7 och Qwen3.5-Omni två olika dynamiker: M2.7 riktar sig till utvecklare som distribuerar kodningsagenter (med vLLM-integration redan första dagen, till skillnad från de flesta modeller som kommer sent till det ekosystemet); Qwen3.5-Omni satsar på inbyggd multimodalitet, med video som sitt centrala argument.

Gemini 3.1 Flash Lives resultat i τ-Voice Leaderboard bekräftar att Google satsar seriöst på segmentet för röstagenter i produktion — en marknad som fortfarande är relativt outvecklad men växande.


Källor

Detta dokument har översatts från fr-versionen till språket sv med hjälp av modellen gpt-5.4-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator