Den 13 april 2026 lanserar GitHub funktionen för fjärrstyrning (remote control) för Copilot CLI-sessioner, vilket gör det möjligt att styra en terminal från webben eller en telefon via en enkel QR-kod. MiniMax släpper M2.7, en agentmodell tillgänglig på ModelScope med ett molnekosystem i drift redan första dagen. Alibaba gör Qwen3.5-Omni API tillgängligt för utvecklare världen över, och Google DeepMind meddelar att Gemini 3.1 Flash Live (Thinking) nu ligger på förstaplats i τ-Voice-rankningen för röstagenter.
GitHub Copilot CLI — Fjärrstyrning från webben och mobilen
13 april — GitHub lanserar copilot --remote i public preview: en pågående Copilot CLI-session kan nu övervakas och styras från GitHub.com eller från GitHub Mobile-appen, utan direkt åtkomst till maskinen.
Funktionen är enkel: när en fjärrsession startas visar CLI:t en länk och en QR-kod. Genom att gå till länken från en webbläsare eller telefon får användaren tillgång till gränssnittet för den pågående sessionen. Synkroniseringen är dubbelriktad — åtgärder som utförs på webben eller mobilen återspeglas i terminalen, och vice versa.
| Funktion | Detalj |
|---|---|
| Start | copilot --remote eller /remote i en befintlig session |
| Åtkomst | Länk + QR-kod som visas av CLI:t |
| Appar | GitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta) |
| Synkronisering | Dubbelriktad i realtid |
| Sekretess | Privat session, endast synlig för användaren som startade den |
| Sessionshållning | Kommandot /keep-alive för att förhindra viloläge vid långa uppgifter |
Alla vanliga CLI-funktioner är fortfarande tillgängliga på distans: styrning under pågående session (steering), granskning och ändring av planer, byte av läge (plan / interaktiv / autopilot), godkännande eller avslag av behörigheter, svar på frågor ask_user.
Obs för företag: användare av Copilot Business eller Enterprise behöver att en administratör aktiverar policys för fjärrstyrning och CLI innan användning.
🔗 GitHub Changelog-annonsering
MiniMax M2.7 — Öppen källkods-agentmodell med molnekosystem dag 0
12 april — MiniMax släpper M2.7, en LLM med agentarkitektur tillgänglig på ModelScope, med en vLLM-integration i drift redan första dagen.
De publicerade prestandasiffrorna placerar M2.7 på nivå med de bästa kodningsmodellerna som finns tillgängliga:
| Benchmark | M2.7-poäng |
|---|---|
| SWE-Pro | 56,22% (lika med GPT-5.3-Codex) |
| Terminal Bench 2 | 57,0% |
Modellen är utformad för orkestrering av flera agenter (Agent Teams), avancerad kodning och automatisering av kommandoradsuppgifter. Den är omedelbart tillgänglig via Together AI (serverless och dedikerad) samt Fireworks AI.
Att notera: MiniMax förtydligade efter publiceringen att M2.7 inte strikt är öppen källkod i licensens mening — modellen publicerades på nytt med ändrade användningsvillkor.
🔗 Öppen källkods-annonsering på ModelScope 🔗 vLLM-stöd dag 0 🔗 Tillgänglighet via Together AI
Qwen3.5-Omni API — Internationell tillgänglighet
13 april — Tongyi Lab (Alibaba) meddelar att Qwen3.5-Omni API nu är internationellt tillgängligt via Alibaba Cloud Model Studio. Modellen qwen3.5-omni-plus är omedelbart tillgänglig med en API-nyckel.
Qwen3.5-Omni presenterades i en forskningsartikel den 29 mars 2026 och är en inbyggt omnimodal modell: den hanterar text, bilder, ljud och video i en enda inferens, utan en fler-stegs pipeline. Den har två arbetslägen — Thinker (resonemang) och Talker (röstkonversation) — via en hybridarkitektur.
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇸🇪 Qwen3.5-Omni API är nu officiellt tillgängligt, redo att förändra sättet du hanterar videoinnehåll på. — @Ali_TongyiLab på X
🔗 Annonseringstråd 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — Nr 1 i τ-Voice-rankningen
13 april — Tulsee Doshi (Product Manager Google DeepMind) meddelar att Gemini 3.1 Flash Live med Thinking-läget aktiverat har tagit förstaplatsen i τ-Voice Leaderboard från Sierra Platform.
Rankningen mäter modellernas prestanda för att bygga röstagenter i realtid: talförståelse, resonemang över flera turer och utförande av åtgärder i scenarier nära produktion. Gemini 3.1 Flash Live lanserades den 26 mars 2026; detta resultat bekräftar dess kapacitet för utvecklare som bygger röstapplikationer.
Modellen är tillgänglig via Gemini Live API i Google AI Studio.
🔗 Annonsering på X 🔗 τ-Voice Leaderboard
TurboTax- och Aiwyn Tax-kopplingar för Claude
12 april — Henry Shi (Anthropic) meddelar två nya kopplingar för Claude: TurboTax och Aiwyn Tax (tidigare Column Tax), lanserade några dagar före den amerikanska skattedeklarationens deadline den 15 april.
När den är ansluten kan Claude uppskatta återbäringen eller beloppet som ska betalas, förklara skatteformulär och vägleda användaren genom deklarationsprocessen. Dessa kopplingar riktar sig till amerikanska användare med en Claude-prenumeration.
Vad det betyder
GitHubs funktion copilot --remote är dagens mest betydelsefulla nyhet: den öppnar ett nytt användningssätt för långa CLI-uppgifter — starta en session från en arbetsstation och övervaka eller styra den från vilken enhet som helst. Det är ett direkt svar på användningsfall med autonoma agenter som körs i timmar.
När det gäller modeller visar MiniMax M2.7 och Qwen3.5-Omni två olika dynamiker: M2.7 riktar sig till utvecklare som distribuerar kodningsagenter (med vLLM-integration redan första dagen, till skillnad från de flesta modeller som kommer sent till det ekosystemet); Qwen3.5-Omni satsar på inbyggd multimodalitet, med video som sitt centrala argument.
Gemini 3.1 Flash Lives resultat i τ-Voice Leaderboard bekräftar att Google satsar seriöst på segmentet för röstagenter i produktion — en marknad som fortfarande är relativt outvecklad men växande.
Källor
- GitHub Changelog — Copilot CLI fjärrstyrning (13 april)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — vLLM-stöd
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API tillgängligt — huvudtweet
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- TurboTax/Aiwyn Tax-kopplingar för Claude
Detta dokument har översatts från fr-versionen till språket sv med hjälp av modellen gpt-5.4-mini. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator