Sök

GitHub Copilot CLI enterprise-plugins, VS Code BYOK + /chronicle, Claude Code 60+ buggfixar

GitHub Copilot CLI enterprise-plugins, VS Code BYOK + /chronicle, Claude Code 60+ buggfixar

ai-powered-markdown-translator

Artikel översatt från fr till sv med gpt-5.4-mini.

Visa projekt på GitHub ↗

GitHub Copilot tar ännu ett steg i enterprise-användningen med centraliserad hantering av CLI-plugins, medan aprils uppdateringar för VS Code för med sig BYOK, semantisk sökning i alla arbetsytor och ett sökbart chathistorikarkiv. Claude Code fortsätter sitt intensiva tempo med 60 ytterligare fixar den här veckan. Samtidigt öppnar Luma AI API:t för sin Uni-1.1-modell, som toppar Human Preference Elo-rankningen, och Qwen3.6-35B-A3B gör +8.2 poäng på benchmarken ODinW.


GitHub Copilot CLI — Plugins hanterade av företaget i offentlig förhandsversion

6 maj — GitHub lanserar i offentlig förhandsversion centraliserad hantering av Copilot CLI-plugins för företag. Administratörer kan nu definiera och distribuera plugins (anpassade agenter, färdigheter, hooks, MCP-konfigurationer) till alla användare i organisationen från en enda settings.json-fil.

Så fungerar det i praktiken:

ParameterVärde
Konfigurationsfil.github-private/.github/copilot/settings.json
Krävda planerCopilot Business, Copilot Enterprise
StatusOffentlig förhandsversion (Public Preview)
InstallationAutomatisk vid autentisering

Copilot CLI hämtar och tillämpar dessa inställningar för alla licensierade användare. Plugins kan inkludera anpassade agenter, workflow-hooks och MCP-konfigurationer på organisationsnivå. Om företaget redan hade konfigurerat en källa för anpassade agenter via .github-private, återanvänds samma repository. Administratörer kan verifiera konfigurationen från sidan Agents i enterprise-inställningarna, under AI controls.

Den här funktionen fyller ett viktigt gap mellan individuell användning av Copilot CLI och utrullning i hela en organisation: hittills behövde varje utvecklare konfigurera sina plugins manuellt.

🔗 GitHub Changelog-meddelande


GitHub Copilot i VS Code — Uppdateringar april 2026 (v1.116–v1.119)

6 maj — GitHub publicerar sammanfattningen av Copilot-uppdateringarna för VS Code som täcker versionerna v1.116 till v1.119 (april till början av maj 2026), efter att VS Code gick över till veckovisa stabila releaser.

Smartare kontext:

FunktionStatus
Semantisk sökning (alla arbetsytor)Tillgänglig
githubTextSearch (grep över GitHub-repositories)Tillgänglig
/chronicle (lokal chathistorik)Experimentell
Prompt-cache + fördröjd inläsning av verktygTillgänglig

Semantisk sökning är nu aktiv i alla arbetsytor, inte bara indexerade repositories. Verktyget githubTextSearch möjliggör grep-liknande frågor över hela GitHub-repositories och organisationer. Det experimentella kommandot /chronicle skapar en lokal databas över chathistorik för att hitta tidigare sessioner, filer som berörts och refererade PR:er.

Förbättrad agentupplevelse:

FunktionStatus
BYOK (Business + Enterprise)Tillgänglig
Integrated BrowserTillgänglig
Fjärrövervakning av CLIExperimentell
Åtkomst till öppna terminalerTillgänglig

BYOK (Bring Your Own Key) gör att Copilot Business- och Enterprise-organisationer kan ansluta sina egna API-nycklar direkt i VS Code: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama och Foundry Local stöds. Agenter kan läsa och skriva i öppna terminaler (REPL:er, interaktiva skript). Funktionen Integrated Browser gör det möjligt att dela webbläsarflikar i realtid som kontext för agenter. Copilot CLI-sessioner kan styras på distans från GitHub.com eller mobilappen (experimentellt).

🔗 GitHub Changelog-meddelande


Claude Code — 60+ tillförlitlighetsfixar (veckan 8 maj)

8 maj — Claude Code-teamet publicerar en tråd som listar mer än 60 fixar som släppts den här veckan, utöver de 50+ från veckan innan.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇸🇪 “Förra veckan levererade vi 50+ tillförlitlighetsfixar för Claude Code. Den här veckan 60+ till. Smidigare långa sessioner, en effektivare agentloop, autentisering som fungerar i fler miljöer och terminalfixar.”@ClaudeDevs på X

OmrådeNoterbara fixar
Stabilitetclaude -p accepterar >10 MB via stdin, återupptagning efter vila
AgentloopPrompt cache för underagenter, opt-in-cache i 1 timme via ENABLE_PROMPT_CACHING_1H
AutentiseringKlistra in OAuth-kod direkt i terminalen (WSL, SSH, containers)
MCPAutomatisk återanslutning + tydlig status i /mcp, fix för begränsat minne
TerminalrenderingFix för scrollning i Cursor, VS Code, JetBrains; fix för japanska tecken

För att tillämpa dessa fixar: claude update.

🔗 Claude Code Changelog


GitHub Copilot — Avveckling av Grok Code Fast 1 (15 maj)

8 maj — GitHub tillkännager avvecklingen av Grok Code Fast 1 i alla Copilot-miljöer den 15 maj 2026, en vecka efter tillkännagivandet. Orsaken: modellen avvecklas själv av xAI.

ModellDatum för avvecklingFöreslaget alternativ
Grok Code Fast 115 maj 2026GPT-5 mini, Claude Haiku 4.5

Copilot Enterprise-administratörer bör kontrollera att alternativa modeller är aktiverade i sina modellpolicys före detta datum. Övergången efter avvecklingen sker automatiskt — ingen ytterligare åtgärd krävs för att ta bort modellen.

🔗 Meddelande om avveckling


Google Health App — Fitbit blir Google Health med Gemini-coach

8 maj — Fitbit-appen utvecklas och blir den nya appen Google Health. Den här omarbetningen behåller alla befintliga Fitbit-funktioner och integrerar en personlig hälsocoach driven av Gemini. Coachen analyserar data från bärbara enheter (wearables), föredragna hälsoappar och medicinska journaler för att ge proaktiva hälsoråd anpassade för varje användare.

Appen är kompatibel med Fitbit- och Pixel Watch-klockor och integreras med hundratals appar och enheter från tredje part.

🔗 @GoogleAI-meddelande


Gemini API — Multimodal File Search, Webhooks, Gemma 4 MTP 3x snabbare

8 maj — Den veckovisa sammanfattningen från @GoogleAI listar tre utvecklarreleaser från veckan, 11 dagar före Google I/O:

FunktionDatumEffekt
Multimodal File Search5 majVerifierbar multimodal RAG med sidcitat
Gemini API-webhooks4 majErsätter polling med push-notiser
Gemma 4 MTP drafters5 majUpp till 3x snabbare inferens

Verktyget File Search stöder nu anpassade metadata och sidcitat, vilket gör det möjligt att bygga verifierbara RAG-system (Retrieval-Augmented Generation) ovanpå multimodala källor. Webhooks eliminerar behovet av kontinuerlig fråga för långa uppgifter. MTP-acceleratorerna (Multi-Token Prediction) för Gemma 4 ger upp till 3x högre inferenshastighet i distributionsarbetsflöden.

🔗 Google Developers-bloggen


Luma AI Uni-1.1 API — Offentlig öppning

5 maj — Luma AI öppnar sitt Uni-1.1-API och gör sin modell för enhetlig intelligens (Unified Intelligence model) tillgänglig för utvecklare via ett REST-gränssnitt. Modellen kombinerar resonemang och bildgenerering i en enda arkitektur — till skillnad från standardmetoden som sätter ihop flera separata modeller vid inferens.

MetrikVärde
Human Preference Elo#1 (global generering, stil, referensstyrning)
Image ArenaTopp 3 (Text-to-Image + Image Edit)
RISEBench spatialt resonemangTopplistan
Referenser per förfråganUpp till 9 bilder
Genereringstid~31 sekunder per bild
ProduktionspartnersEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

API:t erbjuder två huvudsakliga endpoints: Generate Image (text-till-bild med upp till 9 referensbilder för att bevara identitet, komposition eller stil) och Modify Image (redigering med naturligt språk). Python- och JavaScript/TypeScript-SDK:er finns tillgängliga. Två prisnivåer: Build (användningsbaserad debitering) och Scale (högre hastighetsgränser, dedikerad support).

🔗 Luma AI-meddelande


NVIDIA + SakanaAI — ICML 2026-paper om TwELL sparse-kernels

8 maj — NVIDIA AI och SakanaAI Labs publicerar tillsammans ett forskningspaper accepterat till ICML 2026, som handlar om sparse transformer-kernels och dataformat optimerade för körning på moderna NVIDIA-GPU:er. Projektet heter TwELL.

Grundintuitionen: den mänskliga hjärnan aktiverar bara de neuroner som behövs för en given tanke. Applicerat på språkmodeller betyder det selektiv beräkning av aktiva vikter via strukturerad sparsitet, vilket minskar beräkningsbelastningen utan att offra prestanda. Den här forskningen ligger i linje med NVIDIAs riktning mot effektivare inferens, särskilt för Mixture-of-Experts-arkitekturer (MoE). Tweeten fick 50 000 visningar och 66 reposts i ML-communityt.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 poäng på benchmarken ODinW

9 maj — Tongyi Lab (Alibaba) annonserar ett genombrott inom instruktionsstyrd objektdetektering (Instruction-Oriented Object Detection) med modellen Qwen3.6-35B-A3B. Till skillnad från klassisk detektering, som bara lokaliserar visuella element, syftar den här metoden till att semantiskt förstå instruktioner på naturligt språk för att styra detekteringen.

MetrikQwen3.5Qwen3.6-35B-A3BVinst
ODinW score42.650.8+8.2 pts

En interaktiv demo finns tillgänglig på ModelScope.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1 200+ språk för global inkludering

9 maj — Tongyi Lab (Alibaba) publicerar en video med titeln “1,200+ Languages. One Vision for AI Inclusion”, och ställer frågan om rättvis tillgång till AI för språkgrupper som är underrepresenterade. Initiativet siktar på täckning för mer än 1 200 språk — långt bortom de 92 språken i Qwen-MT som annonserades i juli 2025 — som svar på klyftan mellan global teknik och de samhällen den är tänkt att tjäna.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Migreringssida från ChatGPT till Codex

8 maj — OpenAI publicerar en minimalistisk tweet som pekar på chatgpt.com/codex/switch-to-codex/, med det enda budskapet “Just gonna leave this here.” Tweeten genererar 517 000 visningar. Den här teasern passar in i strategin att positionera Codex som plattformens centrala utvecklingsassistent i ChatGPT. Målsidan var inte tillgänglig vid scanningen.

🔗 Tweet @OpenAI


Kortnytt

  • OpenAI supply.openai.com — @OpenAIDevs publicerar en kryptisk tweet: “Available until the goblins notice.” 🧌, med en länk till supply.openai.com. Sidan var inte tillgänglig vid scanningen (274 000 visningar). 🔗 Tweet

Vad det betyder

Enterprise blir den centrala slagplatsen för Copilot. GitHub lägger grunden för en Copilot-utrullning som hanteras på organisationsnivå: centraliserade plugins via .github-private, BYOK för att ansluta egna modeller, fjärrövervakning av CLI och Integrated Browser som live-kontext för agenter. De här funktionerna svarar på ett verkligt behov hos IT-chefer som vill standardisera AI-verktyg utan att låta varje utvecklare konfigurera sin egen stack. Den samtidiga avvecklingen av Grok Code Fast 1 (ersatt av GPT-5 mini eller Claude Haiku 4.5) visar också hur snabbt tredjepartsmodeller integreras och sedan tas bort i det här ekosystemet.

Claude Code satsar på tillförlitlighet. 110+ fixar under två på varandra följande veckor kring specifika ämnen — långa sessioner, OAuth-autentisering i begränsade miljöer, MCP, terminalrendering — signalerar att Anthropic-teamet har identifierat tillförlitlighet som det största hindret för produktionsadoption. Fixarna för WSL, SSH och containers riktar sig uttryckligen mot enterprise-miljöer där webbläsaren inte kan nå localhost. Opt-in för en timmes prompt-cache på underagenterna är också en signal: multiagent-arbetsflöden med lång varaktighet håller på att bli ett prioriterat användningsfall.

Luma AI och det enhetliga API:t: en arkitektonisk satsning. Där de flesta bildgenereringspipelines sätter ihop flera specialiserade modeller, integrerar Uni-1 resonemang och generering i en enda arkitektur. Möjligheten att använda upp till 9 referensbilder per förfrågan — och resultaten #1 i Human Preference Elo — antyder att detta enhetliga angreppssätt ger en stilkonsekvens som är svår att nå med sammansatta pipelines. De 8 partners som redan är i produktion bekräftar att API:t är redo för verkliga arbetsbelastningar.

Alibaba/Qwen riktar in sig på multimodalt och flerspråkighet. Vinsten på +8.2 poäng på ODinW för Qwen3.6-35B-A3B i språkstyrd objektdetektering, tillsammans med ambitionen att täcka 1 200+ språk, visar en Tongyi Lab-strategi som fokuserar på användningsfall med hög samhällseffekt: industriell vision som kan nås via textinstruktioner, och AI som kan användas av språkgrupper som i dag inte betjänas. Dessa två spår möts i en gemensam logik om utökad tillgänglighet.


Källor