Sök

Mistral Medium 3.5 och Vibe Remote Agents, Google TPU generation 8e, Claude for Creative Work

Mistral Medium 3.5 och Vibe Remote Agents, Google TPU generation 8e, Claude for Creative Work

Den här veckan markerar en acceleration på tre samtidiga fronter: öppna modeller (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), hårdvaruinfrastruktur (Google TPU generation 8e) och agentekosystem (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs passerar dessutom en milstolpe genom att omvandla sin AI-musikmotor till en publik plattform med monetisering.


Mistral Medium 3.5, Vibe Remote Agents och Le Chat Work Mode

29 april — Mistral AI publicerar samtidigt tre stora tillkännagivanden: modellen Mistral Medium 3.5, de fjärrstyrda agenterna (remote agents) Vibe och arbetsläget (Work Mode) i Le Chat.

Mistral Medium 3.5 i offentlig förhandsvisning

Medium 3.5 är en tät modell med 128 miljarder parametrar som förenar instruktionsefterlevnad, resonemang och kod i en enda uppsättning vikter, med ett kontextfönster på 256 000 tokens. Den kan köras lokalt på endast fyra GPU:er.

EgenskapVärde
ArkitekturTät 128B
Kontext256 000 tokens
SWE-Bench Verified77,6 %
τ³-Telecom91,4
LicensModifierad MIT (open weights)
API — inmatningstokens$1,50 / miljon
API — utmatningstokens$7,50 / miljon
Egen drift (min. GPU)4 GPU

Modellen överträffar Devstral 2 och Qwen3.5-397B-A17B på SWE-Bench Verified, vilket placerar den som referens bland kodmodeller med open weights vid lanseringen. Den är tillgänglig via Mistral API, Le Chat, Vibe, NVIDIA-terminalerna (build.nvidia.com) och NVIDIA NIM-mikrotjänsten.

Fjärrstyrda agenter (remote agents) i Vibe

Vibe-kodsessioner kan nu köras i molnet utan att behöva hållas öppna lokalt. Flera sessioner körs parallellt medan utvecklaren gör något annat. En lokal session kan “teleporteras” till molnet med sin historik och hela sitt tillstånd. När uppgiften är klar öppnar agenten automatiskt en pull request på GitHub och meddelar utvecklaren.

Vibe integreras inbyggt med GitHub (kod + PR), Linear och Jira (ärenden), Sentry (incidenter), Slack och Teams (notiser). Varje session körs i en isolerad session.

Arbetsläge (Work Mode) i Le Chat (förhandsvisning)

Ett nytt agentiskt läge för komplexa uppgifter i Le Chat: flerkällig research, dokumentsammanfattning, sortering av inkorgen, skapande av Jira-ärenden, skickande av sammanfattningar på Slack. Kopplingarna är aktiverade som standard i arbetsläge. Varje synlig åtgärd kräver ett uttryckligt godkännande för känsliga operationer.

🔗 Mistrals tillkännagivande på X


Google TPU generation 8e — TPU 8t och TPU 8i

29 april — Google presenterar sin åttonde generation av TPU-chip (Tensor Processing Unit), tillkännagiven under Google Cloud Next ‘26 veckan innan. Den här generationen består av två separata chip, vart och ett optimerat för en olika fas i AI-cykeln.

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇸🇪 Ett decennium under utveckling, chippen för den agentiska eran har anlänt. Vid @GoogleClouds Next ‘26-evenemang förra veckan presenterade vi våra TPU av åttonde generationen. TPU 8t: 3 gånger kraftfullare än föregående generation, 10 gånger snabbare dataförflyttning, 97 % produktivt resursutnyttjande, träningstid från månader till veckor. TPU 8i: tredubblat internt minne, 80 % bättre prestanda per dollar, 5 gånger lägre latens.@GoogleAI på X

TPU 8t — modellträning

FörbättringDetalj
Rå kraft3× högre än föregående generation
Datagenomströmning10× snabbare (lagring → chip)
Produktivt utnyttjande97 % av resurserna (automatisk upptäckt och omdirigering av fel)
EffektTräningstid minskad från flera månader till några veckor

TPU 8i — inferens för AI-agenter

FörbättringDetalj
Internt minneTredubblat för att hantera komplexa resonemang i flera steg
Kostnadseffektivitet+80 % prestanda per spenderad dollar
LatensMinskat med 5× tack vare en ny integrerad motor

Dessa chip är utformade för den agentiska eran: TPU 8t accelererar skapandet av modeller, TPU 8i gör det möjligt för dessa modeller att agera (boka ett flyg, hantera en kalender) i nästan realtid. Google positionerar denna dubbla arkitektur som den tekniska grunden för det kommande decenniet.


Claude for Creative Work — Blender, Autodesk Fusion, Adobe och 5 andra MCP-kopplingar

28 april — Anthropic lanserar en serie officiella MCP-kopplingar (Model Context Protocol) riktade till yrkesverksamma inom kreativa branscher, i samarbete med Blender, Autodesk, Adobe, Ableton och Splice.

VerktygAnvändning
BlenderFelsökning av 3D-scener, skapande av verktyg, batchändringar på alla objekt
Autodesk FusionSkapande och ändring av 3D-modeller med naturligt språk
Adobe Creative CloudFörverkligande av bilder, videor och designer via 50+ CC-verktyg
Ableton Live och PushUtforskning av produktens officiella dokumentation
SpliceSökning efter royaltyfria samples direkt från Claude
Canva AffinityAutomatisering av repetitiva produktionsuppgifter
SketchUpUtgångspunkt för 3D-modellering utifrån textbeskrivning
Resolume / TouchdesignerRealtidsstyrning med naturligt språk för VJ:s och visuella konstnärer

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇸🇪 Claude ansluter nu till de verktyg som kreativa yrkesverksamma redan använder. Med den nya Blender-kopplingen kan du felsöka en scen, skapa nya verktyg eller tillämpa batchändringar på alla objekt, direkt från Claude.@claudeai på X

Anthropic har också anslutit sig till Blender Development Fund som patrondonator och stödjer därmed utvecklingen av fri programvara. Huvudtweeten genererade mer än 10 miljoner visningar på mindre än 24 timmar (Autodesk Fusion-tweeten nådde 11 miljoner), vilket gör detta till ett av Anthropics mest virala tillkännagivanden på flera månader.

Användningsfallen som lyfts fram: inlärning av komplex programvara, utökning av verktyg med kod (skript, plugin, generativa system via Claude Code), bro mellan verktyg i en pipeline, automatisering av repetitiva uppgifter (batchbehandling, scaffolding).

🔗 Anthropic-artikel


NVIDIA Nemotron 3 Nano Omni — omnimodal open source-modell 30B

28 april — NVIDIA lanserar Nemotron 3 Nano Omni, en omnimodal open source-modell som förenar vision, ljud och språk i en enda arkitektur.

ParameterVärde
ArkitekturHybrid MoE 30B-A3B (30B totalt, 3B aktiva)
Kontext256K tokens
Modaliteter (in)Text, bilder, ljud, video, dokument, diagram, gränssnitt
Modaliteter (ut)Text
Effektivitet9× högre genomströmning än andra öppna omnimodala modeller
TillgänglighetHugging Face, OpenRouter, build.nvidia.com, 25+ partnerplattformar

Modellen utmärker sig i tre användningsfall: computer use (navigering i grafiska gränssnitt i native-upplösning 1920×1080), dokumentintelligens (tolkning av PDF:er, tabeller, diagram, skärmbilder) och bibehållande av ljud-video-kontext i ett enda resonemangsflöde.

Organisationer som Aible, H Company, Palantir, Foxconn och Oracle utvärderar modellen redan vid lanseringen. H Company integrerar den i sin computer use-agent.

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇸🇪 För att bygga användbara agenter kan man inte vänta i flera sekunder på att en modell ska tolka en skärm. Genom att bygga på Nemotron 3 Nano Omni kan våra agenter snabbt tolka skärminspelningar i full HD — något som tidigare inte var praktiskt möjligt. — Gautier Cloix, VD för H Company

Familjen Nemotron har dessutom nått 50 miljoner kumulativa nedladdningar över alla Nano/Super/Ultra-varianter på ett år.

🔗 NVIDIA-blogg


ElevenMusic — musikalisk AI-plattform (upptäckt, remix, skapande, monetisering)

29 april — ElevenLabs lanserar ElevenMusic, en musikalisk AI-plattform som kopplar samman lyssning, remix och originalskapande i ett enda system, med direkt monetisering för artister.

FunktionBeskrivning
Upptäckt4 000+ oberoende artister, kurerad katalog
RemixByta genre, tempo, omtolka ett spår
SkapandeUtifrån text, melodi eller stämning
PubliceringDistribution + monetisering via fansens engagemang

Den ekonomiska modellen inspireras av ElevenLabs Voice Library, som redan har betalat ut $11 miljoner till sina skapare. Artisterna publicerar och tjänar pengar baserat på lyssnarnas engagemang, utan något mellanhandslabel.

ElevenMusic lanseras med Eleven Album Vol. 2, en samlingsutgåva med Danger Twins och Justin Love, utformad för att upplevas och remixas på plattformen. Kevin Jonas Sr. (Jonas Group Entertainment) och Amy Stroup (Danger Twins) är bland de artistiska partnerna vid lanseringen.

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇸🇪 Fans vill känna att de är en del av musiken, låtskrivarna och artisterna. ElevenMusic ger dem en väg in och förvandlar en låt till något man kan kliva in i, inte bara lyssna på. — Kevin Jonas Sr., grundare och styrelseordförande för Jonas Group Entertainment

Plattformen finns tillgänglig på mobilapp och webben från och med den 29 april 2026.

🔗 @ElevenLabs tillkännagivande på X — 🔗 ElevenLabs blogg


GitHub Copilot code review — dubbel debitering från 1 juni 2026

27 april — GitHub meddelar att från och med 1 juni 2026 kommer varje automatiserad kodgranskning via GitHub Copilot att förbruka GitHub Actions-minuter utöver de AI Credits som redan ingår i den nya användningsbaserade modellen.

Hittills har Copilot code review endast förbrukat premium request units (premium request units, PRU). Från och med 1 juni kommer två mätare att aktiveras samtidigt för privata repositories:

MätareDetalj
IA CreditsAll användning av Copilot (inklusive code review) debiteras i AI Credits, enligt den användningsbaserade modellen
GitHub Actions-minuterFörbrukas från planens kvot för varje granskning i privat repository; extra minuter debiteras enligt standardpriserna för Actions

Denna dubbla räkning förklaras av den agentiska arkitekturen i Copilot code review: verktyget använder GitHub-hosted runners för att analysera repositoryts bredare kontext och ge mer relevanta återkopplingar.

Berörda planer: Copilot Pro, Pro+, Business, Enterprise — inklusive granskningar som initieras av användare utan licens via direktdebitering till organisationen.

Publika repositories: ingen förändring, Actions-minuter förblir gratis.

För att förbereda sig före 1 juni:

  • Kontrollera nuvarande Actions-förbrukning i faktureringsinställningarna
  • Justera utgiftstaken (spending limits) för Actions vid behov
  • Informera organisationens faktureringsansvariga

🔗 GitHub Changelog


OpenAI DevDay 2026 — San Francisco, 29 september

29 april — OpenAI tillkännager återkomsten av sitt årliga event för utvecklare: OpenAI DevDay 2026 hålls den 29 september i San Francisco. Den officiella registreringen har ännu inte öppnat.

För att bygga upp förväntan lanserar OpenAI en tävling: utvecklare som bygger något med GPT-5.5 och bildgenerering kan försöka vinna en tidig inbjudan. Förfarandet: skicka in en länk till projektet tillsammans med en anteckning som förklarar hur det byggdes, med den officiella hashtaggen #OpenAIDevDay2026.

DetaljVärde
Datum29 september 2026
PlatsSan Francisco
Officiell hashtag#OpenAIDevDay2026
Tweet-visningar (första timmarna)239 000+

Tillkännagivandet publiceras fem månader i förväg, vilket är ovanligt tidigt för ett DevDay. Tidigare upplagor har varit scen för OpenAIs mest betydelsefulla produktlanseringar för utvecklargemenskapen: 2023 presenterades GPT-4 Turbo och Assistants API där. Med den nuvarande takten i lanseringarna — GPT-5.5, bildgenerering, Codex CLI — framstår DevDay 2026 som en viktig milstolpe i kalendern för tekniska team som integrerar OpenAI-modeller i produktion.

En separat tråd uppmanar utvecklare att dela sina projekt redan nu. Kontot @OpenAIDevs vidarebefordrade tillkännagivandet minuter efter huvudpubliceringen.

🔗 OpenAI-tillkännagivande på X


Agentekosystem och nya integrationer

Claude Code CLI v2.1.120–2.1.123 — 50+ korrigeringar

28 april — Claude Code-teamet beskriver korrigeringarna i de fyra senaste versionerna av CLI (v2.1.120 till v2.1.123): mer än 50 förbättringar av stabilitet och prestanda.

MetrikVärde
Berörda versionerv2.1.120, v2.1.121, v2.1.122, v2.1.123
Antal korrigeringar50+
Prestandaökning /resumeUpp till 67 % snabbare
Visningar tråd @ClaudeDevs493 k

De fem huvudområdena: snabbare långa sessioner (/resume upp till 67 % snabbare), stabiliserad macOS-autentisering (ett dussin keychain-korrigeringar), minskat minnesutnyttjande på Linux, WebFetch utan frysningar på tunga sidor, kopiera-klistra in som bevarar radbrytningar från Windows och Xcode.

🔗 Tråd @ClaudeDevs

OpenAI × AWS — Codex och Managed Agents på Amazon Bedrock

28 april — OpenAI och AWS utökar sitt strategiska partnerskap inom tre områden: tillgång till OpenAI-modeller i AWS-miljöer, Codex på Bedrock (begränsad förhandsversion, för organisationer som vill behålla sina data i Amazons infrastruktur) och Bedrock Managed Agents drivna av OpenAI (tillgängligt omedelbart). Codex har mer än 4 miljoner veckovisa användare.

🔗 OpenAI-tillkännagivande

Copilot cloud agent startar 20 % snabbare

27 april — GitHub Copilot cloud agent startar nu mer än 20 % snabbare tack vare förkonfigurerade runner-miljöer via anpassade GitHub Actions-avbildningar. Denna förbättring kommer utöver den minskning på 50 % som redan levererades i mars 2026.

🔗 GitHub Changelog

Gemini — generering av nedladdningsbara filer

29 april — Gemini kan nu skapa nedladdningsbara filer direkt från chatten: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF och Markdown. Tillgängligt omedelbart för alla användare på webben och mobil.

🔗 Google-blogg

Mistral Workflows i offentlig förhandsversion

27 april — Mistral AI lanserar Workflows i offentlig förhandsversion, ett orkestreringslager för företag byggt på Temporals hållbara exekveringsmotor (durable execution engine) (samma infrastruktur som Netflix, Stripe, Salesforce). Flöden skrivs i Python via Mistral SDK v3.0 och triggas sedan från Le Chat av verksamhetsteam. Organisationerna ASML, France Travail och La Banque Postale använder det redan.

🔗 Mistral-tillkännagivande

Qwen FlashQLA — kärnor för linjär attention

29 april — Qwen publicerar FlashQLA, ett bibliotek med högpresterande kärnor (kernels) för linjär attention byggt på TileLang, utformat för agentisk AI på personliga enheter: vinster på 2–3× i framåtpass (forward) och 2× i bakåtpass (backward). Publicerat som open source på GitHub.

🔗 GitHub QwenLM/FlashQLA

GPT Image 2 integrerat i Manus Slides

29 april — Manus integrerar GPT Image 2 i Manus Slides: point-and-click-redigering av visuella element, ersättning via prompt, generering av presentationsanteckningar, export till Google Slides, PowerPoint, PDF, Google Drive och OneDrive.

🔗 Manus-tillkännagivande

Salesforce anslutet till Genspark

29 april — Genspark integrerar Salesforce i sitt agentekosystem: anslutning via Genspark Claw (CLI-installation via instruktion) eller Super Agent (direkt anslutning). Användningsfall: automatisk hantering av kundärenden, kvartalsvisa dashboards, automatiserad hantering av sälj-pipeline.

🔗 Genspark-tillkännagivande

GPT-5.5 och ChatGPT Images 2.0 på Genspark

28 april — Genspark integrerar GPT-5.5 i sin AI-chatt och ChatGPT Images 2.0 (GPT Image 2) i sin bildgenerator, tillgängliga på genspark.ai/agents respektive genspark.ai/ai_image.

🔗 Genspark-tillkännagivande

Pika Agents — kreativt konversationsgränssnitt

28 april — Pika lanserar Pika Agents: ett gränssnitt för videoskapande som ersätter prompt-rutan med en anpassad AI-agent (röst, ansikte, personlighet konfigurerade av användaren). Agenten förstår kreativa intentioner i naturligt språk och sätter ihop, förfinar och producerar i en enda konversation.

🔗 Pika-tillkännagivande

Codex seats till $0 för ChatGPT Business till slutet av juni

29 april — OpenAI låter kvalificerade ChatGPT Business-prenumeranter lägga till Codex seats utan seat-kostnad till slutet av juni 2026, i samband med expansionen av Codex på AWS.

🔗 Tillkännagivande @OpenAIDevs

60 år gammalt Erdős-problem löst med GPT-5.5

28 april — OpenAI publicerar ett podcastavsnitt där Sébastien Bubeck och Ernest Ryu återkommer till lösningen av ett matematiskt problem som varit öppet i 60 år, tillskrivet Paul Erdős, med hjälp av GPT-5.5. Tweeten passerar 399 000 visningar.

🔗 OpenAI-tweet


Korta nyheter

  • DeepSeek-V4-Pro: kampanj -75 % förlängd — Rabatten på 75 % på DeepSeek-V4-Pro API förlängs till den 31 maj 2026. Kampanjpriser: $0,003625/M tokens in (cache hit), $0,435 (cache miss), $0,87 ut. 🔗 DeepSeek-tweet

  • Google DeepMind — Experience AI i Latinamerika — Utbildningsprogrammet Experience AI (Raspberry Pi Foundation) expanderar i Latinamerika med målet att utbilda 24 000 lärare och nå 1,25 miljoner elever till 2028, finansierat med $4,6 miljoner av Google.org. 🔗 Google DeepMind-tweet

  • GPT-5.3-Codex borttaget från Copilot Student-väljaren — Från och med den 27 april 2026 går det inte längre att välja GPT-5.3-Codex manuellt i Copilot Student-planen; den är fortfarande tillgänglig via automatiskt val. 🔗 GitHub Changelog

  • Responses API — blockerade domäner för webbsökning — OpenAIs Responses API gör det nu möjligt att blockera specifika domäner samtidigt som webbsökning förblir aktiverad, för att utesluta vissa källor från resultaten. 🔗 Tweet @charlierguo

  • OpenAI — åtagande för communitysäkerhet — OpenAI publicerar en artikel som beskriver dess säkerhetsrutiner i ChatGPT: riskminimering i modellen, automatiserad övervakning, hänvisning till stödresurser och rapportering till myndigheter i allvarliga fall. Transparenspublikation utan ny funktion. 🔗 OpenAI-tillkännagivande


Vad det betyder

Kapplöpningen om öppna modeller intensifieras. Mistral Medium 3.5 (128B, SWE-Bench 77,6 %) och NVIDIA Nemotron 3 Nano Omni (30B, 9× effektivare än andra öppna omnimodala modeller) anländer samtidigt med tillåtande licenser. Båda modellerna positionerar sig som trovärdiga alternativ till slutna gränser: Mistral inom kod och resonemang, Nemotron inom agentisk multimodalitet. Denna press håller gapet mellan proprietära modeller och open weights allt mindre.

Hårdvaruinfrastrukturen förblir den strategiska flaskhalsen. Googles TPU:er av 8:e generationen (3× i träning, 5× lägre latens vid inferens) illustrerar att AI-kapplöpningen också avgörs på kiselnivå. Tillkännagivandet på Google Cloud Next ‘26 positionerar Googles infrastruktur som en varaktig konkurrensfördel gentemot NVIDIA GPU:er — även om båda samexisterar i verkliga driftsättningar.

Det agentiska ekosystemet fragmenteras i vertikala specialiseringar. Den här veckan etablerar sig AI-agenter i kreativa verktyg (Claude for Creative Work med 8+ MCP-kopplingar), mjukvaruutveckling (Vibe Remote Agents, Copilot cloud agent 20 % snabbare), musik (ElevenMusic), video (Pika Agents), CRM (Salesforce i Genspark) och företags-workflows (Mistral Workflows). Frågan är inte längre ”kan AI göra det här?” utan ”i vilket specialiserat verktyg och enligt vilken faktureringsmodell?”.

Användningsbaserad prissättning förändrar utvecklarnas affärsmodeller. Övergången av GitHub Copilot code review till dubbel debitering (AI-krediter + Actions-minuter) från 1 juni, kombinerat med erbjudandet om Codex seats till $0 för ChatGPT Business, illustrerar en dynamik: leverantörer subventionerar adoptionen (tillfällig gratisanvändning, kampanj -75 % DeepSeek) för att skapa vanor innan de normaliserar användningsbaserad fakturering. Tekniska team tjänar på att granska sina AI-kostnadsposter före juni.


Källor

Detta dokument har översatts från versionen fr till språket sv med hjälp av modellen gpt-5.4. För mer information om översättningsprocessen, se https://gitlab.com/jls42/ai-powered-markdown-translator