Sök

Anthropic tar in 30 miljarder dollar, GPT-5.3-Codex-Spark på Cerebras, Gemini 3 Deep Think

Anthropic tar in 30 miljarder dollar, GPT-5.3-Codex-Spark på Cerebras, Gemini 3 Deep Think

Exceptionell dag inom AI: Anthropic tillkännager en kapitalanskaffning på 30 miljarder dollar som höjer deras värdering till 380 miljarder, OpenAI rullar ut en realtidskodningsmodell med 1000+ tokens/sekund på Cerebras, och Google driver Gemini 3 Deep Think till nya rekord inom vetenskap. På ekosystemsidan omstrukturerar xAI sina team kring 4 produkter, Mistral investerar 1,2 miljarder euro i Sverige, och GitHub pausar tillfälligt GPT-5.3-Codex av tillförlitlighetsskäl.


Anthropic tar in 30 mdr $ i Serie G

12 februari — Anthropic tillkännager en kapitalanskaffning i serie G på 30 miljarder dollar, vilket ger företaget en post-money-värdering på 380 miljarder dollar. Rundan leds gemensamt av GIC och Coatue, med deltagande av D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ och MGX. Listan över ytterligare investerare inkluderar Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft och NVIDIA bland andra.

MätvärdeVärde
Insamlat belopp30 miljarder $
Post-money-värdering380 miljarder $
Årliga intäkter (run-rate)14 miljarder $
Årlig tillväxt10x per år (senaste 3 åren)
Kunder >100k$/årTillväxt på 7x på ett år
Företagskunder >1M$/årÖver 500 (vs 12 för två år sedan)
Fortune 10-kunder8 av 10
Run-rate Claude Code2,5 miljarder $ (fördubblat sedan januari 2026)
Veckoanvändare Claude Code2x sedan 1 januari 2026
GitHub-commits via Claude Code4% (fördubblat på 1 månad)
Företagsprenumerationer Claude Code4x sedan början av 2026
Företagsandel Claude Code>50% av intäkterna från Claude Code

Medlen kommer att användas för grundforskning, produktutveckling och expansion av infrastrukturen. Claude förblir den enda frontier AI-modellen som är tillgänglig på de tre stora molnplattformarna: AWS (Bedrock), Google Cloud (Vertex AI) och Microsoft Azure (Foundry). Anthropic tränar och kör Claude på en diversifierad uppsättning AI-hårdvara (AWS Trainium, Google TPUs, NVIDIA GPUs).

This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.

🇸🇪 Denna finansiering återspeglar den otroliga efterfrågan vi ser från dessa kunder, och vi kommer att använda denna investering för att fortsätta bygga de produkter och modeller av företagsklass som de har kommit att förlita sig på. — Krishna Rao, CFO för Anthropic (@AnthropicAI på X)

🔗 Officiellt tillkännagivande


GPT-5.3-Codex-Spark: realtidsmodell på Cerebras

12 februari — OpenAI lanserar GPT-5.3-Codex-Spark i research preview, en realtidskodningsmodell optimerad för ultrasnabb inferens på Cerebras Wafer-Scale Engine 3. Detta är den första OpenAI-modellen som distribueras på icke-NVIDIA-hårdvara.

Codex-Spark är en kompakt version av GPT-5.3-Codex, designad för interaktivt arbete där latens spelar lika stor roll som intelligens: riktade redigeringar, logik-refaktorisering, justering av gränssnitt med omedelbar feedback.

SpecifikationDetalj
Tokens/sekund> 1 000 (vs 50-100 för standardmodeller)
Kontextfönster128k tokens
FormatEndast text (multimodalt planerat senare)
Minskning overhead klient/server80% (Persistent WebSocket)
Minskning overhead per token30%
Minskning time-to-first-token50%

Modellen körs på Cerebras Wafer-Scale Engine 3, en monolitisk processor som håller beräkningen tätt kopplad för inferens med hög genomströmning. Denna lansering markerar det första steget i partnerskapet mellan OpenAI och Cerebras som tillkännagavs i januari 2026.

Codex-Spark är tillgänglig i research preview för ChatGPT Pro-prenumeranter, i de senaste versionerna av Codex-appen, CLI och VS Code-tillägget. API-åtkomst är begränsad till utvalda partners, med bredare distribution planerad.

På SWE-Bench Pro och Terminal-Bench 2.0 visar modellen solid prestanda genom att slutföra uppgifter på en bråkdel av tiden jämfört med GPT-5.3-Codex. Separata hastighetsgränser gäller under research preview-fasen.

På sikt kommer Codex att erbjuda två kompletterande lägen: långsiktigt resonemang (autonoma uppgifter på flera timmar/dagar) och samarbete i realtid (snabb iteration). Båda lägena kommer att kunna kombineras, med delegering av långa uppgifter till underagenter i bakgrunden.

🔗 Officiellt tillkännagivande


Gemini 3 Deep Think: rekordpoäng inom vetenskap

12 februari — Google tillkännager en stor uppdatering av Gemini 3 Deep Think, dess specialiserade resonemangsläge. Modellen är nu utformad för att lösa konkreta utmaningar inom vetenskap, forskning och teknik, bortom abstrakt teori.

Deep Think har uppdaterats i nära samarbete med forskare och vetenskapsmän. Målet är att ta sig an komplexa forskningsproblem, där data ofta är röriga eller ofullständiga och där det inte finns en enda lösning. Modellen kombinerar djup vetenskaplig kunskap och nytta inom teknik.

Rekordbenchmarks

BenchmarkPoängNotering
Humanity’s Last Exam48,4% (utan verktyg)Ny standard för frontiermodeller
ARC-AGI-284,6%Verifierat av ARC Prize Foundation
CodeforcesElo 3455Tävlingsprogrammering
IMO 2025GuldmedaljInternationella matematikolympiaden
IPhO 2025 (skriftlig)GuldmedaljInternationella fysikolympiaden
IChO 2025 (skriftlig)GuldmedaljInternationella kemiolympiaden
CMT-Benchmark50,5%Avancerad teoretisk fysik

Verkliga användningsfall

  • Matematik (Lisa Carbone, Rutgers University): Deep Think identifierade ett subtilt logiskt fel i en mycket teknisk matematikartikel, som hade undgått mänsklig peer review. Hon arbetar med matematiska strukturer som krävs för högenergifysik.
  • Materialvetenskap (Wang Lab, Duke University): Optimering av tillverkningsmetoder för tillväxt av komplexa kristaller, kandidater för halvledarmaterial. Deep Think utformade ett recept för att odla tunna filmer på över 100 mikrometer.
  • Maskinteknik (Anupam Pathak, Google Platforms & Devices): Iteration på fysiska prototyper i mjukvaruhastighet. Möjlighet att omvandla en skiss till ett 3D-utskrivbart objekt (STL-filgenerering).

Gemini 3 Deep Think är tillgängligt från och med idag för Google AI Ultra-prenumeranter i Gemini-appen, och för första gången via API i tidig åtkomst för forskare, ingenjörer och företag.

🔗 Officiellt tillkännagivande


xAI omstrukturering: 4 team och Macrohard

11 februari — xAI publicerar en 45 minuters all-hands på X, som avslöjar en stor omstrukturering av företaget efter att hälften av dess medgrundare (6 av 12) har lämnat. De senaste avgångarna är Tony Wu och Jimmy Ba.

Elon Musk tillkännager omorganisationen av xAI i 4 huvudteam:

TeamFokusLedare
GrokChatbot + röst-
CodingApplikationskodsystem-
ImagineVideogenerering-
MacrohardDatorsimulering → företagToby Pohlen

Macrohard är det mest ambitiösa projektet: enligt Toby Pohlen är systemet “kapabelt att göra allt som en dator kan göra på en dator”. Ambitionen sträcker sig ända till design av raketmotorer med hjälp av AI.

Nyckeltal som tillkännagavs

  • X har överskridit 1 miljard USD i årliga återkommande intäkter (prenumerationer)
  • Imagine genererar 50 miljoner videor per dag
  • Över 6 miljarder bilder under de senaste 30 dagarna

Musks interplanetära vision sträcker sig från orbitala datacenter till månbaser. Dessa tillkännagivanden kommer efter SpaceX förvärv av xAI (2 februari) och avgången av 6 medgrundare av 12 under det senaste året (Kyle Kosic till OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).

🔗 TechCrunch-artikel


Mistral investerar 1,2 mdr EUR i Sverige

11 februari — Mistral AI tillkännager en investering på 1,2 miljarder euro (1,4 miljarder USD) för att bygga AI-infrastruktur i Sverige, i partnerskap med EcoDataCenter. Detta är Mistrals första investering i AI-infrastruktur utanför Frankrike.

Datacentret kommer att ligga i Borlänge (Sverige) på EcoDataCenters anläggning, med en planerad öppning 2027. Anläggningen kommer att tillhandahålla 23 megawatt beräkningskraft och kommer att hysa den senaste generationens NVIDIA Vera Rubin GPU:er.

DetaljVärde
Belopp1,2 mdr EUR / 1,4 mdr USD
PartnerEcoDataCenter
PlatsBorlänge, Sverige
Öppning2027
Kapacitet23 MW
GPUNVIDIA Vera Rubin
Prognostiserade intäkter2 mdr EUR över 5 år

Arthur Mensch, VD för Mistral AI, förklarade att denna investering är “ett konkret steg mot att bygga oberoende kapacitet i Europa, dedikerad till AI”. Valet av Sverige förklaras av dess tillgång till ren och relativt billig energi. Målet är att leverera en helt europeisk AI-stack — designad, byggd och driven över hela AI-värdekedjan, med data som behandlas och lagras lokalt i Europa.

🔗 Tech.eu-artikel


Qwen-Image-2.0: förenad bildgenerering och redigering

10 februari — Alibaba lanserar Qwen-Image-2.0, en nästa generations grundmodell för bildgenerering som förenar text-till-bild-generering och bildredigering i en enda arkitektur.

Större förändringar jämfört med v1:

  • Förenad arkitektur för generering + redigering (tidigare separata modeller)
  • Mer kompakt modell: 7B parametrar (jämfört med 20B för v1)
  • Förbättrad textrendering med stöd för prompts upp till 1K tokens
  • Inbyggd 2K-upplösning (2048x2048)
BenchmarkQwen-Image-2.0FLUX.1
DPG-Bench88,3283,84
AI Arena (blind eval)#1-

Modellen utmärker sig i rendering av text på kinesiska och engelska över olika format: infografik, affischer, kalligrafi, skyltning. Qwen-Image-2.0 finns tillgänglig i API-test på Alibaba Cloud BaiLian-plattformen och gratis via Qwen Chat (chat.qwen.ai).

🔗 Officiellt tillkännagivande


Deep Research uppgraderas till GPT-5.2

10 februari — OpenAI uppdaterar ChatGPT Deep Research med modellen GPT-5.2, och ersätter de tidigare versionerna o3 och o4-mini. Uppdateringen ger app-kopplingar, sökning på specifika webbplatser och realtidskontroller.

FunktionDetalj
ModellGPT-5.2 (ersätter o3 / o4-mini)
App-kopplingarGmail, Google Calendar, Google Contacts + valfri MCP
Riktad sökningBegränsning till specifika webbplatser och betrodda källor
RealtidskontrollerFramstegsspårning, avbrott och omdirigering under körning
ForskningsplanSkapbar och redigerbar före start
GränssnittOmdesignad sidofält + rapportvy i helskärm
ExportPDF och DOCX

Användare kan nu koppla Deep Research till valfri MCP-server eller applikation, och begränsa webbsökningar till betrodda webbplatser för mer exakta och trovärdiga rapporter. Appar fungerar i skrivskyddat läge som tillförlitliga källor.

Utrullningen började den 10 februari för Plus- och Pro-användare, med Free- och Go-användare att följa under de kommande dagarna.

🔗 Officiellt tillkännagivande


ChatGPT går med i Pentagons GenAI.mil

10 februari — OpenAI tillkännager utrullningen av en anpassad version av ChatGPT på GenAI.mil, det amerikanska försvarsdepartementets AI-plattform för företag. ChatGPT ansluter sig till Google Gemini (lanserad i december 2025) och xAI Grok (tillagd i slutet av december 2025) på plattformen.

DetaljVärde
PlattformGenAI.mil (DoD)
Potentiella användare~3 miljoner (militär, civila, entreprenörer)
Aktiva plattformsanvändare1,1 miljoner unika sedan lanseringen
KlassificeringEndast oklassificerad data
InfrastrukturAuktoriserat statligt moln
DataisoleringData isolerad, används inte för att träna OpenAI-modeller

Användningsfall täcker syntes och analys av policydokument, utformning av upphandlingsmaterial, generering av interna rapporter och efterlevnadslistor, samt hjälp med forskning och planering.

🔗 Officiellt tillkännagivande


ElevenLabs for Government

11 februari — ElevenLabs lanserar ElevenLabs for Government, ett initiativ tillägnat den offentliga sektorn som tillkännagavs vid ElevenLabs Summit i London. Denna plattform erbjuder röst- och chatt-AI-agenter utformade för statliga organisationer, tillgängliga dygnet runt, på flera språk, via telefon, chatt, e-post och WhatsApp.

Plattformen har tre mål:

  • Tillgänglighet och inkludering: flerspråkiga omnikanal-agenter som kan lösa medborgarförfrågningar omedelbart
  • Effektivitet och produktivitet: automatisering av kontakter med hög volym och minskning av överföringar mellan tjänster
  • Förtroende och engagemang: förbättring av tillgången till kommunikation i linje med offentlig policy
UtrullningDetaljer
TjeckienNationella hotlines för sysselsättning och förmåner, ~5 000 samtal/dag, 85% autonom lösning
UkrainaDigital tvilling av en hög tjänsteman + offentliga tjänster, i partnerskap med Ministeriet för digital transformation
Midland, Texas (USA)Civil röstconcierge “Jacky”, uppskattad minskning på 7 000 missade samtal/månad

Plattformen är certifierad enligt SOC 2 Type 2, GDPR, CPRA och HIPAA för att uppfylla säkerhetskraven inom den offentliga sektorn.

🔗 Officiellt tillkännagivande


Anthropic täcker elprishöjningar

11 februari — Anthropic meddelar att de kommer att täcka elprishöjningar för konsumenter som orsakas av deras datacenter. Företaget gör fyra konkreta åtaganden:

ÅtagandeDetalj
NätinfrastrukturkostnaderTäckning av 100% av kostnaderna för nätanslutning
Ny energiproduktionIdrifttagning av ny produktionskapacitet anpassad till behoven
Minskning av nättryckInvestering i system för minskning av förbrukning vid toppar
SamhällsinvesteringSkapande av hundratals permanenta jobb och tusentals byggjobb

🔗 Officiellt tillkännagivande


Anthropic donerar 20 miljoner $ för AI-reglering

12 februari — Anthropic tillkännager en donation på 20 miljoner dollar till Public First Action, en ny blocköverskridande 501(c)(4)-organisation i USA. Målet är att mobilisera medborgare och beslutsfattare kring AI-frågor i allmänhetens intresse.

Anthropics tweet belyser att AI anammas snabbare än någon teknik i historien, och att fönstret för att få offentlig policy rätt håller på att stängas.

🔗 Tillkännagivande på X


Claude Code Desktop: lokala plugins och marketplace

11 februari — Boris Cherny (lead Claude Code på Anthropic) publicerar en tråd som beskriver vad ingenjörer älskar med Claude Code: dess anpassningsbarhet. Han listar hooks, plugins, LSPs, MCPs, skills, effort, custom agents, status lines, output styles som anpassningsmekanismer.

Samtidigt meddelar Lydia Hallie att Claude Code på desktop nu stöder lokala plugins. Användare kan installera anpassade slash-kommandon, skills och MCP-servrar från marknadsplatsen, med automatisk synkronisering mellan desktop och CLI.

🔗 Tråd Boris Cherny


GitHub Mobile: Modellväljare för Copilot

11 februari — GitHub lägger till en modellväljare till Copilot Coding Agent i GitHub Mobile-appen, på iOS och Android.

Copilot Pro- och Pro+-användare kan nu välja den AI-modell som driver deras coding agent-sessioner direkt från sin telefon, utan att behöva byta till desktop.

Tillgänglig modellUtgivare
Auto (standard — optimerar hastighet och prestanda)GitHub
Claude Opus 4.5Anthropic
Claude Opus 4.6Anthropic
Claude Sonnet 4.5Anthropic
GPT-5.1-Codex-MaxOpenAI
GPT-5.2-CodexOpenAI

Auto-läget väljer automatiskt en modell för att optimera hastighet och prestanda baserat på tillgänglighet. Funktionen är tillgänglig från och med nu för Copilot Pro- och Pro+-prenumeranter. Business- och Enterprise-stöd kommer snart. Notera: GPT-5.3-Codex, som blev GA den 9 februari, finns ännu inte i mobil-listan.

🔗 GitHub Changelog


GitHub pausar GPT-5.3-Codex (tillförlitlighet)

10 februari — GitHub tillkännager den tillfälliga pausen av utrullningen av GPT-5.3-Codex i GitHub Copilot av plattformstillförlitlighetsskäl, bara en dag efter tillkännagivandet om dess allmänna tillgänglighet.

Tweeten, som citerar tillkännagivandet den 9 februari om GPT-5.3-Codex GA som svar, genererade 357 500 visningar och 1 000 gilla-markeringar, vilket vittnar om påverkan på utvecklargemenskapen. Flera användare rapporterade problem med tjänstens tillgänglighet i svaren.

Faktumet att modellen ännu inte finns med i listan för Mobile Model Picker (tillkännagiven 11 februari) kan vara kopplat till denna paus.

🔗 Tillkännagivande på X


Manus lanserar Project Skills

12 februari — Manus (nu under Meta) lanserar Project Skills, en funktion som gör det möjligt att skapa dedikerade färdighetsbibliotek per projekt.

Varje projekt kan sätta ihop en uppsättning skills valda från “Team Skills”-pooler eller personliga samlingar. Idén: omvandla en standardprojektmapp till en intelligent och autonom arbetsyta.

FunktionBeskrivning
Bibliotek per projektIhopsättning av anpassade verktygslådor från team- eller personliga pooler
Inneslutna arbetsflödenEndast skills som uttryckligen lagts till i projektet kan utlösas
Låsta arbetsflödenAdministratörer kan låsa uppsättningen skills för att standardisera processer

De fördelar som lyfts fram: snabbare onboarding, skalning av individuell expertis till organisationen, och byggande av “institutionell kunskap” som förbättras över tid. Tillgängligt omedelbart för alla Manus-användare.

🔗 Officiellt tillkännagivande


Gemini CLI v0.28.0 + Extension Settings

10-11 februari — Google släpper version 0.28.0 av Gemini CLI och tillkännager Extension Settings, en ny funktion för att förenkla konfigurationen av tillägg.

Gemini CLI v0.28.0 (10 februari)

NyhetDetalj
Kommando /prompt-suggestNytt slash-kommando för prompt-förslag
Automatiskt temaAnpassning baserat på terminalbakgrund
IDE-kompatibilitetStöd tillagt för Positron IDE
Förbättrad OAuthInteraktivt och icke-interaktivt OAuth-samtycke
Checklist-komponentKomponent för strukturerad uppgiftshantering i plan-läge
UnderagenterDynamisk policyregistrering för underagenter
Körning i bakgrundenShell-kommandon i bakgrunden

Extension Settings (11 februari)

Gemini CLI-tillägg kan nu definiera konfigurationsparametrar som användare anger vid installation. Automatisk installation med interaktiva prompts, inbyggd säkerhet (känsliga data som API-nycklar lagras i systemets nyckelring), och centraliserad hantering via gemini extensions config. Data Cloud-tillägg (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implementerar redan denna funktion.

🔗 Officiellt tillkännagivande


AI Shopping i Google Search och Gemini

11 februari — Google tillkännager integrationen av shoppingfunktioner direkt i sina AI-produkter — Search AI Mode och Gemini-chatboten.

Användare kan nu köpa Etsy- och Wayfair-artiklar direkt i Gemini-chatboten. Direct Offers, en ny funktion i AI Mode, gör det möjligt för varumärken att erbjuda rabatter till potentiella köpare. Nya annonsformat testas i AI Mode på Search för återförsäljare.

Google arbetar med Walmart, Target och Shopify på ett utcheckningsprotokoll som gör det möjligt för konsumenter att slutföra sina köp direkt inom Googles AI-produkter.

🔗 PYMNTS-artikel


GTIG-rapport: destilleringsattacker mot Gemini

12 februari — Google Threat Intelligence Group (GTIG) publicerar en rapport som avslöjar att Gemini har varit måltavla för destilleringsattacker — massiva kloningsförsök via upprepade prompts.

En kampanj skickade in över 100 000 prompts till Gemini innan den upptäcktes. Attackerna riktade sig specifikt mot Geminis resonemangsalgoritmer. Angriparna är främst privata företag och forskare som söker en konkurrensfördel.

Googles system upptäckte aktiviteten i realtid och justerade skydden. Google betraktar destillering som stöld av immateriell egendom.

🔗 NBC News-artikel


Codex CLI v0.99.0: samtidig shell-körning

11 februari — OpenAI släpper Codex CLI v0.99.0 med samtidig shell-körning, en konfigurerbar statusrad och dedikerade app-server-API:er.

FunktionDetalj
Samtidig shell-körningDirekta shell-kommandon blockerar inte längre en pågående tur
/statuslineInteraktiv metadatakonfiguration i TUI-sidfoten
Adaptiv resume pickerNy väljare för att återuppta sessioner
App-server API:erDedikerade API:er för applikationsintegration
Admin controlsAdministratörskontroller för webbsökning och nätverk
BilderGIF/WebP-stöd
SnapshottingMiljö-snapshotting
Steer modeStabilt och aktivt som standard (Enter skickar, Tab köar)

npm-paketeringen har omarbetats: plattformsspecifika binärer distribueras via @openai/codex dist-tags, vilket minskar paketstorleken.

🔗 Changelog Codex CLI


Qwen Chat AI Slides

12 februari — Qwen tillkännager den kommande ankomsten av AI Slides i Qwen Chat. Funktionen gör det möjligt att konvertera olika typer av dokument till presentationer: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.

Funktionen är byggd med Qwen Agent + Qwen-Image 2.0 (bildmodellen som lanserades några dagar tidigare). Chen Cheng demonstrerade förmågan att omvandla akademiska artiklar till muntliga presentationer på några minuter, med en integrerad sökagent.

🔗 Tillkännagivande på X


Vad detta innebär

Anthropics kapitalanskaffning på 30 miljarder dollar till en värdering av 380 miljarder bekräftar dominansen för frontiermodeller i AI-ekonomin. Den årliga run-rate på 14 miljarder dollar och andelen på 2,5 miljarder som genereras av Claude Code visar att AI-assisterad kodning har blivit kritisk infrastruktur för utvecklare och företag.

Ankomsten av GPT-5.3-Codex-Spark på Cerebras markerar en vändpunkt i diversifieringen av AI-hårdvara bortom NVIDIA. Inferens vid 1000+ tokens/sekund förändrar karaktären på interaktionen med kodmodeller, vilket möjliggör flytande samarbete i realtid.

Gemini 3 Deep Think med sina guldmedaljer i vetenskapsolympiader och sin poäng på 84,6% på ARC-AGI-2 visar att frontiermodeller börjar nå en nivå av vetenskapligt resonemang som är jämförbar med de bästa människorna inom specialiserade områden.

Omstruktureringen av xAI i 4 team med Macrohard — som syftar till att göra “allt en dator kan göra” — och Mistrals massiva investering i Europa visar att kapplöpningen om AI-infrastruktur accelererar globalt. GitHubs paus av GPT-5.3-Codex påminner dock om att tillförlitlighet förblir en stor utmaning för storskalig utrullning.


Källor