Exceptionell dag inom AI: Anthropic tillkännager en kapitalanskaffning på 30 miljarder dollar som höjer deras värdering till 380 miljarder, OpenAI rullar ut en realtidskodningsmodell med 1000+ tokens/sekund på Cerebras, och Google driver Gemini 3 Deep Think till nya rekord inom vetenskap. På ekosystemsidan omstrukturerar xAI sina team kring 4 produkter, Mistral investerar 1,2 miljarder euro i Sverige, och GitHub pausar tillfälligt GPT-5.3-Codex av tillförlitlighetsskäl.
Anthropic tar in 30 mdr $ i Serie G
12 februari — Anthropic tillkännager en kapitalanskaffning i serie G på 30 miljarder dollar, vilket ger företaget en post-money-värdering på 380 miljarder dollar. Rundan leds gemensamt av GIC och Coatue, med deltagande av D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ och MGX. Listan över ytterligare investerare inkluderar Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft och NVIDIA bland andra.
| Mätvärde | Värde |
|---|---|
| Insamlat belopp | 30 miljarder $ |
| Post-money-värdering | 380 miljarder $ |
| Årliga intäkter (run-rate) | 14 miljarder $ |
| Årlig tillväxt | 10x per år (senaste 3 åren) |
| Kunder >100k$/år | Tillväxt på 7x på ett år |
| Företagskunder >1M$/år | Över 500 (vs 12 för två år sedan) |
| Fortune 10-kunder | 8 av 10 |
| Run-rate Claude Code | 2,5 miljarder $ (fördubblat sedan januari 2026) |
| Veckoanvändare Claude Code | 2x sedan 1 januari 2026 |
| GitHub-commits via Claude Code | 4% (fördubblat på 1 månad) |
| Företagsprenumerationer Claude Code | 4x sedan början av 2026 |
| Företagsandel Claude Code | >50% av intäkterna från Claude Code |
Medlen kommer att användas för grundforskning, produktutveckling och expansion av infrastrukturen. Claude förblir den enda frontier AI-modellen som är tillgänglig på de tre stora molnplattformarna: AWS (Bedrock), Google Cloud (Vertex AI) och Microsoft Azure (Foundry). Anthropic tränar och kör Claude på en diversifierad uppsättning AI-hårdvara (AWS Trainium, Google TPUs, NVIDIA GPUs).
This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.
🇸🇪 Denna finansiering återspeglar den otroliga efterfrågan vi ser från dessa kunder, och vi kommer att använda denna investering för att fortsätta bygga de produkter och modeller av företagsklass som de har kommit att förlita sig på. — Krishna Rao, CFO för Anthropic (@AnthropicAI på X)
GPT-5.3-Codex-Spark: realtidsmodell på Cerebras
12 februari — OpenAI lanserar GPT-5.3-Codex-Spark i research preview, en realtidskodningsmodell optimerad för ultrasnabb inferens på Cerebras Wafer-Scale Engine 3. Detta är den första OpenAI-modellen som distribueras på icke-NVIDIA-hårdvara.
Codex-Spark är en kompakt version av GPT-5.3-Codex, designad för interaktivt arbete där latens spelar lika stor roll som intelligens: riktade redigeringar, logik-refaktorisering, justering av gränssnitt med omedelbar feedback.
| Specifikation | Detalj |
|---|---|
| Tokens/sekund | > 1 000 (vs 50-100 för standardmodeller) |
| Kontextfönster | 128k tokens |
| Format | Endast text (multimodalt planerat senare) |
| Minskning overhead klient/server | 80% (Persistent WebSocket) |
| Minskning overhead per token | 30% |
| Minskning time-to-first-token | 50% |
Modellen körs på Cerebras Wafer-Scale Engine 3, en monolitisk processor som håller beräkningen tätt kopplad för inferens med hög genomströmning. Denna lansering markerar det första steget i partnerskapet mellan OpenAI och Cerebras som tillkännagavs i januari 2026.
Codex-Spark är tillgänglig i research preview för ChatGPT Pro-prenumeranter, i de senaste versionerna av Codex-appen, CLI och VS Code-tillägget. API-åtkomst är begränsad till utvalda partners, med bredare distribution planerad.
På SWE-Bench Pro och Terminal-Bench 2.0 visar modellen solid prestanda genom att slutföra uppgifter på en bråkdel av tiden jämfört med GPT-5.3-Codex. Separata hastighetsgränser gäller under research preview-fasen.
På sikt kommer Codex att erbjuda två kompletterande lägen: långsiktigt resonemang (autonoma uppgifter på flera timmar/dagar) och samarbete i realtid (snabb iteration). Båda lägena kommer att kunna kombineras, med delegering av långa uppgifter till underagenter i bakgrunden.
Gemini 3 Deep Think: rekordpoäng inom vetenskap
12 februari — Google tillkännager en stor uppdatering av Gemini 3 Deep Think, dess specialiserade resonemangsläge. Modellen är nu utformad för att lösa konkreta utmaningar inom vetenskap, forskning och teknik, bortom abstrakt teori.
Deep Think har uppdaterats i nära samarbete med forskare och vetenskapsmän. Målet är att ta sig an komplexa forskningsproblem, där data ofta är röriga eller ofullständiga och där det inte finns en enda lösning. Modellen kombinerar djup vetenskaplig kunskap och nytta inom teknik.
Rekordbenchmarks
| Benchmark | Poäng | Notering |
|---|---|---|
| Humanity’s Last Exam | 48,4% (utan verktyg) | Ny standard för frontiermodeller |
| ARC-AGI-2 | 84,6% | Verifierat av ARC Prize Foundation |
| Codeforces | Elo 3455 | Tävlingsprogrammering |
| IMO 2025 | Guldmedalj | Internationella matematikolympiaden |
| IPhO 2025 (skriftlig) | Guldmedalj | Internationella fysikolympiaden |
| IChO 2025 (skriftlig) | Guldmedalj | Internationella kemiolympiaden |
| CMT-Benchmark | 50,5% | Avancerad teoretisk fysik |
Verkliga användningsfall
- Matematik (Lisa Carbone, Rutgers University): Deep Think identifierade ett subtilt logiskt fel i en mycket teknisk matematikartikel, som hade undgått mänsklig peer review. Hon arbetar med matematiska strukturer som krävs för högenergifysik.
- Materialvetenskap (Wang Lab, Duke University): Optimering av tillverkningsmetoder för tillväxt av komplexa kristaller, kandidater för halvledarmaterial. Deep Think utformade ett recept för att odla tunna filmer på över 100 mikrometer.
- Maskinteknik (Anupam Pathak, Google Platforms & Devices): Iteration på fysiska prototyper i mjukvaruhastighet. Möjlighet att omvandla en skiss till ett 3D-utskrivbart objekt (STL-filgenerering).
Gemini 3 Deep Think är tillgängligt från och med idag för Google AI Ultra-prenumeranter i Gemini-appen, och för första gången via API i tidig åtkomst för forskare, ingenjörer och företag.
xAI omstrukturering: 4 team och Macrohard
11 februari — xAI publicerar en 45 minuters all-hands på X, som avslöjar en stor omstrukturering av företaget efter att hälften av dess medgrundare (6 av 12) har lämnat. De senaste avgångarna är Tony Wu och Jimmy Ba.
Elon Musk tillkännager omorganisationen av xAI i 4 huvudteam:
| Team | Fokus | Ledare |
|---|---|---|
| Grok | Chatbot + röst | - |
| Coding | Applikationskodsystem | - |
| Imagine | Videogenerering | - |
| Macrohard | Datorsimulering → företag | Toby Pohlen |
Macrohard är det mest ambitiösa projektet: enligt Toby Pohlen är systemet “kapabelt att göra allt som en dator kan göra på en dator”. Ambitionen sträcker sig ända till design av raketmotorer med hjälp av AI.
Nyckeltal som tillkännagavs
- X har överskridit 1 miljard USD i årliga återkommande intäkter (prenumerationer)
- Imagine genererar 50 miljoner videor per dag
- Över 6 miljarder bilder under de senaste 30 dagarna
Musks interplanetära vision sträcker sig från orbitala datacenter till månbaser. Dessa tillkännagivanden kommer efter SpaceX förvärv av xAI (2 februari) och avgången av 6 medgrundare av 12 under det senaste året (Kyle Kosic till OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).
Mistral investerar 1,2 mdr EUR i Sverige
11 februari — Mistral AI tillkännager en investering på 1,2 miljarder euro (1,4 miljarder USD) för att bygga AI-infrastruktur i Sverige, i partnerskap med EcoDataCenter. Detta är Mistrals första investering i AI-infrastruktur utanför Frankrike.
Datacentret kommer att ligga i Borlänge (Sverige) på EcoDataCenters anläggning, med en planerad öppning 2027. Anläggningen kommer att tillhandahålla 23 megawatt beräkningskraft och kommer att hysa den senaste generationens NVIDIA Vera Rubin GPU:er.
| Detalj | Värde |
|---|---|
| Belopp | 1,2 mdr EUR / 1,4 mdr USD |
| Partner | EcoDataCenter |
| Plats | Borlänge, Sverige |
| Öppning | 2027 |
| Kapacitet | 23 MW |
| GPU | NVIDIA Vera Rubin |
| Prognostiserade intäkter | 2 mdr EUR över 5 år |
Arthur Mensch, VD för Mistral AI, förklarade att denna investering är “ett konkret steg mot att bygga oberoende kapacitet i Europa, dedikerad till AI”. Valet av Sverige förklaras av dess tillgång till ren och relativt billig energi. Målet är att leverera en helt europeisk AI-stack — designad, byggd och driven över hela AI-värdekedjan, med data som behandlas och lagras lokalt i Europa.
Qwen-Image-2.0: förenad bildgenerering och redigering
10 februari — Alibaba lanserar Qwen-Image-2.0, en nästa generations grundmodell för bildgenerering som förenar text-till-bild-generering och bildredigering i en enda arkitektur.
Större förändringar jämfört med v1:
- Förenad arkitektur för generering + redigering (tidigare separata modeller)
- Mer kompakt modell: 7B parametrar (jämfört med 20B för v1)
- Förbättrad textrendering med stöd för prompts upp till 1K tokens
- Inbyggd 2K-upplösning (2048x2048)
| Benchmark | Qwen-Image-2.0 | FLUX.1 |
|---|---|---|
| DPG-Bench | 88,32 | 83,84 |
| AI Arena (blind eval) | #1 | - |
Modellen utmärker sig i rendering av text på kinesiska och engelska över olika format: infografik, affischer, kalligrafi, skyltning. Qwen-Image-2.0 finns tillgänglig i API-test på Alibaba Cloud BaiLian-plattformen och gratis via Qwen Chat (chat.qwen.ai).
Deep Research uppgraderas till GPT-5.2
10 februari — OpenAI uppdaterar ChatGPT Deep Research med modellen GPT-5.2, och ersätter de tidigare versionerna o3 och o4-mini. Uppdateringen ger app-kopplingar, sökning på specifika webbplatser och realtidskontroller.
| Funktion | Detalj |
|---|---|
| Modell | GPT-5.2 (ersätter o3 / o4-mini) |
| App-kopplingar | Gmail, Google Calendar, Google Contacts + valfri MCP |
| Riktad sökning | Begränsning till specifika webbplatser och betrodda källor |
| Realtidskontroller | Framstegsspårning, avbrott och omdirigering under körning |
| Forskningsplan | Skapbar och redigerbar före start |
| Gränssnitt | Omdesignad sidofält + rapportvy i helskärm |
| Export | PDF och DOCX |
Användare kan nu koppla Deep Research till valfri MCP-server eller applikation, och begränsa webbsökningar till betrodda webbplatser för mer exakta och trovärdiga rapporter. Appar fungerar i skrivskyddat läge som tillförlitliga källor.
Utrullningen började den 10 februari för Plus- och Pro-användare, med Free- och Go-användare att följa under de kommande dagarna.
ChatGPT går med i Pentagons GenAI.mil
10 februari — OpenAI tillkännager utrullningen av en anpassad version av ChatGPT på GenAI.mil, det amerikanska försvarsdepartementets AI-plattform för företag. ChatGPT ansluter sig till Google Gemini (lanserad i december 2025) och xAI Grok (tillagd i slutet av december 2025) på plattformen.
| Detalj | Värde |
|---|---|
| Plattform | GenAI.mil (DoD) |
| Potentiella användare | ~3 miljoner (militär, civila, entreprenörer) |
| Aktiva plattformsanvändare | 1,1 miljoner unika sedan lanseringen |
| Klassificering | Endast oklassificerad data |
| Infrastruktur | Auktoriserat statligt moln |
| Dataisolering | Data isolerad, används inte för att träna OpenAI-modeller |
Användningsfall täcker syntes och analys av policydokument, utformning av upphandlingsmaterial, generering av interna rapporter och efterlevnadslistor, samt hjälp med forskning och planering.
ElevenLabs for Government
11 februari — ElevenLabs lanserar ElevenLabs for Government, ett initiativ tillägnat den offentliga sektorn som tillkännagavs vid ElevenLabs Summit i London. Denna plattform erbjuder röst- och chatt-AI-agenter utformade för statliga organisationer, tillgängliga dygnet runt, på flera språk, via telefon, chatt, e-post och WhatsApp.
Plattformen har tre mål:
- Tillgänglighet och inkludering: flerspråkiga omnikanal-agenter som kan lösa medborgarförfrågningar omedelbart
- Effektivitet och produktivitet: automatisering av kontakter med hög volym och minskning av överföringar mellan tjänster
- Förtroende och engagemang: förbättring av tillgången till kommunikation i linje med offentlig policy
| Utrullning | Detaljer |
|---|---|
| Tjeckien | Nationella hotlines för sysselsättning och förmåner, ~5 000 samtal/dag, 85% autonom lösning |
| Ukraina | Digital tvilling av en hög tjänsteman + offentliga tjänster, i partnerskap med Ministeriet för digital transformation |
| Midland, Texas (USA) | Civil röstconcierge “Jacky”, uppskattad minskning på 7 000 missade samtal/månad |
Plattformen är certifierad enligt SOC 2 Type 2, GDPR, CPRA och HIPAA för att uppfylla säkerhetskraven inom den offentliga sektorn.
Anthropic täcker elprishöjningar
11 februari — Anthropic meddelar att de kommer att täcka elprishöjningar för konsumenter som orsakas av deras datacenter. Företaget gör fyra konkreta åtaganden:
| Åtagande | Detalj |
|---|---|
| Nätinfrastrukturkostnader | Täckning av 100% av kostnaderna för nätanslutning |
| Ny energiproduktion | Idrifttagning av ny produktionskapacitet anpassad till behoven |
| Minskning av nättryck | Investering i system för minskning av förbrukning vid toppar |
| Samhällsinvestering | Skapande av hundratals permanenta jobb och tusentals byggjobb |
Anthropic donerar 20 miljoner $ för AI-reglering
12 februari — Anthropic tillkännager en donation på 20 miljoner dollar till Public First Action, en ny blocköverskridande 501(c)(4)-organisation i USA. Målet är att mobilisera medborgare och beslutsfattare kring AI-frågor i allmänhetens intresse.
Anthropics tweet belyser att AI anammas snabbare än någon teknik i historien, och att fönstret för att få offentlig policy rätt håller på att stängas.
Claude Code Desktop: lokala plugins och marketplace
11 februari — Boris Cherny (lead Claude Code på Anthropic) publicerar en tråd som beskriver vad ingenjörer älskar med Claude Code: dess anpassningsbarhet. Han listar hooks, plugins, LSPs, MCPs, skills, effort, custom agents, status lines, output styles som anpassningsmekanismer.
Samtidigt meddelar Lydia Hallie att Claude Code på desktop nu stöder lokala plugins. Användare kan installera anpassade slash-kommandon, skills och MCP-servrar från marknadsplatsen, med automatisk synkronisering mellan desktop och CLI.
GitHub Mobile: Modellväljare för Copilot
11 februari — GitHub lägger till en modellväljare till Copilot Coding Agent i GitHub Mobile-appen, på iOS och Android.
Copilot Pro- och Pro+-användare kan nu välja den AI-modell som driver deras coding agent-sessioner direkt från sin telefon, utan att behöva byta till desktop.
| Tillgänglig modell | Utgivare |
|---|---|
| Auto (standard — optimerar hastighet och prestanda) | GitHub |
| Claude Opus 4.5 | Anthropic |
| Claude Opus 4.6 | Anthropic |
| Claude Sonnet 4.5 | Anthropic |
| GPT-5.1-Codex-Max | OpenAI |
| GPT-5.2-Codex | OpenAI |
Auto-läget väljer automatiskt en modell för att optimera hastighet och prestanda baserat på tillgänglighet. Funktionen är tillgänglig från och med nu för Copilot Pro- och Pro+-prenumeranter. Business- och Enterprise-stöd kommer snart. Notera: GPT-5.3-Codex, som blev GA den 9 februari, finns ännu inte i mobil-listan.
GitHub pausar GPT-5.3-Codex (tillförlitlighet)
10 februari — GitHub tillkännager den tillfälliga pausen av utrullningen av GPT-5.3-Codex i GitHub Copilot av plattformstillförlitlighetsskäl, bara en dag efter tillkännagivandet om dess allmänna tillgänglighet.
Tweeten, som citerar tillkännagivandet den 9 februari om GPT-5.3-Codex GA som svar, genererade 357 500 visningar och 1 000 gilla-markeringar, vilket vittnar om påverkan på utvecklargemenskapen. Flera användare rapporterade problem med tjänstens tillgänglighet i svaren.
Faktumet att modellen ännu inte finns med i listan för Mobile Model Picker (tillkännagiven 11 februari) kan vara kopplat till denna paus.
Manus lanserar Project Skills
12 februari — Manus (nu under Meta) lanserar Project Skills, en funktion som gör det möjligt att skapa dedikerade färdighetsbibliotek per projekt.
Varje projekt kan sätta ihop en uppsättning skills valda från “Team Skills”-pooler eller personliga samlingar. Idén: omvandla en standardprojektmapp till en intelligent och autonom arbetsyta.
| Funktion | Beskrivning |
|---|---|
| Bibliotek per projekt | Ihopsättning av anpassade verktygslådor från team- eller personliga pooler |
| Inneslutna arbetsflöden | Endast skills som uttryckligen lagts till i projektet kan utlösas |
| Låsta arbetsflöden | Administratörer kan låsa uppsättningen skills för att standardisera processer |
De fördelar som lyfts fram: snabbare onboarding, skalning av individuell expertis till organisationen, och byggande av “institutionell kunskap” som förbättras över tid. Tillgängligt omedelbart för alla Manus-användare.
Gemini CLI v0.28.0 + Extension Settings
10-11 februari — Google släpper version 0.28.0 av Gemini CLI och tillkännager Extension Settings, en ny funktion för att förenkla konfigurationen av tillägg.
Gemini CLI v0.28.0 (10 februari)
| Nyhet | Detalj |
|---|---|
Kommando /prompt-suggest | Nytt slash-kommando för prompt-förslag |
| Automatiskt tema | Anpassning baserat på terminalbakgrund |
| IDE-kompatibilitet | Stöd tillagt för Positron IDE |
| Förbättrad OAuth | Interaktivt och icke-interaktivt OAuth-samtycke |
| Checklist-komponent | Komponent för strukturerad uppgiftshantering i plan-läge |
| Underagenter | Dynamisk policyregistrering för underagenter |
| Körning i bakgrunden | Shell-kommandon i bakgrunden |
Extension Settings (11 februari)
Gemini CLI-tillägg kan nu definiera konfigurationsparametrar som användare anger vid installation. Automatisk installation med interaktiva prompts, inbyggd säkerhet (känsliga data som API-nycklar lagras i systemets nyckelring), och centraliserad hantering via gemini extensions config. Data Cloud-tillägg (BigQuery, Cloud SQL, Firestore, Looker, Spanner) implementerar redan denna funktion.
AI Shopping i Google Search och Gemini
11 februari — Google tillkännager integrationen av shoppingfunktioner direkt i sina AI-produkter — Search AI Mode och Gemini-chatboten.
Användare kan nu köpa Etsy- och Wayfair-artiklar direkt i Gemini-chatboten. Direct Offers, en ny funktion i AI Mode, gör det möjligt för varumärken att erbjuda rabatter till potentiella köpare. Nya annonsformat testas i AI Mode på Search för återförsäljare.
Google arbetar med Walmart, Target och Shopify på ett utcheckningsprotokoll som gör det möjligt för konsumenter att slutföra sina köp direkt inom Googles AI-produkter.
GTIG-rapport: destilleringsattacker mot Gemini
12 februari — Google Threat Intelligence Group (GTIG) publicerar en rapport som avslöjar att Gemini har varit måltavla för destilleringsattacker — massiva kloningsförsök via upprepade prompts.
En kampanj skickade in över 100 000 prompts till Gemini innan den upptäcktes. Attackerna riktade sig specifikt mot Geminis resonemangsalgoritmer. Angriparna är främst privata företag och forskare som söker en konkurrensfördel.
Googles system upptäckte aktiviteten i realtid och justerade skydden. Google betraktar destillering som stöld av immateriell egendom.
Codex CLI v0.99.0: samtidig shell-körning
11 februari — OpenAI släpper Codex CLI v0.99.0 med samtidig shell-körning, en konfigurerbar statusrad och dedikerade app-server-API:er.
| Funktion | Detalj |
|---|---|
| Samtidig shell-körning | Direkta shell-kommandon blockerar inte längre en pågående tur |
| /statusline | Interaktiv metadatakonfiguration i TUI-sidfoten |
| Adaptiv resume picker | Ny väljare för att återuppta sessioner |
| App-server API:er | Dedikerade API:er för applikationsintegration |
| Admin controls | Administratörskontroller för webbsökning och nätverk |
| Bilder | GIF/WebP-stöd |
| Snapshotting | Miljö-snapshotting |
| Steer mode | Stabilt och aktivt som standard (Enter skickar, Tab köar) |
npm-paketeringen har omarbetats: plattformsspecifika binärer distribueras via @openai/codex dist-tags, vilket minskar paketstorleken.
Qwen Chat AI Slides
12 februari — Qwen tillkännager den kommande ankomsten av AI Slides i Qwen Chat. Funktionen gör det möjligt att konvertera olika typer av dokument till presentationer: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.
Funktionen är byggd med Qwen Agent + Qwen-Image 2.0 (bildmodellen som lanserades några dagar tidigare). Chen Cheng demonstrerade förmågan att omvandla akademiska artiklar till muntliga presentationer på några minuter, med en integrerad sökagent.
Vad detta innebär
Anthropics kapitalanskaffning på 30 miljarder dollar till en värdering av 380 miljarder bekräftar dominansen för frontiermodeller i AI-ekonomin. Den årliga run-rate på 14 miljarder dollar och andelen på 2,5 miljarder som genereras av Claude Code visar att AI-assisterad kodning har blivit kritisk infrastruktur för utvecklare och företag.
Ankomsten av GPT-5.3-Codex-Spark på Cerebras markerar en vändpunkt i diversifieringen av AI-hårdvara bortom NVIDIA. Inferens vid 1000+ tokens/sekund förändrar karaktären på interaktionen med kodmodeller, vilket möjliggör flytande samarbete i realtid.
Gemini 3 Deep Think med sina guldmedaljer i vetenskapsolympiader och sin poäng på 84,6% på ARC-AGI-2 visar att frontiermodeller börjar nå en nivå av vetenskapligt resonemang som är jämförbar med de bästa människorna inom specialiserade områden.
Omstruktureringen av xAI i 4 team med Macrohard — som syftar till att göra “allt en dator kan göra” — och Mistrals massiva investering i Europa visar att kapplöpningen om AI-infrastruktur accelererar globalt. GitHubs paus av GPT-5.3-Codex påminner dock om att tillförlitlighet förblir en stor utmaning för storskalig utrullning.
Källor
- Anthropic — Serie G $30B
- Anthropic — Elektricitet
- Anthropic — Public First Action
- Anthropic — Claude Code Plugins
- OpenAI — GPT-5.3-Codex-Spark
- OpenAI — Deep Research
- OpenAI — GenAI.mil
- OpenAI — Codex CLI v0.99.0
- Google — Gemini 3 Deep Think
- Google — AI Shopping
- Google — Gemini CLI Tillägg
- Google — GTIG Destillering
- xAI — Omstrukturering
- Mistral — Sverige Investering
- Qwen — Image 2.0
- Qwen — AI Slides
- ElevenLabs — For Government
- GitHub — Mobile Model Picker
- GitHub — Paus GPT-5.3-Codex
- Manus — Project Skills