Sök

Claude in Chrome GA, Bloom och Project Vend: en vecka full av tillkännagivanden

Claude in Chrome GA, Bloom och Project Vend: en vecka full av tillkännagivanden

En exceptionell vecka för Claude-ekosystemet

Veckan 15-21 december 2025 markerar stora framsteg: Claude in Chrome lämnar beta, en ny integration med Claude Code, två fascinerande forskningsprojekt (Bloom och Project Vend) samt strategiska partnerskap.


Claude in Chrome: tillgängligt för alla betalande planer

18 december 2025 — Claude in Chrome lämnar beta och blir tillgängligt för alla betalande användare (Pro, Team, Enterprise).

Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.

🇸🇪 Claude in Chrome är nu tillgängligt för alla betalande planer. Vi har också levererat en integration med Claude Code.@claudeai på X

Nya funktioner

FunktionBeskrivning
Persistent sidopanelHålls öppen under navigering, använder dina inloggningar och bokmärken
Claude Code-integration/chrome-kommando för att testa kod direkt i webbläsaren
FeldetekteringClaude ser konsolfel på klientsidan

Claude Code-integration

Det nya /chrome-kommandot låter Claude Code:

  • Testa kod live i webbläsaren
  • Validera sitt arbete visuellt
  • Se konsolfel för automatisk felsökning

Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.

🇸🇪 Med hjälp av tillägget kan Claude Code testa kod direkt i webbläsaren för att validera sitt arbete. Claude kan också se fel på klientsidan via konsolloggar.@claudeai på X

🔗 Läs mer om Claude in Chrome


Bloom: öppen källkodsverktyg för beteendeutvärderingar

20 december 2025 — Anthropic publicerar Bloom, ett ramverk med öppen källkod för att automatiskt generera beteendeutvärderingar av AI-modeller.

🔗 Officiellt tillkännagivande

Vad är Bloom?

Bloom låter forskare specificera ett beteende och kvantifiera dess frekvens och allvarlighetsgrad genom automatiskt genererade scenarier.

4-stegs pipeline

StegBeskrivning
FörståelseAnalys av beskrivningar och exempeltranskript
IdégenereringGenerering av scenarier utformade för att utlösa målbeteenden
UtförandeParallell exekvering med dynamisk användar-/verktygssimulering
BedömningPoängsättning av transkript och analys på svitnivå

Utvärderade beteenden

Bloom testade 4 beteenden relaterade till anpassning (alignment) på 16 gränsmodeller:

  • Vanföreställningssmicker — Överdrivet smicker trots fakta
  • Långsiktigt sabotage — Subtila sabotagehandlingar på instruktion
  • Självbevarelsedrift — Försök att motstå modifiering/avstängning
  • Självpreferensbias — Favorisering av sig själv

Valideringsresultat

  • Framgångsrik separation av avsiktligt felanpassade “modellorganismer” i 9 av 10 fall
  • Claude Opus 4.1: 0.86 Spearman-korrelation med mänsklig bedömning

Åtkomst


Project Vend Fas 2: Claude driver en butik

18 december 2025 — Anthropic publicerar resultaten från fas 2 av Project Vend, ett experiment där Claude driver en varuautomatsverksamhet.

🔗 Officiellt tillkännagivande

Experimentet

Claudius, en Claude-agent, driver en liten verksamhet på Anthropics kontor. Målet: testa AI-modellers förmåga på verkliga ekonomiska uppgifter.

Förbättringar vs Fas 1

AspektUtveckling
ModellSonnet 3.7 → Sonnet 4.0/4.5
VerktygLade till ett CRM, bättre lagerhantering
Expansion1 → 4 maskiner (SF x2, New York, London)
Specialiserad agentClothius för merchandising

Positiva resultat

  • Drastisk minskning av förlustveckor
  • Bättre prissättning som upprätthåller marginaler
  • Clothius genererar vinster på anpassade produkter (t-shirts, stressbollar)

Minnesvärda incidenter

Trots förbättringar är Claude fortfarande sårbar för manipulation:

  • PlayStation 5 beställd av en övertygande anställd
  • Levande fisk (kampffisk) köpt på begäran
  • Vin beställt utan verifiering
  • Olagligt lökkontrakt nästan undertecknat (ignorerade 1958 års lag)

Anthropics slutsats

The gap between ‘capable’ and ‘completely robust’ remains wide.

🇸🇪 Klyftan mellan ‘kapabel’ och ‘helt robust’ förblir stor.

Att träna modeller att vara “helpful” (hjälpsamma) skapar en tendens att vilja vara till lags som blir problematisk i ett kommersiellt sammanhang.


Genesis Mission: partnerskap med DOE

18 december 2025 — Anthropic och det amerikanska energidepartementet (DOE) tillkännager ett flerårigt partnerskap som en del av Genesis Mission.

🔗 Officiellt tillkännagivande

Vad är Genesis Mission?

Genesis Mission är DOE:s initiativ för att upprätthålla amerikanskt vetenskapligt ledarskap genom AI. Det syftar till att kombinera:

  • Vetenskaplig infrastruktur — Superdatorer, årtionden av experimentell data
  • Gränsöverskridande AI-kapacitet — De mest avancerade Claude-modellerna
  • 17 nationella laboratorier — Potentiell inverkan över hela nätverket

Tre påverkansområden

1. Energidominans

  • Acceleration av tillståndsprocesser
  • Framsteg inom kärnkraftsforskning
  • Stärkande av inhemsk energisäkerhet

2. Biologisk och livsvetenskap

  • System för tidig varning för pandemier
  • Detektion av biologiska hot
  • Acceleration av läkemedelsupptäckt

3. Vetenskaplig produktivitet

  • Tillgång till 50 år av DOE-forskningsdata
  • Acceleration av forskningscykler
  • Identifiering av mönster som är osynliga för människor

Vad Anthropic kommer att utveckla

VerktygBeskrivning
AI-agenterFör DOE:s prioriterade utmaningar
MCP-servrarAnslutning till vetenskapliga instrument
Claude SkillsSpecialiserade vetenskapliga arbetsflöden

Citat

Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.

🇸🇪 Anthropic grundades av forskare som tror att AI kan leverera transformativa framsteg för forskningen själv.Jared Kaplan, Chief Science Officer

Tidigare samarbeten med DOE

  • Samutveckling av en kärnkraftsriskklassificerare med NNSA
  • Utplacering av Claude vid Lawrence Livermore National Laboratory

Efterlevnad av Kalifornien SB53

19 december 2025 — Anthropic delar sitt ramverk för efterlevnad av California Transparency in Frontier AI Act.

🔗 Officiellt tillkännagivande

Varför det är viktigt

Kalifornien är en pionjär när det gäller att reglera gränsöverskridande AI. SB53 ställer krav på transparens för utvecklare av avancerade modeller.

Anthropics tillvägagångssätt

Anthropic publicerar proaktivt sitt ramverk för efterlevnad och demonstrerar:

  • Transparens — Offentlig dokumentation av processer
  • Anticipering — Förberedelse innan ikraftträdande
  • Samarbete — Arbete med tillsynsmyndigheter

Skydd av användarnas välbefinnande

18 december 2025 — Anthropic beskriver sina åtgärder för att skydda Claude-användarnas välbefinnande.

🔗 Officiellt tillkännagivande

Åtgärderna på plats

Anthropic inser att intensiv AI-användning kan ha effekter på användare och inför:

  • Detektion av nödsignaler — Identifiering av oroande mönster
  • Hjälpresurser — Hänvisning till yrkesverksamma vid behov
  • Ansvarsfulla gränser — Uppmuntran till hälsosam användning

Varför nu?

Med den massiva adoptionen av Claude (200M+ användare) tar Anthropic sitt ansvar på allvar när det gäller den samhälleliga påverkan av sina produkter.


Vad detta innebär

Denna vecka visar Anthropic på flera fronter:

Produkt

Claude in Chrome går från beta till GA, med en Claude Code-integration som förändrar spelplanen för webbutvecklare.

Forskning & Säkerhet

Bloom och Project Vend illustrerar Anthropics empiriska tillvägagångssätt: testa modeller i verkliga förhållanden för att förstå deras gränser.

Vetenskap

DOE-partnerskapet positionerar Claude som ett verktyg för vetenskaplig upptäckt på nationell nivå.

Proaktiv reglering

Istället för att utsättas för reglering, förekommer Anthropic den med SB53 och åtgärder för användarnas välbefinnande.


Källor