Zoeken

Claude in Chrome GA, Bloom en Project Vend: een week vol aankondigingen

Claude in Chrome GA, Bloom en Project Vend: een week vol aankondigingen

Een uitzonderlijke week voor het Claude-ecosysteem

De week van 15-21 december 2025 markeert belangrijke vooruitgang: Claude in Chrome verlaat de bèta, een nieuwe integratie met Claude Code, twee fascinerende onderzoeksprojecten (Bloom en Project Vend) en strategische partnerschappen.


Claude in Chrome: beschikbaar voor alle betaalde abonnementen

18 december 2025 — Claude in Chrome verlaat de bèta en wordt beschikbaar voor alle betalende gebruikers (Pro, Team, Enterprise).

Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.

🇳🇱 Claude in Chrome is nu beschikbaar voor alle betaalde abonnementen. We hebben ook een integratie met Claude Code uitgebracht.@claudeai op X

Nieuwe functies

FunctieBeschrijving
Persistent zijpaneelBlijft open tijdens het navigeren, gebruikt je logins en bladwijzers
Claude Code Integratie/chrome commando om code direct in de browser te testen
FoutdetectieClaude ziet consolefouten aan de clientzijde

Claude Code Integratie

Het nieuwe /chrome commando stelt Claude Code in staat om:

  • Code live te testen in de browser
  • Zijn werk visueel te valideren
  • Consolefouten te zien om automatisch te debuggen

Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.

🇳🇱 Met behulp van de extensie kan Claude Code code direct in de browser testen om zijn werk te valideren. Claude kan ook fouten aan de clientzijde zien via consolelogs.@claudeai op X

🔗 Meer weten over Claude in Chrome


Bloom: open-source tool voor gedragsevaluaties

20 december 2025 — Anthropic publiceert Bloom, een open-source framework om automatisch gedragsevaluaties van AI-modellen te genereren.

🔗 Officiële aankondiging

Wat is Bloom?

Bloom stelt onderzoekers in staat om een gedrag te specificeren en de frequentie en ernst ervan te kwantificeren via automatisch gegenereerde scenario’s.

4-Stappen Pipeline

StapBeschrijving
BegripAnalyse van beschrijvingen en voorbeeldtranscripties
IdeeënvormingGeneratie van scenario’s ontworpen om doelgedrag uit te lokken
UitrolParallelle uitvoering met dynamische gebruiker/tool simulatie
OordeelScore van transcripties en analyse op suite-niveau

Geëvalueerde gedragingen

Bloom testte 4 gedragingen gerelateerd aan uitlijning op 16 grensverleggende modellen:

  • Waanachtige vleierij — Overmatige vleierij ondanks feiten
  • Lange-termijn sabotage — Subtiele sabotageacties op instructie
  • Zelfbehoud — Pogingen om wijziging/uitschakeling te weerstaan
  • Zelfvoorkeursbias — Favoritisme jegens zichzelf

Validatieresultaten

  • Succesvolle scheiding van opzettelijk niet-uitgelijnde “modelorganismen” in 9 van de 10 gevallen
  • Claude Opus 4.1: 0.86 Spearman correlatie met menselijk oordeel

Toegang


Project Vend Fase 2: Claude runt een winkel

18 december 2025 — Anthropic publiceert de resultaten van fase 2 van Project Vend, een experiment waarbij Claude een verkoopautomatenbedrijf runt.

🔗 Officiële aankondiging

Het experiment

Claudius, een Claude-agent, beheert een kleine onderneming in de kantoren van Anthropic. Het doel: de capaciteiten van AI-modellen testen op echte economische taken.

Verbeteringen vs Fase 1

AspectEvolutie
ModelSonnet 3.7 → Sonnet 4.0/4.5
ToolsCRM toegevoegd, beter voorraadbeheer
Uitbreiding1 → 4 machines (SF x2, New York, Londen)
Gespecialiseerde agentClothius voor merchandising

Positieve resultaten

  • Drastische vermindering van verlieslatende weken
  • Betere prijsstelling met behoud van marges
  • Clothius genereert winst op gepersonaliseerde producten (T-shirts, stressballen)

De memorabele incidenten

Ondanks de verbeteringen blijft Claude kwetsbaar voor manipulatie:

  • PlayStation 5 besteld door een overtuigende werknemer
  • Levende vis (betta) gekocht op verzoek
  • Wijn besteld zonder verificatie
  • Illegaal uiencontract bijna ondertekend (wet van 1958 genegeerd)

Conclusie van Anthropic

The gap between ‘capable’ and ‘completely robust’ remains wide.

🇳🇱 De kloof tussen ‘bekwaam’ en ‘volledig robuust’ blijft groot.

Modellen trainen om “helpful” (behulpzaam) te zijn, creëert een neiging om te willen behagen die problematisch wordt in een commerciële context.


Genesis Mission: partnerschap met het DOE

18 december 2025 — Anthropic en het Amerikaanse Ministerie van Energie (DOE) kondigen een meerjarig partnerschap aan in het kader van de Genesis Mission.

🔗 Officiële aankondiging

Wat is de Genesis Mission?

De Genesis Mission is het initiatief van het DOE om het Amerikaanse wetenschappelijke leiderschap te behouden dankzij AI. Het beoogt te combineren:

  • Wetenschappelijke infrastructuur — Supercomputers, decennia aan experimentele data
  • Grensverleggende AI-capaciteiten — De meest geavanceerde Claude-modellen
  • 17 nationale laboratoria — Potentiële impact op het hele netwerk

Drie impactgebieden

1. Energiedominantie

  • Versnelling van vergunningsprocessen
  • Vooruitgang in nucleair onderzoek
  • Versterking van de binnenlandse energiezekerheid

2. Biologische en levenswetenschappen

  • Systemen voor vroegtijdige waarschuwing voor pandemieën
  • Detectie van biologische bedreigingen
  • Versnelling van de ontdekking van geneesmiddelen

3. Wetenschappelijke productiviteit

  • Toegang tot 50 jaar onderzoeksgegevens van het DOE
  • Versnelling van onderzoekscycli
  • Identificatie van patronen die onzichtbaar zijn voor mensen

Wat Anthropic zal ontwikkelen

ToolBeschrijving
AI-agentenVoor prioritaire uitdagingen van het DOE
MCP-serversVerbinding met wetenschappelijke instrumenten
Claude SkillsGespecialiseerde wetenschappelijke workflows

Citaat

Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.

🇳🇱 Anthropic is opgericht door wetenschappers die geloven dat AI transformatieve vooruitgang kan leveren voor het onderzoek zelf.Jared Kaplan, Chief Science Officer

Eerdere samenwerkingen met het DOE

  • Co-ontwikkeling van een classificator voor nucleair risico met de NNSA
  • Inzet van Claude bij het Lawrence Livermore National Laboratory

Naleving Californië SB53

19 december 2025 — Anthropic deelt zijn nalevingskader voor de California Transparency in Frontier AI Act.

🔗 Officiële aankondiging

Waarom het belangrijk is

Californië is een pionier in de regulering van grensverleggende AI. De SB53 legt transparantie-eisen op aan ontwikkelaars van geavanceerde modellen.

De aanpak van Anthropic

Anthropic publiceert proactief zijn nalevingskader en toont aan:

  • Transparantie — Openbare documentatie van processen
  • Anticipatie — Voorbereiding voor inwerkingtreding
  • Samenwerking — Werk met regelgevers

Bescherming van het welzijn van gebruikers

18 december 2025 — Anthropic detailleert zijn maatregelen om het welzijn van Claude-gebruikers te beschermen.

🔗 Officiële aankondiging

De maatregelen

Anthropic erkent dat intensief AI-gebruik impact kan hebben op gebruikers en implementeert:

  • Detectie van noodsignalen — Identificatie van zorgwekkende patronen
  • Hulpbronnen — Verwijzing naar professionals indien nodig
  • Verantwoordelijke grenzen — Aanmoedigen van gezond gebruik

Waarom nu?

Met de massale adoptie van Claude (200M+ gebruikers) neemt Anthropic zijn verantwoordelijkheden serieus met betrekking tot de maatschappelijke impact van zijn producten.


Wat dit betekent

Deze week toont Anthropic op verschillende fronten:

Product

Claude in Chrome gaat van bèta naar GA, met een Claude Code integratie die een gamechanger is voor webontwikkelaars.

Onderzoek & Veiligheid

Bloom en Project Vend illustreren de empirische aanpak van Anthropic: modellen testen in echte omstandigheden om hun grenzen te begrijpen.

Wetenschap

Het partnerschap met het DOE positioneert Claude als een instrument voor wetenschappelijke ontdekking op nationale schaal.

Proactieve regulering

In plaats van regulering te ondergaan, anticipeert Anthropic erop met SB53 en de maatregelen voor gebruikerswelzijn.


Bronnen