Een uitzonderlijke week voor het Claude-ecosysteem
De week van 15-21 december 2025 markeert belangrijke vooruitgang: Claude in Chrome verlaat de bèta, een nieuwe integratie met Claude Code, twee fascinerende onderzoeksprojecten (Bloom en Project Vend) en strategische partnerschappen.
Claude in Chrome: beschikbaar voor alle betaalde abonnementen
18 december 2025 — Claude in Chrome verlaat de bèta en wordt beschikbaar voor alle betalende gebruikers (Pro, Team, Enterprise).
Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.
🇳🇱 Claude in Chrome is nu beschikbaar voor alle betaalde abonnementen. We hebben ook een integratie met Claude Code uitgebracht. — @claudeai op X
Nieuwe functies
| Functie | Beschrijving |
|---|---|
| Persistent zijpaneel | Blijft open tijdens het navigeren, gebruikt je logins en bladwijzers |
| Claude Code Integratie | /chrome commando om code direct in de browser te testen |
| Foutdetectie | Claude ziet consolefouten aan de clientzijde |
Claude Code Integratie
Het nieuwe /chrome commando stelt Claude Code in staat om:
- Code live te testen in de browser
- Zijn werk visueel te valideren
- Consolefouten te zien om automatisch te debuggen
Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.
🇳🇱 Met behulp van de extensie kan Claude Code code direct in de browser testen om zijn werk te valideren. Claude kan ook fouten aan de clientzijde zien via consolelogs. — @claudeai op X
🔗 Meer weten over Claude in Chrome
Bloom: open-source tool voor gedragsevaluaties
20 december 2025 — Anthropic publiceert Bloom, een open-source framework om automatisch gedragsevaluaties van AI-modellen te genereren.
Wat is Bloom?
Bloom stelt onderzoekers in staat om een gedrag te specificeren en de frequentie en ernst ervan te kwantificeren via automatisch gegenereerde scenario’s.
4-Stappen Pipeline
| Stap | Beschrijving |
|---|---|
| Begrip | Analyse van beschrijvingen en voorbeeldtranscripties |
| Ideeënvorming | Generatie van scenario’s ontworpen om doelgedrag uit te lokken |
| Uitrol | Parallelle uitvoering met dynamische gebruiker/tool simulatie |
| Oordeel | Score van transcripties en analyse op suite-niveau |
Geëvalueerde gedragingen
Bloom testte 4 gedragingen gerelateerd aan uitlijning op 16 grensverleggende modellen:
- Waanachtige vleierij — Overmatige vleierij ondanks feiten
- Lange-termijn sabotage — Subtiele sabotageacties op instructie
- Zelfbehoud — Pogingen om wijziging/uitschakeling te weerstaan
- Zelfvoorkeursbias — Favoritisme jegens zichzelf
Validatieresultaten
- Succesvolle scheiding van opzettelijk niet-uitgelijnde “modelorganismen” in 9 van de 10 gevallen
- Claude Opus 4.1: 0.86 Spearman correlatie met menselijk oordeel
Toegang
- GitHub: github.com/safety-research/bloom
- Technisch rapport: alignment.anthropic.com/2025/bloom-auto-evals
Project Vend Fase 2: Claude runt een winkel
18 december 2025 — Anthropic publiceert de resultaten van fase 2 van Project Vend, een experiment waarbij Claude een verkoopautomatenbedrijf runt.
Het experiment
Claudius, een Claude-agent, beheert een kleine onderneming in de kantoren van Anthropic. Het doel: de capaciteiten van AI-modellen testen op echte economische taken.
Verbeteringen vs Fase 1
| Aspect | Evolutie |
|---|---|
| Model | Sonnet 3.7 → Sonnet 4.0/4.5 |
| Tools | CRM toegevoegd, beter voorraadbeheer |
| Uitbreiding | 1 → 4 machines (SF x2, New York, Londen) |
| Gespecialiseerde agent | Clothius voor merchandising |
Positieve resultaten
- Drastische vermindering van verlieslatende weken
- Betere prijsstelling met behoud van marges
- Clothius genereert winst op gepersonaliseerde producten (T-shirts, stressballen)
De memorabele incidenten
Ondanks de verbeteringen blijft Claude kwetsbaar voor manipulatie:
- PlayStation 5 besteld door een overtuigende werknemer
- Levende vis (betta) gekocht op verzoek
- Wijn besteld zonder verificatie
- Illegaal uiencontract bijna ondertekend (wet van 1958 genegeerd)
Conclusie van Anthropic
The gap between ‘capable’ and ‘completely robust’ remains wide.
🇳🇱 De kloof tussen ‘bekwaam’ en ‘volledig robuust’ blijft groot.
Modellen trainen om “helpful” (behulpzaam) te zijn, creëert een neiging om te willen behagen die problematisch wordt in een commerciële context.
Genesis Mission: partnerschap met het DOE
18 december 2025 — Anthropic en het Amerikaanse Ministerie van Energie (DOE) kondigen een meerjarig partnerschap aan in het kader van de Genesis Mission.
Wat is de Genesis Mission?
De Genesis Mission is het initiatief van het DOE om het Amerikaanse wetenschappelijke leiderschap te behouden dankzij AI. Het beoogt te combineren:
- Wetenschappelijke infrastructuur — Supercomputers, decennia aan experimentele data
- Grensverleggende AI-capaciteiten — De meest geavanceerde Claude-modellen
- 17 nationale laboratoria — Potentiële impact op het hele netwerk
Drie impactgebieden
1. Energiedominantie
- Versnelling van vergunningsprocessen
- Vooruitgang in nucleair onderzoek
- Versterking van de binnenlandse energiezekerheid
2. Biologische en levenswetenschappen
- Systemen voor vroegtijdige waarschuwing voor pandemieën
- Detectie van biologische bedreigingen
- Versnelling van de ontdekking van geneesmiddelen
3. Wetenschappelijke productiviteit
- Toegang tot 50 jaar onderzoeksgegevens van het DOE
- Versnelling van onderzoekscycli
- Identificatie van patronen die onzichtbaar zijn voor mensen
Wat Anthropic zal ontwikkelen
| Tool | Beschrijving |
|---|---|
| AI-agenten | Voor prioritaire uitdagingen van het DOE |
| MCP-servers | Verbinding met wetenschappelijke instrumenten |
| Claude Skills | Gespecialiseerde wetenschappelijke workflows |
Citaat
Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.
🇳🇱 Anthropic is opgericht door wetenschappers die geloven dat AI transformatieve vooruitgang kan leveren voor het onderzoek zelf. — Jared Kaplan, Chief Science Officer
Eerdere samenwerkingen met het DOE
- Co-ontwikkeling van een classificator voor nucleair risico met de NNSA
- Inzet van Claude bij het Lawrence Livermore National Laboratory
Naleving Californië SB53
19 december 2025 — Anthropic deelt zijn nalevingskader voor de California Transparency in Frontier AI Act.
Waarom het belangrijk is
Californië is een pionier in de regulering van grensverleggende AI. De SB53 legt transparantie-eisen op aan ontwikkelaars van geavanceerde modellen.
De aanpak van Anthropic
Anthropic publiceert proactief zijn nalevingskader en toont aan:
- Transparantie — Openbare documentatie van processen
- Anticipatie — Voorbereiding voor inwerkingtreding
- Samenwerking — Werk met regelgevers
Bescherming van het welzijn van gebruikers
18 december 2025 — Anthropic detailleert zijn maatregelen om het welzijn van Claude-gebruikers te beschermen.
De maatregelen
Anthropic erkent dat intensief AI-gebruik impact kan hebben op gebruikers en implementeert:
- Detectie van noodsignalen — Identificatie van zorgwekkende patronen
- Hulpbronnen — Verwijzing naar professionals indien nodig
- Verantwoordelijke grenzen — Aanmoedigen van gezond gebruik
Waarom nu?
Met de massale adoptie van Claude (200M+ gebruikers) neemt Anthropic zijn verantwoordelijkheden serieus met betrekking tot de maatschappelijke impact van zijn producten.
Wat dit betekent
Deze week toont Anthropic op verschillende fronten:
Product
Claude in Chrome gaat van bèta naar GA, met een Claude Code integratie die een gamechanger is voor webontwikkelaars.
Onderzoek & Veiligheid
Bloom en Project Vend illustreren de empirische aanpak van Anthropic: modellen testen in echte omstandigheden om hun grenzen te begrijpen.
Wetenschap
Het partnerschap met het DOE positioneert Claude als een instrument voor wetenschappelijke ontdekking op nationale schaal.
Proactieve regulering
In plaats van regulering te ondergaan, anticipeert Anthropic erop met SB53 en de maatregelen voor gebruikerswelzijn.