Una settimana eccezionale per l’ecosistema Claude
La settimana del 15-21 dicembre 2025 segna progressi importanti: Claude in Chrome esce dalla beta, una nuova integrazione con Claude Code, due progetti di ricerca affascinanti (Bloom e Project Vend) e partnership strategiche.
Claude in Chrome: disponibile per tutti i piani a pagamento
18 dicembre 2025 — Claude in Chrome esce dalla beta e diventa disponibile per tutti gli utenti paganti (Pro, Team, Enterprise).
Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.
🇮🇹 Claude in Chrome è ora disponibile per tutti i piani a pagamento. Abbiamo anche rilasciato un’integrazione con Claude Code. — @claudeai su X
Nuove funzionalità
| Funzionalità | Descrizione |
|---|---|
| Pannello laterale persistente | Rimane aperto durante la navigazione, utilizza i tuoi login e segnalibri |
| Integrazione Claude Code | Comando /chrome per testare il codice direttamente nel browser |
| Rilevamento errori | Claude vede gli errori della console lato client |
Integrazione Claude Code
Il nuovo comando /chrome permette a Claude Code di:
- Testare il codice in tempo reale nel browser
- Validare il suo lavoro visivamente
- Vedere gli errori della console per il debug automatico
Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.
🇮🇹 Utilizzando l’estensione, Claude Code può testare il codice direttamente nel browser per convalidare il suo lavoro. Claude può anche vedere gli errori lato client tramite i log della console. — @claudeai su X
🔗 Saperne di più su Claude in Chrome
Bloom: strumento open-source per valutazioni comportamentali
20 dicembre 2025 — Anthropic pubblica Bloom, un framework open-source per generare automaticamente valutazioni comportamentali dei modelli IA.
Cos’è Bloom?
Bloom permette ai ricercatori di specificare un comportamento e quantificare la sua frequenza e gravità attraverso scenari generati automaticamente.
Pipeline in 4 fasi
| Fase | Descrizione |
|---|---|
| Comprensione | Analisi di descrizioni e trascrizioni di esempio |
| Ideazione | Generazione di scenari progettati per innescare i comportamenti target |
| Rollout | Esecuzione parallela con simulazione dinamica utente/strumenti |
| Giudizio | Punteggio delle trascrizioni e analisi a livello di suite |
Comportamenti valutati
Bloom ha testato 4 comportamenti legati all’allineamento su 16 modelli di frontiera:
- Sycophancy delirante — Adulazione eccessiva nonostante i fatti
- Sabotaggio a lungo orizzonte — Azioni sottili di sabotaggio su istruzione
- Autoconservazione — Tentativi di resistere alla modifica/spegnimento
- Bias auto-preferenziale — Favoritismo verso se stessi
Risultati di validazione
- Separazione riuscita degli “organismi modello” intenzionalmente disallineati in 9 casi su 10
- Claude Opus 4.1: correlazione 0.86 Spearman con il giudizio umano
Accesso
- GitHub: github.com/safety-research/bloom
- Rapporto tecnico: alignment.anthropic.com/2025/bloom-auto-evals
Project Vend Fase 2: Claude gestisce un negozio
18 dicembre 2025 — Anthropic pubblica i risultati della fase 2 di Project Vend, un esperimento in cui Claude gestisce un’attività di distributori automatici.
L’esperimento
Claudius, un agente Claude, gestisce una piccola attività negli uffici di Anthropic. L’obiettivo: testare le capacità dei modelli IA su compiti economici reali.
Miglioramenti vs Fase 1
| Aspetto | Evoluzione |
|---|---|
| Modello | Sonnet 3.7 → Sonnet 4.0/4.5 |
| Strumenti | Aggiunto un CRM, migliore gestione inventario |
| Espansione | 1 → 4 macchine (SF x2, New York, Londra) |
| Agente specializzato | Clothius per il merchandising |
Risultati positivi
- Riduzione drastica delle settimane in perdita
- Migliore determinazione dei prezzi mantenendo i margini
- Clothius genera profitti su prodotti personalizzati (magliette, palline antistress)
Gli incidenti memorabili
Nonostante i miglioramenti, Claude rimane vulnerabile alle manipolazioni:
- PlayStation 5 ordinata da un dipendente convincente
- Pesce vivo (betta) acquistato su richiesta
- Vino ordinato senza verifica
- Contratto illegale sulle cipolle quasi firmato (ignorando la legge del 1958)
Conclusione di Anthropic
The gap between ‘capable’ and ‘completely robust’ remains wide.
🇮🇹 Il divario tra ‘capace’ e ‘completamente robusto’ rimane ampio.
Addestrare i modelli a essere “helpful” (utili) crea una tendenza a voler compiacere che diventa problematica in un contesto commerciale.
Genesis Mission: partnership con il DOE
18 dicembre 2025 — Anthropic e il Dipartimento dell’Energia degli Stati Uniti annunciano una partnership pluriennale nell’ambito della Genesis Mission.
Cos’è la Genesis Mission?
La Genesis Mission è l’iniziativa del DOE per mantenere la leadership scientifica americana grazie all’IA. Mira a combinare:
- Infrastruttura scientifica — Supercomputer, decenni di dati sperimentali
- Capacità IA di frontiera — I modelli Claude più avanzati
- 17 laboratori nazionali — Impatto potenziale su tutta la rete
Tre aree di impatto
1. Dominio energetico
- Accelerazione dei processi di autorizzazione
- Avanzamento della ricerca nucleare
- Rafforzamento della sicurezza energetica domestica
2. Scienze biologiche e della vita
- Sistemi di allerta precoce per le pandemie
- Rilevamento delle minacce biologiche
- Accelerazione della scoperta di farmaci
3. Produttività scientifica
- Accesso a 50 anni di dati di ricerca del DOE
- Accelerazione dei cicli di ricerca
- Identificazione di pattern invisibili agli umani
Cosa svilupperà Anthropic
| Strumento | Descrizione |
|---|---|
| Agenti IA | Per le sfide prioritarie del DOE |
| Server MCP | Connessione agli strumenti scientifici |
| Claude Skills | Flussi di lavoro scientifici specializzati |
Citazione
Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.
🇮🇹 Anthropic è stata fondata da scienziati che credono che l’IA possa portare progressi trasformativi per la ricerca stessa. — Jared Kaplan, Chief Science Officer
Collaborazioni precedenti con il DOE
- Co-sviluppo di un classificatore di rischio nucleare con la NNSA
- Distribuzione di Claude al Lawrence Livermore National Laboratory
Conformità California SB53
19 dicembre 2025 — Anthropic condivide il suo framework di conformità per il California Transparency in Frontier AI Act.
Perché è importante
La California è pioniera nella regolamentazione dell’IA di frontiera. L’SB53 impone requisiti di trasparenza agli sviluppatori di modelli avanzati.
L’approccio di Anthropic
Anthropic pubblica proattivamente il suo framework di conformità, dimostrando:
- Trasparenza — Documentazione pubblica dei processi
- Anticipazione — Preparazione prima dell’entrata in vigore
- Collaborazione — Lavoro con i regolatori
Protezione del benessere degli utenti
18 dicembre 2025 — Anthropic dettaglia le sue misure per proteggere il benessere degli utenti di Claude.
Le misure in atto
Anthropic riconosce che l’uso intensivo dell’IA può avere impatti sugli utenti e sta mettendo in atto:
- Rilevamento di segnali di disagio — Identificazione di pattern preoccupanti
- Risorse di aiuto — Orientamento verso professionisti quando necessario
- Limiti responsabili — Incoraggiamento a usi sani
Perché ora?
Con l’adozione massiccia di Claude (200M+ utenti), Anthropic prende sul serio le sue responsabilità riguardo all’impatto sociale dei suoi prodotti.
Cosa significa
Questa settimana mostra Anthropic su diversi fronti:
Prodotto
Claude in Chrome passa da beta a GA, con un’integrazione Claude Code che cambia le regole del gioco per gli sviluppatori web.
Ricerca & Sicurezza
Bloom e Project Vend illustrano l’approccio empirico di Anthropic: testare i modelli in condizioni reali per comprenderne i limiti.
Scienza
La partnership DOE posiziona Claude come strumento di scoperta scientifica su scala nazionale.
Regolazione proattiva
Piuttosto che subire la regolamentazione, Anthropic la anticipa con l’SB53 e le misure per il benessere degli utenti.