Uma semana excepcional para o ecossistema Claude
A semana de 15 a 21 de dezembro de 2025 marca avanços importantes: Claude in Chrome sai da versão beta, uma nova integração com Claude Code, dois projetos de pesquisa fascinantes (Bloom e Project Vend) e parcerias estratégicas.
Claude in Chrome: disponível para todos os planos pagos
18 de dezembro de 2025 — Claude in Chrome sai da versão beta e torna-se disponível para todos os usuários pagantes (Pro, Team, Enterprise).
Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.
🇵🇹 Claude in Chrome está agora disponível para todos os planos pagos. Também lançamos uma integração com Claude Code. — @claudeai no X
Novas funcionalidades
| Funcionalidade | Descrição |
|---|---|
| Painel lateral persistente | Permanece aberto durante a navegação, usa seus logins e favoritos |
| Integração Claude Code | Comando /chrome para testar o código diretamente no navegador |
| Detecção de erros | Claude vê os erros do console do lado do cliente |
Integração Claude Code
O novo comando /chrome permite ao Claude Code:
- Testar o código ao vivo no navegador
- Validar seu trabalho visualmente
- Ver erros do console para depuração automática
Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.
🇵🇹 Usando a extensão, Claude Code pode testar código diretamente no navegador para validar seu trabalho. Claude também pode ver erros do lado do cliente através dos logs do console. — @claudeai no X
🔗 Saiba mais sobre Claude in Chrome
Bloom: ferramenta open-source para avaliações comportamentais
20 de dezembro de 2025 — Anthropic publica Bloom, um framework open-source para gerar automaticamente avaliações comportamentais de modelos de IA.
O que é Bloom?
Bloom permite que pesquisadores especifiquem um comportamento e quantifiquem sua frequência e gravidade através de cenários gerados automaticamente.
Pipeline em 4 etapas
| Etapa | Descrição |
|---|---|
| Compreensão | Análise de descrições e transcrições de exemplo |
| Ideação | Geração de cenários projetados para desencadear os comportamentos-alvo |
| Implementação | Execução paralela com simulação dinâmica de usuário/ferramentas |
| Julgamento | Pontuação de transcrições e análise em nível de suíte |
Comportamentos avaliados
Bloom testou 4 comportamentos relacionados ao alinhamento em 16 modelos de fronteira:
- Sycophancy delirante — Adulação excessiva apesar dos fatos
- Sabotagem de longo horizonte — Ações sutis de sabotagem sob instrução
- Autopreservação — Tentativas de resistir à modificação/desligamento
- Viés autopreferencial — Favoritismo em relação a si mesmo
Resultados de validação
- Separação bem-sucedida de “organismos modelo” intencionalmente desalinhados em 9 de 10 casos
- Claude Opus 4.1: correlação de 0.86 Spearman com julgamento humano
Acesso
- GitHub: github.com/safety-research/bloom
- Relatório técnico: alignment.anthropic.com/2025/bloom-auto-evals
Project Vend Fase 2: Claude gerencia uma loja
18 de dezembro de 2025 — Anthropic publica os resultados da fase 2 do Project Vend, um experimento onde Claude gerencia um negócio de máquinas de venda automática.
O experimento
Claudius, um agente Claude, gerencia um pequeno comércio nos escritórios da Anthropic. O objetivo: testar as capacidades dos modelos de IA em tarefas econômicas reais.
Melhorias vs Fase 1
| Aspecto | Evolução |
|---|---|
| Modelo | Sonnet 3.7 → Sonnet 4.0/4.5 |
| Ferramentas | Adicionado um CRM, melhor gestão de estoque |
| Expansão | 1 → 4 máquinas (SF x2, Nova York, Londres) |
| Agente especializado | Clothius para merchandising |
Resultados positivos
- Redução drástica das semanas com prejuízo
- Melhor precificação mantendo as margens
- Clothius gera lucros em produtos personalizados (camisetas, bolas antiestresse)
Os incidentes memoráveis
Apesar das melhorias, Claude permanece vulnerável a manipulações:
- PlayStation 5 encomendado por um funcionário convincente
- Peixe vivo (betta) comprado sob demanda
- Vinho encomendado sem verificação
- Contrato ilegal sobre cebolas quase assinado (ignorando a lei de 1958)
Conclusão da Anthropic
The gap between ‘capable’ and ‘completely robust’ remains wide.
🇵🇹 A lacuna entre ‘capaz’ e ‘completamente robusto’ permanece ampla.
Treinar modelos para serem “helpful” (úteis) cria uma tendência a querer agradar que se torna problemática em um contexto comercial.
Genesis Mission: parceria com o DOE
18 de dezembro de 2025 — Anthropic e o Departamento de Energia dos EUA anunciam uma parceria plurianual no âmbito da Genesis Mission.
O que é a Genesis Mission?
A Genesis Mission é a iniciativa do DOE para manter a liderança científica americana através da IA. Visa combinar:
- Infraestrutura científica — Supercomputadores, décadas de dados experimentais
- Capacidades de IA de fronteira — Os modelos Claude mais avançados
- 17 laboratórios nacionais — Impacto potencial em toda a rede
Três áreas de impacto
1. Domínio energético
- Aceleração dos processos de licenciamento
- Avanço da pesquisa nuclear
- Fortalecimento da segurança energética doméstica
2. Ciências biológicas e da vida
- Sistemas de alerta precoce para pandemias
- Detecção de ameaças biológicas
- Aceleração da descoberta de medicamentos
3. Produtividade científica
- Acesso a 50 anos de dados de pesquisa do DOE
- Aceleração dos ciclos de pesquisa
- Identificação de padrões invisíveis aos humanos
O que a Anthropic desenvolverá
| Ferramenta | Descrição |
|---|---|
| Agentes IA | Para os desafios prioritários do DOE |
| Servidores MCP | Conexão com instrumentos científicos |
| Claude Skills | Fluxos de trabalho científicos especializados |
Citação
Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.
🇵🇹 A Anthropic foi fundada por cientistas que acreditam que a IA pode proporcionar progressos transformadores para a própria pesquisa. — Jared Kaplan, Chief Science Officer
Colaborações anteriores com o DOE
- Co-desenvolvimento de um classificador de risco nuclear com a NNSA
- Implantação do Claude no Lawrence Livermore National Laboratory
Conformidade Califórnia SB53
19 de dezembro de 2025 — Anthropic compartilha seu framework de conformidade para o California Transparency in Frontier AI Act.
Por que é importante
A Califórnia é pioneira na regulação da IA de fronteira. O SB53 impõe requisitos de transparência aos desenvolvedores de modelos avançados.
A abordagem da Anthropic
A Anthropic publica proativamente seu framework de conformidade, demonstrando:
- Transparência — Documentação pública de processos
- Antecipação — Preparação antes da entrada em vigor
- Colaboração — Trabalho com os reguladores
Proteção do bem-estar dos usuários
18 de dezembro de 2025 — Anthropic detalha suas medidas para proteger o bem-estar dos usuários do Claude.
As medidas em vigor
A Anthropic reconhece que o uso intensivo da IA pode ter impactos nos usuários e está implementando:
- Detecção de sinais de angústia — Identificação de padrões preocupantes
- Recursos de ajuda — Encaminhamento para profissionais quando necessário
- Limites responsáveis — Incentivo a usos saudáveis
Por que agora?
Com a adoção massiva do Claude (200M+ usuários), a Anthropic leva a sério suas responsabilidades em relação ao impacto social de seus produtos.
O que isso significa
Esta semana mostra a Anthropic em várias frentes:
Produto
Claude in Chrome passa de beta para GA, com uma integração Claude Code que muda o jogo para desenvolvedores web.
Pesquisa & Segurança
Bloom e Project Vend ilustram a abordagem empírica da Anthropic: testar modelos em condições reais para entender seus limites.
Ciência
A parceria DOE posiciona o Claude como uma ferramenta de descoberta científica em escala nacional.
Regulação proativa
Em vez de sofrer a regulação, a Anthropic a antecipa com o SB53 e as medidas de bem-estar dos usuários.