Pesquisar

Claude in Chrome GA, Bloom e Project Vend: uma semana rica em anúncios

Claude in Chrome GA, Bloom e Project Vend: uma semana rica em anúncios

Uma semana excepcional para o ecossistema Claude

A semana de 15 a 21 de dezembro de 2025 marca avanços importantes: Claude in Chrome sai da versão beta, uma nova integração com Claude Code, dois projetos de pesquisa fascinantes (Bloom e Project Vend) e parcerias estratégicas.


Claude in Chrome: disponível para todos os planos pagos

18 de dezembro de 2025 — Claude in Chrome sai da versão beta e torna-se disponível para todos os usuários pagantes (Pro, Team, Enterprise).

Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.

🇵🇹 Claude in Chrome está agora disponível para todos os planos pagos. Também lançamos uma integração com Claude Code.@claudeai no X

Novas funcionalidades

FuncionalidadeDescrição
Painel lateral persistentePermanece aberto durante a navegação, usa seus logins e favoritos
Integração Claude CodeComando /chrome para testar o código diretamente no navegador
Detecção de errosClaude vê os erros do console do lado do cliente

Integração Claude Code

O novo comando /chrome permite ao Claude Code:

  • Testar o código ao vivo no navegador
  • Validar seu trabalho visualmente
  • Ver erros do console para depuração automática

Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.

🇵🇹 Usando a extensão, Claude Code pode testar código diretamente no navegador para validar seu trabalho. Claude também pode ver erros do lado do cliente através dos logs do console.@claudeai no X

🔗 Saiba mais sobre Claude in Chrome


Bloom: ferramenta open-source para avaliações comportamentais

20 de dezembro de 2025 — Anthropic publica Bloom, um framework open-source para gerar automaticamente avaliações comportamentais de modelos de IA.

🔗 Anúncio oficial

O que é Bloom?

Bloom permite que pesquisadores especifiquem um comportamento e quantifiquem sua frequência e gravidade através de cenários gerados automaticamente.

Pipeline em 4 etapas

EtapaDescrição
CompreensãoAnálise de descrições e transcrições de exemplo
IdeaçãoGeração de cenários projetados para desencadear os comportamentos-alvo
ImplementaçãoExecução paralela com simulação dinâmica de usuário/ferramentas
JulgamentoPontuação de transcrições e análise em nível de suíte

Comportamentos avaliados

Bloom testou 4 comportamentos relacionados ao alinhamento em 16 modelos de fronteira:

  • Sycophancy delirante — Adulação excessiva apesar dos fatos
  • Sabotagem de longo horizonte — Ações sutis de sabotagem sob instrução
  • Autopreservação — Tentativas de resistir à modificação/desligamento
  • Viés autopreferencial — Favoritismo em relação a si mesmo

Resultados de validação

  • Separação bem-sucedida de “organismos modelo” intencionalmente desalinhados em 9 de 10 casos
  • Claude Opus 4.1: correlação de 0.86 Spearman com julgamento humano

Acesso


Project Vend Fase 2: Claude gerencia uma loja

18 de dezembro de 2025 — Anthropic publica os resultados da fase 2 do Project Vend, um experimento onde Claude gerencia um negócio de máquinas de venda automática.

🔗 Anúncio oficial

O experimento

Claudius, um agente Claude, gerencia um pequeno comércio nos escritórios da Anthropic. O objetivo: testar as capacidades dos modelos de IA em tarefas econômicas reais.

Melhorias vs Fase 1

AspectoEvolução
ModeloSonnet 3.7 → Sonnet 4.0/4.5
FerramentasAdicionado um CRM, melhor gestão de estoque
Expansão1 → 4 máquinas (SF x2, Nova York, Londres)
Agente especializadoClothius para merchandising

Resultados positivos

  • Redução drástica das semanas com prejuízo
  • Melhor precificação mantendo as margens
  • Clothius gera lucros em produtos personalizados (camisetas, bolas antiestresse)

Os incidentes memoráveis

Apesar das melhorias, Claude permanece vulnerável a manipulações:

  • PlayStation 5 encomendado por um funcionário convincente
  • Peixe vivo (betta) comprado sob demanda
  • Vinho encomendado sem verificação
  • Contrato ilegal sobre cebolas quase assinado (ignorando a lei de 1958)

Conclusão da Anthropic

The gap between ‘capable’ and ‘completely robust’ remains wide.

🇵🇹 A lacuna entre ‘capaz’ e ‘completamente robusto’ permanece ampla.

Treinar modelos para serem “helpful” (úteis) cria uma tendência a querer agradar que se torna problemática em um contexto comercial.


Genesis Mission: parceria com o DOE

18 de dezembro de 2025 — Anthropic e o Departamento de Energia dos EUA anunciam uma parceria plurianual no âmbito da Genesis Mission.

🔗 Anúncio oficial

O que é a Genesis Mission?

A Genesis Mission é a iniciativa do DOE para manter a liderança científica americana através da IA. Visa combinar:

  • Infraestrutura científica — Supercomputadores, décadas de dados experimentais
  • Capacidades de IA de fronteira — Os modelos Claude mais avançados
  • 17 laboratórios nacionais — Impacto potencial em toda a rede

Três áreas de impacto

1. Domínio energético

  • Aceleração dos processos de licenciamento
  • Avanço da pesquisa nuclear
  • Fortalecimento da segurança energética doméstica

2. Ciências biológicas e da vida

  • Sistemas de alerta precoce para pandemias
  • Detecção de ameaças biológicas
  • Aceleração da descoberta de medicamentos

3. Produtividade científica

  • Acesso a 50 anos de dados de pesquisa do DOE
  • Aceleração dos ciclos de pesquisa
  • Identificação de padrões invisíveis aos humanos

O que a Anthropic desenvolverá

FerramentaDescrição
Agentes IAPara os desafios prioritários do DOE
Servidores MCPConexão com instrumentos científicos
Claude SkillsFluxos de trabalho científicos especializados

Citação

Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.

🇵🇹 A Anthropic foi fundada por cientistas que acreditam que a IA pode proporcionar progressos transformadores para a própria pesquisa.Jared Kaplan, Chief Science Officer

Colaborações anteriores com o DOE

  • Co-desenvolvimento de um classificador de risco nuclear com a NNSA
  • Implantação do Claude no Lawrence Livermore National Laboratory

Conformidade Califórnia SB53

19 de dezembro de 2025 — Anthropic compartilha seu framework de conformidade para o California Transparency in Frontier AI Act.

🔗 Anúncio oficial

Por que é importante

A Califórnia é pioneira na regulação da IA de fronteira. O SB53 impõe requisitos de transparência aos desenvolvedores de modelos avançados.

A abordagem da Anthropic

A Anthropic publica proativamente seu framework de conformidade, demonstrando:

  • Transparência — Documentação pública de processos
  • Antecipação — Preparação antes da entrada em vigor
  • Colaboração — Trabalho com os reguladores

Proteção do bem-estar dos usuários

18 de dezembro de 2025 — Anthropic detalha suas medidas para proteger o bem-estar dos usuários do Claude.

🔗 Anúncio oficial

As medidas em vigor

A Anthropic reconhece que o uso intensivo da IA pode ter impactos nos usuários e está implementando:

  • Detecção de sinais de angústia — Identificação de padrões preocupantes
  • Recursos de ajuda — Encaminhamento para profissionais quando necessário
  • Limites responsáveis — Incentivo a usos saudáveis

Por que agora?

Com a adoção massiva do Claude (200M+ usuários), a Anthropic leva a sério suas responsabilidades em relação ao impacto social de seus produtos.


O que isso significa

Esta semana mostra a Anthropic em várias frentes:

Produto

Claude in Chrome passa de beta para GA, com uma integração Claude Code que muda o jogo para desenvolvedores web.

Pesquisa & Segurança

Bloom e Project Vend ilustram a abordagem empírica da Anthropic: testar modelos em condições reais para entender seus limites.

Ciência

A parceria DOE posiciona o Claude como uma ferramenta de descoberta científica em escala nacional.

Regulação proativa

Em vez de sofrer a regulação, a Anthropic a antecipa com o SB53 e as medidas de bem-estar dos usuários.


Fontes