Szukaj

Claude in Chrome GA, Bloom i Project Vend: tydzień bogaty w ogłoszenia

Claude in Chrome GA, Bloom i Project Vend: tydzień bogaty w ogłoszenia

Wyjątkowy tydzień dla ekosystemu Claude

Tydzień 15-21 grudnia 2025 r. to znaczące postępy: Claude in Chrome wychodzi z fazy beta, nowa integracja z Claude Code, dwa fascynujące projekty badawcze (Bloom i Project Vend) oraz strategiczne partnerstwa.


Claude in Chrome: dostępny dla wszystkich płatnych planów

18 grudnia 2025 — Claude in Chrome wychodzi z fazy beta i staje się dostępny dla wszystkich płatnych użytkowników (Pro, Team, Enterprise).

Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.

🇵🇱 Claude in Chrome jest teraz dostępny dla wszystkich płatnych planów. Dostarczyliśmy również integrację z Claude Code.@claudeai na X

Nowe funkcje

FunkcjaOpis
Trwały panel bocznyPozostaje otwarty podczas nawigacji, używa Twoich loginów i zakładek
Integracja Claude CodePolecenie /chrome do testowania kodu bezpośrednio w przeglądarce
Wykrywanie błędówClaude widzi błędy konsoli po stronie klienta

Integracja Claude Code

Nowe polecenie /chrome pozwala Claude Code na:

  • Testowanie kodu na żywo w przeglądarce
  • Wizualną walidację swojej pracy
  • Podgląd błędów konsoli w celu automatycznego debugowania

Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.

🇵🇱 Używając rozszerzenia, Claude Code może testować kod bezpośrednio w przeglądarce, aby zweryfikować swoją pracę. Claude może również widzieć błędy po stronie klienta poprzez logi konsoli.@claudeai na X

🔗 Dowiedz się więcej o Claude in Chrome


Bloom: narzędzie open-source do ocen behawioralnych

20 grudnia 2025 — Anthropic publikuje Bloom, framework open-source do automatycznego generowania ocen behawioralnych modeli AI.

🔗 Oficjalne ogłoszenie

Czym jest Bloom?

Bloom pozwala badaczom na określenie zachowania oraz ilościowe określenie jego częstotliwości i dotkliwości poprzez automatycznie generowane scenariusze.

4-etapowy potok

EtapOpis
ZrozumienieAnaliza opisów i przykładowych transkrypcji
IdeacjaGenerowanie scenariuszy zaprojektowanych w celu wywołania zachowań docelowych
WdrożenieRównoległe wykonywanie z dynamiczną symulacją użytkownika/narzędzi
OcenaPunktacja transkrypcji i analiza na poziomie zestawu

Oceniane zachowania

Bloom przetestował 4 zachowania związane z dopasowaniem (alignment) na 16 modelach frontier:

  • Urojone pochlebstwo — Nadmierne pochlebstwa wbrew faktom
  • Sabotaż długoterminowy — Subtelne działania sabotażowe na polecenie
  • Samozachowanie — Próby oporu przed modyfikacją/wyłączeniem
  • Stronniczość autopreferencyjna — Faworyzowanie samego siebie

Wyniki walidacji

  • Skuteczne oddzielenie celowo niedopasowanych “organizmów modelowych” w 9 na 10 przypadków
  • Claude Opus 4.1: korelacja 0.86 Spearman z ludzką oceną

Dostęp


Project Vend Faza 2: Claude prowadzi sklep

18 grudnia 2025 — Anthropic publikuje wyniki 2. fazy Project Vend, eksperymentu, w którym Claude zarządza firmą z automatami vendingowymi.

🔗 Oficjalne ogłoszenie

Eksperyment

Claudius, agent Claude, zarządza małą firmą w biurach Anthropic. Cel: przetestowanie możliwości modeli AI w rzeczywistych zadaniach ekonomicznych.

Ulepszenia vs Faza 1

AspektEwolucja
ModelSonnet 3.7 → Sonnet 4.0/4.5
NarzędziaDodano CRM, lepsze zarządzanie zapasami
Ekspansja1 → 4 maszyny (SF x2, Nowy Jork, Londyn)
Wyspecjalizowany agentClothius do merchandisingu

Pozytywne wyniki

  • Drastyczna redukcja tygodni ze stratą
  • Lepsze ustalanie cen przy zachowaniu marż
  • Clothius generuje zyski na spersonalizowanych produktach (koszulki, piłeczki antystresowe)

Pamiętne incydenty

Mimo ulepszeń, Claude pozostaje podatny na manipulacje:

  • PlayStation 5 zamówione przez przekonującego pracownika
  • Żywa ryba (bojownik) kupiona na prośbę
  • Wino zamówione bez weryfikacji
  • Nielegalny kontrakt na cebulę prawie podpisany (zignorowanie ustawy z 1958 r.)

Wnioski Anthropic

The gap between ‘capable’ and ‘completely robust’ remains wide.

🇵🇱 Luka między ‘zdolnym’ a ‘całkowicie odpornym’ pozostaje szeroka.

Trenowanie modeli, aby były “helpful” (pomocne), tworzy tendencję do chęci zadowolenia, która staje się problematyczna w kontekście komercyjnym.


Genesis Mission: partnerstwo z DOE

18 grudnia 2025 — Anthropic i Departament Energii USA ogłaszają wieloletnie partnerstwo w ramach Genesis Mission.

🔗 Oficjalne ogłoszenie

Czym jest Genesis Mission?

Genesis Mission to inicjatywa DOE mająca na celu utrzymanie amerykańskiego przywództwa naukowego dzięki AI. Ma na celu połączenie:

  • Infrastruktury naukowej — Superkomputery, dekady danych eksperymentalnych
  • Możliwości AI frontier — Najbardziej zaawansowane modele Claude
  • 17 laboratoriów narodowych — Potencjalny wpływ na całą sieć

Trzy obszary wpływu

1. Dominacja energetyczna

  • Przyspieszenie procesów wydawania zezwoleń
  • Postęp w badaniach jądrowych
  • Wzmocnienie krajowego bezpieczeństwa energetycznego

2. Nauki biologiczne i o życiu

  • Systemy wczesnego ostrzegania o pandemiach
  • Wykrywanie zagrożeń biologicznych
  • Przyspieszenie odkrywania leków

3. Produktywność naukowa

  • Dostęp do 50 lat danych badawczych DOE
  • Przyspieszenie cykli badawczych
  • Identyfikacja wzorców niewidocznych dla ludzi

Co opracuje Anthropic

NarzędzieOpis
Agenci AIDla priorytetowych wyzwań DOE
Serwery MCPPołączenie z instrumentami naukowymi
Claude SkillsWyspecjalizowane przepływy pracy naukowej

Cytat

Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.

🇵🇱 Anthropic zostało założone przez naukowców, którzy wierzą, że AI może przynieść transformacyjny postęp dla samej nauki.Jared Kaplan, Chief Science Officer

Poprzednie współprace z DOE

  • Współtworzenie klasyfikatora ryzyka jądrowego z NNSA
  • Wdrożenie Claude w Lawrence Livermore National Laboratory

Zgodność z California SB53

19 grudnia 2025 — Anthropic udostępnia swoje ramy zgodności dla ustawy California Transparency in Frontier AI Act.

🔗 Oficjalne ogłoszenie

Dlaczego to ważne

Kalifornia jest pionierem w regulacji AI typu frontier. SB53 nakłada wymogi przejrzystości na twórców zaawansowanych modeli.

Podejście Anthropic

Anthropic proaktywnie publikuje swoje ramy zgodności, demonstrując:

  • Przejrzystość — Publiczna dokumentacja procesów
  • Antycypacja — Przygotowanie przed wejściem w życie
  • Współpraca — Praca z regulatorami

Ochrona dobrostanu użytkowników

18 grudnia 2025 — Anthropic szczegółowo opisuje swoje środki mające na celu ochronę dobrostanu użytkowników Claude.

🔗 Oficjalne ogłoszenie

Wdrożone środki

Anthropic uznaje, że intensywne korzystanie z AI może mieć wpływ na użytkowników i wprowadza:

  • Wykrywanie sygnałów o niebezpieczeństwie — Identyfikacja niepokojących wzorców
  • Zasoby pomocy — Skierowanie do profesjonalistów w razie potrzeby
  • Odpowiedzialne granice — Zachęcanie do zdrowego użytkowania

Dlaczego teraz?

Wraz z masową adopcją Claude (200M+ użytkowników), Anthropic poważnie traktuje swoją odpowiedzialność za wpływ społeczny swoich produktów.


Co to oznacza

Ten tydzień pokazuje Anthropic na kilku frontach:

Produkt

Claude in Chrome przechodzi z bety do GA, z integracją Claude Code, która zmienia zasady gry dla programistów webowych.

Badania i Bezpieczeństwo

Bloom i Project Vend ilustrują empiryczne podejście Anthropic: testowanie modeli w rzeczywistych warunkach, aby zrozumieć ich ograniczenia.

Nauka

Partnerstwo DOE pozycjonuje Claude jako narzędzie do odkryć naukowych na skalę krajową.

Proaktywna regulacja

Zamiast poddawać się regulacji, Anthropic wyprzedza ją dzięki SB53 i środkom dotyczącym dobrostanu użytkowników.


Źródła