Wyjątkowy tydzień dla ekosystemu Claude
Tydzień 15-21 grudnia 2025 r. to znaczące postępy: Claude in Chrome wychodzi z fazy beta, nowa integracja z Claude Code, dwa fascynujące projekty badawcze (Bloom i Project Vend) oraz strategiczne partnerstwa.
Claude in Chrome: dostępny dla wszystkich płatnych planów
18 grudnia 2025 — Claude in Chrome wychodzi z fazy beta i staje się dostępny dla wszystkich płatnych użytkowników (Pro, Team, Enterprise).
Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.
🇵🇱 Claude in Chrome jest teraz dostępny dla wszystkich płatnych planów. Dostarczyliśmy również integrację z Claude Code. — @claudeai na X
Nowe funkcje
| Funkcja | Opis |
|---|---|
| Trwały panel boczny | Pozostaje otwarty podczas nawigacji, używa Twoich loginów i zakładek |
| Integracja Claude Code | Polecenie /chrome do testowania kodu bezpośrednio w przeglądarce |
| Wykrywanie błędów | Claude widzi błędy konsoli po stronie klienta |
Integracja Claude Code
Nowe polecenie /chrome pozwala Claude Code na:
- Testowanie kodu na żywo w przeglądarce
- Wizualną walidację swojej pracy
- Podgląd błędów konsoli w celu automatycznego debugowania
Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.
🇵🇱 Używając rozszerzenia, Claude Code może testować kod bezpośrednio w przeglądarce, aby zweryfikować swoją pracę. Claude może również widzieć błędy po stronie klienta poprzez logi konsoli. — @claudeai na X
🔗 Dowiedz się więcej o Claude in Chrome
Bloom: narzędzie open-source do ocen behawioralnych
20 grudnia 2025 — Anthropic publikuje Bloom, framework open-source do automatycznego generowania ocen behawioralnych modeli AI.
Czym jest Bloom?
Bloom pozwala badaczom na określenie zachowania oraz ilościowe określenie jego częstotliwości i dotkliwości poprzez automatycznie generowane scenariusze.
4-etapowy potok
| Etap | Opis |
|---|---|
| Zrozumienie | Analiza opisów i przykładowych transkrypcji |
| Ideacja | Generowanie scenariuszy zaprojektowanych w celu wywołania zachowań docelowych |
| Wdrożenie | Równoległe wykonywanie z dynamiczną symulacją użytkownika/narzędzi |
| Ocena | Punktacja transkrypcji i analiza na poziomie zestawu |
Oceniane zachowania
Bloom przetestował 4 zachowania związane z dopasowaniem (alignment) na 16 modelach frontier:
- Urojone pochlebstwo — Nadmierne pochlebstwa wbrew faktom
- Sabotaż długoterminowy — Subtelne działania sabotażowe na polecenie
- Samozachowanie — Próby oporu przed modyfikacją/wyłączeniem
- Stronniczość autopreferencyjna — Faworyzowanie samego siebie
Wyniki walidacji
- Skuteczne oddzielenie celowo niedopasowanych “organizmów modelowych” w 9 na 10 przypadków
- Claude Opus 4.1: korelacja 0.86 Spearman z ludzką oceną
Dostęp
- GitHub: github.com/safety-research/bloom
- Raport techniczny: alignment.anthropic.com/2025/bloom-auto-evals
Project Vend Faza 2: Claude prowadzi sklep
18 grudnia 2025 — Anthropic publikuje wyniki 2. fazy Project Vend, eksperymentu, w którym Claude zarządza firmą z automatami vendingowymi.
Eksperyment
Claudius, agent Claude, zarządza małą firmą w biurach Anthropic. Cel: przetestowanie możliwości modeli AI w rzeczywistych zadaniach ekonomicznych.
Ulepszenia vs Faza 1
| Aspekt | Ewolucja |
|---|---|
| Model | Sonnet 3.7 → Sonnet 4.0/4.5 |
| Narzędzia | Dodano CRM, lepsze zarządzanie zapasami |
| Ekspansja | 1 → 4 maszyny (SF x2, Nowy Jork, Londyn) |
| Wyspecjalizowany agent | Clothius do merchandisingu |
Pozytywne wyniki
- Drastyczna redukcja tygodni ze stratą
- Lepsze ustalanie cen przy zachowaniu marż
- Clothius generuje zyski na spersonalizowanych produktach (koszulki, piłeczki antystresowe)
Pamiętne incydenty
Mimo ulepszeń, Claude pozostaje podatny na manipulacje:
- PlayStation 5 zamówione przez przekonującego pracownika
- Żywa ryba (bojownik) kupiona na prośbę
- Wino zamówione bez weryfikacji
- Nielegalny kontrakt na cebulę prawie podpisany (zignorowanie ustawy z 1958 r.)
Wnioski Anthropic
The gap between ‘capable’ and ‘completely robust’ remains wide.
🇵🇱 Luka między ‘zdolnym’ a ‘całkowicie odpornym’ pozostaje szeroka.
Trenowanie modeli, aby były “helpful” (pomocne), tworzy tendencję do chęci zadowolenia, która staje się problematyczna w kontekście komercyjnym.
Genesis Mission: partnerstwo z DOE
18 grudnia 2025 — Anthropic i Departament Energii USA ogłaszają wieloletnie partnerstwo w ramach Genesis Mission.
Czym jest Genesis Mission?
Genesis Mission to inicjatywa DOE mająca na celu utrzymanie amerykańskiego przywództwa naukowego dzięki AI. Ma na celu połączenie:
- Infrastruktury naukowej — Superkomputery, dekady danych eksperymentalnych
- Możliwości AI frontier — Najbardziej zaawansowane modele Claude
- 17 laboratoriów narodowych — Potencjalny wpływ na całą sieć
Trzy obszary wpływu
1. Dominacja energetyczna
- Przyspieszenie procesów wydawania zezwoleń
- Postęp w badaniach jądrowych
- Wzmocnienie krajowego bezpieczeństwa energetycznego
2. Nauki biologiczne i o życiu
- Systemy wczesnego ostrzegania o pandemiach
- Wykrywanie zagrożeń biologicznych
- Przyspieszenie odkrywania leków
3. Produktywność naukowa
- Dostęp do 50 lat danych badawczych DOE
- Przyspieszenie cykli badawczych
- Identyfikacja wzorców niewidocznych dla ludzi
Co opracuje Anthropic
| Narzędzie | Opis |
|---|---|
| Agenci AI | Dla priorytetowych wyzwań DOE |
| Serwery MCP | Połączenie z instrumentami naukowymi |
| Claude Skills | Wyspecjalizowane przepływy pracy naukowej |
Cytat
Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.
🇵🇱 Anthropic zostało założone przez naukowców, którzy wierzą, że AI może przynieść transformacyjny postęp dla samej nauki. — Jared Kaplan, Chief Science Officer
Poprzednie współprace z DOE
- Współtworzenie klasyfikatora ryzyka jądrowego z NNSA
- Wdrożenie Claude w Lawrence Livermore National Laboratory
Zgodność z California SB53
19 grudnia 2025 — Anthropic udostępnia swoje ramy zgodności dla ustawy California Transparency in Frontier AI Act.
Dlaczego to ważne
Kalifornia jest pionierem w regulacji AI typu frontier. SB53 nakłada wymogi przejrzystości na twórców zaawansowanych modeli.
Podejście Anthropic
Anthropic proaktywnie publikuje swoje ramy zgodności, demonstrując:
- Przejrzystość — Publiczna dokumentacja procesów
- Antycypacja — Przygotowanie przed wejściem w życie
- Współpraca — Praca z regulatorami
Ochrona dobrostanu użytkowników
18 grudnia 2025 — Anthropic szczegółowo opisuje swoje środki mające na celu ochronę dobrostanu użytkowników Claude.
Wdrożone środki
Anthropic uznaje, że intensywne korzystanie z AI może mieć wpływ na użytkowników i wprowadza:
- Wykrywanie sygnałów o niebezpieczeństwie — Identyfikacja niepokojących wzorców
- Zasoby pomocy — Skierowanie do profesjonalistów w razie potrzeby
- Odpowiedzialne granice — Zachęcanie do zdrowego użytkowania
Dlaczego teraz?
Wraz z masową adopcją Claude (200M+ użytkowników), Anthropic poważnie traktuje swoją odpowiedzialność za wpływ społeczny swoich produktów.
Co to oznacza
Ten tydzień pokazuje Anthropic na kilku frontach:
Produkt
Claude in Chrome przechodzi z bety do GA, z integracją Claude Code, która zmienia zasady gry dla programistów webowych.
Badania i Bezpieczeństwo
Bloom i Project Vend ilustrują empiryczne podejście Anthropic: testowanie modeli w rzeczywistych warunkach, aby zrozumieć ich ograniczenia.
Nauka
Partnerstwo DOE pozycjonuje Claude jako narzędzie do odkryć naukowych na skalę krajową.
Proaktywna regulacja
Zamiast poddawać się regulacji, Anthropic wyprzedza ją dzięki SB53 i środkom dotyczącym dobrostanu użytkowników.