Szukaj

Rutyny Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 open source

Rutyny Claude Code, Gemini Robotics-ER 1.6, GLM-5.1 open source

14 kwietnia 2026 r. to intensywny dzień dla narzędzi deweloperskich wspieranych przez AI: Anthropic uruchamia rutyny w Claude Code, umożliwiając automatyzację całych workflowów na podstawie harmonogramu lub przez webhook, bez konieczności pozostawiania włączonego komputera. Google DeepMind publikuje Gemini Robotics-ER 1.6 z nowymi możliwościami percepcji przemysłowej opracowanymi wspólnie z Boston Dynamics. Z.ai udostępnia GLM-5.1 na licencji MIT, sklasyfikowany jako model open source nr 1 na SWE-Bench Pro. GitHub Copilot dodaje trzy przydatne funkcje: rozwiązywanie konfliktów w trzech kliknięciach, rezydencję danych US/EU oraz wybór modelu dla agentów firm trzecich.


Rutyny w Claude Code — badania wstępne (research preview)

14 kwietnia — Anthropic uruchamia rutyny w Claude Code w trybie research preview. Rutyna to automatyzacja skonfigurowana tylko raz — z promptem, repozytorium i konektorami — która następnie uruchamia się autonomicznie, bez potrzeby, aby użytkownik był stale zalogowany.

Dostępne są trzy typy wyzwalaczy:

TypWyzwalaczPrzykład użycia
Zaplanowana (Scheduled)Cron (godzina, noc, tydzień)Nocny triage błędów Linear, otwieranie PR z poprawką
APIWywołanie HTTP POST do dedykowanego endpointuAlert Datadog → automatyczny triage + szkic poprawki
WebhookZdarzenia GitHub (PR, push…)Automatyczny code review dla każdego otwartego PR

Każda rutyna ma własny endpoint i token uwierzytelniający. Rutyny API integrują się z dowolnym istniejącym pipeline’em (alerty, hooki wdrożeniowe, narzędzia wewnętrzne). Rutyny webhook uruchamiają nową sesję dla każdego PR spełniającego zdefiniowane filtry i zasilają sesję kolejnymi aktualizacjami (komentarze, nieudane integracje ciągłe).

“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”

🇵🇱 Skonfiguruj rutynę tylko raz (prompt, repozytorium i konektory), a może ona działać według harmonogramu, na podstawie wywołania API lub w odpowiedzi na zdarzenie. Rutyny działają na naszej infrastrukturze webowej, więc nie trzeba trzymać komputera włączonego.@claudeai na X

Dostępność i limity:

PlanRutyny/dzień
Pro5
Max15
Team / Enterprise25

Dostępne we wszystkich płatnych planach (Pro, Max, Team, Enterprise) z aktywnym Claude Code web. Po przekroczeniu limitów nadal możliwe jest dodatkowe użycie. Rutyny zużywają kredyty subskrypcji tak samo jak sesje interaktywne.

Udokumentowane przypadki użycia:

  • Zarządzanie backlogiem: nocny triage, etykietowanie, podsumowanie Slack
  • Dryf dokumentacji (docs drift): tygodniowe skanowanie scalonych PR, wykrywanie stron do aktualizacji
  • Weryfikacja po wdrożeniu: testy dymne (smoke checks) po każdej wersji
  • Portowanie SDK: każdy scalony PR w Pythonie automatycznie wyzwala portowanie do SDK Go

🔗 Blog Anthropic 🔗 Tweet ogłaszający


Claude Code v2.1.105 — hooki PreCompact, monitory pluginów, /proactive

11–13 kwietnia — Wersja 2.1.105 Claude Code przynosi kilka istotnych usprawnień:

FunkcjonalnośćOpis
Parametr path dla EnterWorktreeUmożliwia przełączenie na istniejący worktree bieżącego repozytorium
Hook PreCompactHooki mogą teraz blokować kompakcję (kod wyjścia 2 lub {"decision":"block"})
Background monitors dla pluginówKlucz monitors w manifeście pluginu — uzbrajany automatycznie przy starcie sesji
/proactiveNowy alias dla /loop
Rezygnacja z zablokowanych Streams APIRezygnacja po 5 minutach bez danych + ponowna próba w trybie non-streaming
Komunikaty błędów sieciowychNatychmiastowe wyświetlenie komunikatu retry zamiast cichego spinnera
Wyświetlanie długich plikówBardzo długie zapisy jednolinijkowe (np. zminifikowany JSON) są skracane w interfejsie
/doctor ulepszonyIkony statusu + klawisz f do poproszenia Claude o naprawienie wykrytych problemów

14 kwietnia — Wersja 2.1.107 wprowadza usprawnienie interfejsu: wskaźniki postępu (thinking hints) pokazują się teraz wcześniej podczas długich operacji, zmniejszając wrażenie oczekiwania bez informacji zwrotnej.

🔗 CHANGELOG Claude Code


Anthropic — Vas Narasimhan dołącza do rady nadzorczej

14 kwietnia — Long-Term Benefit Trust (LTBT) Anthropic mianował Vasa Narasimhana do rady nadzorczej. Lekarz-naukowiec i CEO Novartis nadzorował rozwój i zatwierdzenie ponad 35 innowacyjnych leków w jednym z najbardziej regulowanych sektorów na świecie.

Dzięki tej nominacji dyrektorzy mianowani przez Trust stanowią teraz większość rady. LTBT jest niezależnym organem, którego członkowie nie mają żadnego interesu finansowego w Anthropic — jego rolą jest utrzymywanie równowagi między sukcesem komercyjnym a misją długoterminowej korzyści publicznej.

🔗 Ogłoszenie Anthropic


Gemini Robotics-ER 1.6 — percepcja przemysłowa i bezpieczeństwo

14 kwietnia — Google DeepMind publikuje Gemini Robotics-ER 1.6, aktualizację swojego modelu osadzonego rozumowania (embodied reasoning) dla robotyki. Model poprawia rozumienie wizualne i przestrzenne, aby umożliwić robotom planowanie i wykonywanie rzeczywistych zadań z większą autonomią. Przewyższa Gemini Robotics-ER 1.5 oraz Gemini 3.0 Flash na wewnętrznych benchmarkach robotycznych.

Nowe możliwości:

MożliwośćOpis
Wskazywanie przestrzenne (Pointing)Wykrywanie i liczenie obiektów, logika relacyjna (mniejszy/większy), trajektorie i punkty chwytu, złożone ograniczenia
Wykrywanie sukcesu z wielu ujęćAnalizuje kilka kątów kamery, aby sprawdzić, czy zadanie zostało rzeczywiście wykonane
Odczyt instrumentówOdczytuje okrągłe manometry i przezroczyste rurki (sight glasses) — opracowane z Boston Dynamics do inspekcji przemysłowej
Bezpieczeństwo (benchmark ASIMOV v2)Najlepszy wynik spośród wszystkich testowanych modeli w przestrzeganiu zasad bezpieczeństwa

Możliwość odczytu instrumentów powstała we współpracy z Boston Dynamics dla robota Spot, używanego w inspekcjach instalacji przemysłowych. Łączy ona rozumowanie przestrzenne i wykonywanie kodu, aby z dużą precyzją interpretować manometry ciśnienia.

Dostępność: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio oraz notebook startowy na GitHub Colab.

🔗 Blog Google DeepMind 🔗 Tweet ogłaszający


GLM-5.1 — Z.ai udostępnia swój model agentowy na licencji MIT

7 kwietnia (nadrobione ogłoszenie — przeoczone podczas skanu z zeszłego tygodnia) — Z.ai (dawniej ZhipuAI) opublikowało GLM-5.1, swój nowy flagowy model do agentowego kodowania (agentic coding), dostępny jako open source na licencji MIT.

Wyniki na benchmarkach kodu:

BenchmarkGLM-5.1GLM-5Claude Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-Bench Pro58,455,157,357,754,2
NL2Repo42,735,949,841,333,4
Terminal-Bench 2.063,556,265,468,5

GLM-5.1 plasuje się jako nr 1 w open source i trzeci na świecie na SWE-Bench Pro, Terminal-Bench oraz NL2Repo.

Kluczowa różnica: długi horyzont. Poprzednie modele, w tym GLM-5, szybko poprawiają wyniki na początku, a potem osiągają pułap. GLM-5.1 został zaprojektowany tak, aby pozostawać skuteczny w zadaniach agentowych na znacznie dłuższych horyzontach: może pracować autonomicznie przez 8 godzin, dopracowując strategie w trakcie tysięcy wywołań narzędzi.

Trzy scenariusze ilustrują tę możliwość:

  • Optymalizacja bazy wektorowej przez 600 iteracji: GLM-5.1 osiąga 21 500 zapytań na sekundę na VectorDBBench, czyli 6 razy lepszy wynik niż najlepszy rezultat uzyskany podczas sesji 50-rundowej.
  • Optymalizacja jąder GPU przez ponad 1 000 rund: przyspieszenie 3,6x na KernelBench Level 3.
  • Budowa pulpitu Linux w 8 godzin: na podstawie prostego promptu w języku naturalnym GLM-5.1 tworzy kompletne środowisko pulpitu w przeglądarce (eksplorator plików, terminal, edytor, monitor systemowy).

Dostępność: open source weights na HuggingFace (zai-org/GLM-5.1), API na api.z.ai i BigModel.cn, kompatybilny z Claude Code, Cline, Roo Code, Kilo Code i OpenCode.

🔗 Blog GLM-5.1 🔗 Tweet ogłaszający


Codex CLI v0.120.0 — przesyłanie agentów w czasie rzeczywistym

11 kwietnia — Wersja 0.120.0 Codex CLI zostaje opublikowana jako wersja stabilna. Wprowadza kilka usprawnień funkcjonalnych:

FunkcjonalnośćSzczegół
Realtime V2Przesyła postęp agentów działających w tle w czasie rzeczywistym, kolejkowuje kolejne odpowiedzi
Ulepszone hooki TUIAktywne hooki są wyświetlane osobno, historia zakończonych hooków jest odchudzona
Tytuł wątku w statusieNiestandardowe statusy TUI mogą zawierać tytuł przemianowanego wątku
Schemat wyjścia code-modeDeklaracje narzędzi code-mode zawierają teraz szczegóły outputSchema MCP
Hooks SessionStartRozróżnia sesje utworzone przez /clear od startów lub wznowień

Wersja zawiera również kilka poprawek błędów: obsługę podniesionych sandboxów Windows, paniki podczas połączeń WebSocket TLS, zachowanie kolejności wyników wyszukiwania narzędzi.

🔗 Release v0.120.0


GitHub Copilot — trzy nowe funkcje

Wybór modelu dla agentów firm trzecich

14 kwietnia — Można już wybrać model podczas uruchamiania zadania z agentami Claude (Anthropic) i Codex (OpenAI) na github.com.

AgentDostępne modele
ClaudeClaude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5
CodexGPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4

Włączone w istniejącą subskrypcję Copilot (Business lub Enterprise), ale administrator musi aktywować odpowiednie polityki na poziomie firmy lub organizacji.

🔗 Changelog wyboru modelu

Rozwiązywanie konfliktów merge w trzech kliknięciach

13 kwietnia — Na pull requestach z konfliktami merge pojawia się nowy przycisk “Fix with Copilot”. W trzech kliknięciach cloud agent Copilot rozwiązuje konflikty, sprawdza, czy build i testy przechodzą, a następnie wypycha zmiany ze swojego odizolowanego środowiska chmurowego. Wzmianka @copilot w PR pozwala także naprawiać workflowy GitHub Actions, które zawodzą, lub odpowiadać na komentarze z code review. Dostępne we wszystkich płatnych planach Copilot.

🔗 Changelog konfliktów merge

Rezydencja danych US/EU i zgodność FedRAMP

13 kwietnia — GitHub Copilot obsługuje teraz rezydencję danych dla regionów US i EU: wszystkie inferencje i powiązane dane pozostają w wyznaczonej strefie geograficznej. Klienci rządowi w USA korzystają dodatkowo ze zgodności FedRAMP Moderate. Zapytania data-resident mają 10% dopłatę do mnożnika premium requests. Modele Gemini nie są jeszcze obsługiwane (GCP nie udostępnia jeszcze endpointów inferencji z rezydencją danych). Japonia i Australia są na roadmapie na 2026 rok.

🔗 Changelog rezydencji danych


Media generatywne — Runway, Luma, MiniMax, ElevenLabs

Runway Characters w połączeniach wideo

14 kwietnia — Runway wdraża aktualizację Characters, umożliwiającą wysyłanie swojego awatara AI do połączenia wideo Zoom, Google Meet lub Teams. Procedura: wybrać lub utworzyć Character → wkleić link do spotkania → kliknąć “Join Meeting”. Funkcja, początkowo dostępna jako API dla deweloperów od 9 marca, jest teraz dostępna dla wszystkich użytkowników z poziomu aplikacji Runway.

🔗 Tweet Runway

14 kwietnia — Luma Labs uruchamia dwie nowe funkcje: dyktowanie głosowe w swojej aplikacji (użytkownik mówi, opis jest konwertowany na prompt generowania) oraz kinematyczną animację logo (przesłanie logo, agent tworzy animowane wprowadzenie ukierunkowane na branding).

🔗 Tweet o dyktowaniu głosowym · Tweet o animacji logo

MiniMax — trzy open source Music Skills dla agentów

14 kwietnia — MiniMax udostępnia jako open source trzy Music Skills dla agentów: minimax-music-gen (generowanie kompletnego utworu z promptu, z automatycznym wyborem między oryginałem, instrumentalem i coverem), buddy-sings (agent AI śpiewa jako wokalny kompan) oraz Playlist curation (kuracja playlisty z biblioteki użytkownika). Komponenty te są przeznaczone do integracji w agentach M2.7.

🔗 Tweet MiniMax

ElevenLabs — 100 milionów dolarów skumulowanego rocznego przychodu netto w Q1 2026

13 kwietnia — CEO Mati Staniszewski ogłasza, że ElevenLabs dodało ponad 100 milionów dolarów skumulowanego rocznego przychodu netto w Q1 2026 — ich najlepszy kwartał do tej pory. Wzrost napędzany przez partnerstwa korporacyjne (Klarna, Revolut, Deutsche Telekom, Toyota).

🔗 Tweet CEO ElevenLabs


Co to oznacza

Rutyny w Claude Code reprezentują zmianę paradygmatu: narzędzie deweloperskie nie tylko odpowiada już na interaktywne prośby, lecz może teraz podejmować zaplanowane lub reaktywne inicjatywy w infrastrukturze projektu. Połączenie scheduled + webhook przekształca Claude Code w stałego agenta działającego na repozytorium, przy minimalnym koszcie konfiguracji.

Na froncie open source GLM-5.1 potwierdza, że chińskie modele agentowe osiągnęły poziom najlepszych modeli zamkniętych na benchmarkach kodowania. Zdolność do utrzymywania 8-godzinnego horyzontu autonomicznej pracy — z tysiącami wywołań narzędzi — otwiera konkretne możliwości dla intensywnych zadań optymalizacyjnych, których tradycyjne modele nie są w stanie obsłużyć w jednej sesji.

Gemini Robotics-ER 1.6 ilustruje inny trend: modele ogólnej AI dostosowane do fizycznych ograniczeń rzeczywistego świata, z współpracą między oprogramowaniem a hardware (Boston Dynamics/Spot), która daje nowe możliwości, takie jak odczytywanie przyrządów przemysłowych.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator