14 kwietnia 2026 r. to intensywny dzień dla narzędzi deweloperskich wspieranych przez AI: Anthropic uruchamia rutyny w Claude Code, umożliwiając automatyzację całych workflowów na podstawie harmonogramu lub przez webhook, bez konieczności pozostawiania włączonego komputera. Google DeepMind publikuje Gemini Robotics-ER 1.6 z nowymi możliwościami percepcji przemysłowej opracowanymi wspólnie z Boston Dynamics. Z.ai udostępnia GLM-5.1 na licencji MIT, sklasyfikowany jako model open source nr 1 na SWE-Bench Pro. GitHub Copilot dodaje trzy przydatne funkcje: rozwiązywanie konfliktów w trzech kliknięciach, rezydencję danych US/EU oraz wybór modelu dla agentów firm trzecich.
Rutyny w Claude Code — badania wstępne (research preview)
14 kwietnia — Anthropic uruchamia rutyny w Claude Code w trybie research preview. Rutyna to automatyzacja skonfigurowana tylko raz — z promptem, repozytorium i konektorami — która następnie uruchamia się autonomicznie, bez potrzeby, aby użytkownik był stale zalogowany.
Dostępne są trzy typy wyzwalaczy:
| Typ | Wyzwalacz | Przykład użycia |
|---|---|---|
| Zaplanowana (Scheduled) | Cron (godzina, noc, tydzień) | Nocny triage błędów Linear, otwieranie PR z poprawką |
| API | Wywołanie HTTP POST do dedykowanego endpointu | Alert Datadog → automatyczny triage + szkic poprawki |
| Webhook | Zdarzenia GitHub (PR, push…) | Automatyczny code review dla każdego otwartego PR |
Każda rutyna ma własny endpoint i token uwierzytelniający. Rutyny API integrują się z dowolnym istniejącym pipeline’em (alerty, hooki wdrożeniowe, narzędzia wewnętrzne). Rutyny webhook uruchamiają nową sesję dla każdego PR spełniającego zdefiniowane filtry i zasilają sesję kolejnymi aktualizacjami (komentarze, nieudane integracje ciągłe).
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇵🇱 Skonfiguruj rutynę tylko raz (prompt, repozytorium i konektory), a może ona działać według harmonogramu, na podstawie wywołania API lub w odpowiedzi na zdarzenie. Rutyny działają na naszej infrastrukturze webowej, więc nie trzeba trzymać komputera włączonego. — @claudeai na X
Dostępność i limity:
| Plan | Rutyny/dzień |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
Dostępne we wszystkich płatnych planach (Pro, Max, Team, Enterprise) z aktywnym Claude Code web. Po przekroczeniu limitów nadal możliwe jest dodatkowe użycie. Rutyny zużywają kredyty subskrypcji tak samo jak sesje interaktywne.
Udokumentowane przypadki użycia:
- Zarządzanie backlogiem: nocny triage, etykietowanie, podsumowanie Slack
- Dryf dokumentacji (docs drift): tygodniowe skanowanie scalonych PR, wykrywanie stron do aktualizacji
- Weryfikacja po wdrożeniu: testy dymne (smoke checks) po każdej wersji
- Portowanie SDK: każdy scalony PR w Pythonie automatycznie wyzwala portowanie do SDK Go
🔗 Blog Anthropic 🔗 Tweet ogłaszający
Claude Code v2.1.105 — hooki PreCompact, monitory pluginów, /proactive
11–13 kwietnia — Wersja 2.1.105 Claude Code przynosi kilka istotnych usprawnień:
| Funkcjonalność | Opis |
|---|---|
Parametr path dla EnterWorktree | Umożliwia przełączenie na istniejący worktree bieżącego repozytorium |
| Hook PreCompact | Hooki mogą teraz blokować kompakcję (kod wyjścia 2 lub {"decision":"block"}) |
| Background monitors dla pluginów | Klucz monitors w manifeście pluginu — uzbrajany automatycznie przy starcie sesji |
/proactive | Nowy alias dla /loop |
| Rezygnacja z zablokowanych Streams API | Rezygnacja po 5 minutach bez danych + ponowna próba w trybie non-streaming |
| Komunikaty błędów sieciowych | Natychmiastowe wyświetlenie komunikatu retry zamiast cichego spinnera |
| Wyświetlanie długich plików | Bardzo długie zapisy jednolinijkowe (np. zminifikowany JSON) są skracane w interfejsie |
/doctor ulepszony | Ikony statusu + klawisz f do poproszenia Claude o naprawienie wykrytych problemów |
14 kwietnia — Wersja 2.1.107 wprowadza usprawnienie interfejsu: wskaźniki postępu (thinking hints) pokazują się teraz wcześniej podczas długich operacji, zmniejszając wrażenie oczekiwania bez informacji zwrotnej.
Anthropic — Vas Narasimhan dołącza do rady nadzorczej
14 kwietnia — Long-Term Benefit Trust (LTBT) Anthropic mianował Vasa Narasimhana do rady nadzorczej. Lekarz-naukowiec i CEO Novartis nadzorował rozwój i zatwierdzenie ponad 35 innowacyjnych leków w jednym z najbardziej regulowanych sektorów na świecie.
Dzięki tej nominacji dyrektorzy mianowani przez Trust stanowią teraz większość rady. LTBT jest niezależnym organem, którego członkowie nie mają żadnego interesu finansowego w Anthropic — jego rolą jest utrzymywanie równowagi między sukcesem komercyjnym a misją długoterminowej korzyści publicznej.
Gemini Robotics-ER 1.6 — percepcja przemysłowa i bezpieczeństwo
14 kwietnia — Google DeepMind publikuje Gemini Robotics-ER 1.6, aktualizację swojego modelu osadzonego rozumowania (embodied reasoning) dla robotyki. Model poprawia rozumienie wizualne i przestrzenne, aby umożliwić robotom planowanie i wykonywanie rzeczywistych zadań z większą autonomią. Przewyższa Gemini Robotics-ER 1.5 oraz Gemini 3.0 Flash na wewnętrznych benchmarkach robotycznych.
Nowe możliwości:
| Możliwość | Opis |
|---|---|
| Wskazywanie przestrzenne (Pointing) | Wykrywanie i liczenie obiektów, logika relacyjna (mniejszy/większy), trajektorie i punkty chwytu, złożone ograniczenia |
| Wykrywanie sukcesu z wielu ujęć | Analizuje kilka kątów kamery, aby sprawdzić, czy zadanie zostało rzeczywiście wykonane |
| Odczyt instrumentów | Odczytuje okrągłe manometry i przezroczyste rurki (sight glasses) — opracowane z Boston Dynamics do inspekcji przemysłowej |
| Bezpieczeństwo (benchmark ASIMOV v2) | Najlepszy wynik spośród wszystkich testowanych modeli w przestrzeganiu zasad bezpieczeństwa |
Możliwość odczytu instrumentów powstała we współpracy z Boston Dynamics dla robota Spot, używanego w inspekcjach instalacji przemysłowych. Łączy ona rozumowanie przestrzenne i wykonywanie kodu, aby z dużą precyzją interpretować manometry ciśnienia.
Dostępność: Gemini API (gemini-robotics-er-1.6-preview), Google AI Studio oraz notebook startowy na GitHub Colab.
🔗 Blog Google DeepMind 🔗 Tweet ogłaszający
GLM-5.1 — Z.ai udostępnia swój model agentowy na licencji MIT
7 kwietnia (nadrobione ogłoszenie — przeoczone podczas skanu z zeszłego tygodnia) — Z.ai (dawniej ZhipuAI) opublikowało GLM-5.1, swój nowy flagowy model do agentowego kodowania (agentic coding), dostępny jako open source na licencji MIT.
Wyniki na benchmarkach kodu:
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
GLM-5.1 plasuje się jako nr 1 w open source i trzeci na świecie na SWE-Bench Pro, Terminal-Bench oraz NL2Repo.
Kluczowa różnica: długi horyzont. Poprzednie modele, w tym GLM-5, szybko poprawiają wyniki na początku, a potem osiągają pułap. GLM-5.1 został zaprojektowany tak, aby pozostawać skuteczny w zadaniach agentowych na znacznie dłuższych horyzontach: może pracować autonomicznie przez 8 godzin, dopracowując strategie w trakcie tysięcy wywołań narzędzi.
Trzy scenariusze ilustrują tę możliwość:
- Optymalizacja bazy wektorowej przez 600 iteracji: GLM-5.1 osiąga 21 500 zapytań na sekundę na VectorDBBench, czyli 6 razy lepszy wynik niż najlepszy rezultat uzyskany podczas sesji 50-rundowej.
- Optymalizacja jąder GPU przez ponad 1 000 rund: przyspieszenie 3,6x na KernelBench Level 3.
- Budowa pulpitu Linux w 8 godzin: na podstawie prostego promptu w języku naturalnym GLM-5.1 tworzy kompletne środowisko pulpitu w przeglądarce (eksplorator plików, terminal, edytor, monitor systemowy).
Dostępność: open source weights na HuggingFace (zai-org/GLM-5.1), API na api.z.ai i BigModel.cn, kompatybilny z Claude Code, Cline, Roo Code, Kilo Code i OpenCode.
🔗 Blog GLM-5.1 🔗 Tweet ogłaszający
Codex CLI v0.120.0 — przesyłanie agentów w czasie rzeczywistym
11 kwietnia — Wersja 0.120.0 Codex CLI zostaje opublikowana jako wersja stabilna. Wprowadza kilka usprawnień funkcjonalnych:
| Funkcjonalność | Szczegół |
|---|---|
| Realtime V2 | Przesyła postęp agentów działających w tle w czasie rzeczywistym, kolejkowuje kolejne odpowiedzi |
| Ulepszone hooki TUI | Aktywne hooki są wyświetlane osobno, historia zakończonych hooków jest odchudzona |
| Tytuł wątku w statusie | Niestandardowe statusy TUI mogą zawierać tytuł przemianowanego wątku |
| Schemat wyjścia code-mode | Deklaracje narzędzi code-mode zawierają teraz szczegóły outputSchema MCP |
| Hooks SessionStart | Rozróżnia sesje utworzone przez /clear od startów lub wznowień |
Wersja zawiera również kilka poprawek błędów: obsługę podniesionych sandboxów Windows, paniki podczas połączeń WebSocket TLS, zachowanie kolejności wyników wyszukiwania narzędzi.
GitHub Copilot — trzy nowe funkcje
Wybór modelu dla agentów firm trzecich
14 kwietnia — Można już wybrać model podczas uruchamiania zadania z agentami Claude (Anthropic) i Codex (OpenAI) na github.com.
| Agent | Dostępne modele |
|---|---|
| Claude | Claude Sonnet 4.6, Claude Opus 4.6, Claude Sonnet 4.5, Claude Opus 4.5 |
| Codex | GPT-5.2-Codex, GPT-5.3-Codex, GPT-5.4 |
Włączone w istniejącą subskrypcję Copilot (Business lub Enterprise), ale administrator musi aktywować odpowiednie polityki na poziomie firmy lub organizacji.
Rozwiązywanie konfliktów merge w trzech kliknięciach
13 kwietnia — Na pull requestach z konfliktami merge pojawia się nowy przycisk “Fix with Copilot”. W trzech kliknięciach cloud agent Copilot rozwiązuje konflikty, sprawdza, czy build i testy przechodzą, a następnie wypycha zmiany ze swojego odizolowanego środowiska chmurowego. Wzmianka @copilot w PR pozwala także naprawiać workflowy GitHub Actions, które zawodzą, lub odpowiadać na komentarze z code review. Dostępne we wszystkich płatnych planach Copilot.
Rezydencja danych US/EU i zgodność FedRAMP
13 kwietnia — GitHub Copilot obsługuje teraz rezydencję danych dla regionów US i EU: wszystkie inferencje i powiązane dane pozostają w wyznaczonej strefie geograficznej. Klienci rządowi w USA korzystają dodatkowo ze zgodności FedRAMP Moderate. Zapytania data-resident mają 10% dopłatę do mnożnika premium requests. Modele Gemini nie są jeszcze obsługiwane (GCP nie udostępnia jeszcze endpointów inferencji z rezydencją danych). Japonia i Australia są na roadmapie na 2026 rok.
Media generatywne — Runway, Luma, MiniMax, ElevenLabs
Runway Characters w połączeniach wideo
14 kwietnia — Runway wdraża aktualizację Characters, umożliwiającą wysyłanie swojego awatara AI do połączenia wideo Zoom, Google Meet lub Teams. Procedura: wybrać lub utworzyć Character → wkleić link do spotkania → kliknąć “Join Meeting”. Funkcja, początkowo dostępna jako API dla deweloperów od 9 marca, jest teraz dostępna dla wszystkich użytkowników z poziomu aplikacji Runway.
Luma — dyktowanie głosowe i animacja logo
14 kwietnia — Luma Labs uruchamia dwie nowe funkcje: dyktowanie głosowe w swojej aplikacji (użytkownik mówi, opis jest konwertowany na prompt generowania) oraz kinematyczną animację logo (przesłanie logo, agent tworzy animowane wprowadzenie ukierunkowane na branding).
🔗 Tweet o dyktowaniu głosowym · Tweet o animacji logo
MiniMax — trzy open source Music Skills dla agentów
14 kwietnia — MiniMax udostępnia jako open source trzy Music Skills dla agentów: minimax-music-gen (generowanie kompletnego utworu z promptu, z automatycznym wyborem między oryginałem, instrumentalem i coverem), buddy-sings (agent AI śpiewa jako wokalny kompan) oraz Playlist curation (kuracja playlisty z biblioteki użytkownika). Komponenty te są przeznaczone do integracji w agentach M2.7.
ElevenLabs — 100 milionów dolarów skumulowanego rocznego przychodu netto w Q1 2026
13 kwietnia — CEO Mati Staniszewski ogłasza, że ElevenLabs dodało ponad 100 milionów dolarów skumulowanego rocznego przychodu netto w Q1 2026 — ich najlepszy kwartał do tej pory. Wzrost napędzany przez partnerstwa korporacyjne (Klarna, Revolut, Deutsche Telekom, Toyota).
Co to oznacza
Rutyny w Claude Code reprezentują zmianę paradygmatu: narzędzie deweloperskie nie tylko odpowiada już na interaktywne prośby, lecz może teraz podejmować zaplanowane lub reaktywne inicjatywy w infrastrukturze projektu. Połączenie scheduled + webhook przekształca Claude Code w stałego agenta działającego na repozytorium, przy minimalnym koszcie konfiguracji.
Na froncie open source GLM-5.1 potwierdza, że chińskie modele agentowe osiągnęły poziom najlepszych modeli zamkniętych na benchmarkach kodowania. Zdolność do utrzymywania 8-godzinnego horyzontu autonomicznej pracy — z tysiącami wywołań narzędzi — otwiera konkretne możliwości dla intensywnych zadań optymalizacyjnych, których tradycyjne modele nie są w stanie obsłużyć w jednej sesji.
Gemini Robotics-ER 1.6 ilustruje inny trend: modele ogólnej AI dostosowane do fizycznych ograniczeń rzeczywistego świata, z współpracą między oprogramowaniem a hardware (Boston Dynamics/Spot), która daje nowe możliwości, takie jak odczytywanie przyrządów przemysłowych.
Źródła
- Blog Anthropic — Routines Claude Code
- Tweet @claudeai — Routines
- CHANGELOG Claude Code
- Anthropic — Nomination Vas Narasimhan
- Blog Google DeepMind — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Blog Z.ai — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub Changelog — Sélection de modèle agents tiers
- GitHub Changelog — Merge conflicts Copilot
- GitHub Changelog — Data residency US/EU FedRAMP
- Tweet @runwayml — Characters vidéo call
- Tweet @LumaLabsAI — Voice dictation
- Tweet @LumaLabsAI — Logo animation
- Tweet @MiniMax_AI — Music Skills
- Tweet CEO ElevenLabs — 100M ARR
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator