Zajęty dzień 15 kwietnia: Anthropic uruchamia całkowicie przeprojektowaną aplikację desktopową Claude Code, nastawioną na równoległe sesje agentów; OpenAI publikuje Agents SDK v0.14.0 z natywną piaskownicą i ustandaryzowanymi prymitywami agentowymi; Google jednocześnie ogłasza Gemini 3.1 Flash TTS (Elo 1 211) oraz darmową aplikację desktopową macOS. Równolegle Mistral otwiera Connectors MCP w Studio, Anthropic publikuje dwa ważne badania na temat alignementu, a w reklamie motoryzacyjnej pojawia się nowość: pierwszy spot Mazdy w całości wyprodukowany przez AI.
Claude Code Desktop: redesign dla równoległych agentów
14 kwietnia — Anthropic uruchamia całkowicie przeprojektowaną aplikację desktopową Claude Code, zaprojektowaną do wykonywania wielu sesji równolegle.
“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”
🇵🇱 Przeprojektowaliśmy Claude Code na desktopie. Teraz możesz uruchamiać wiele sesji Claude równolegle z tej samej aplikacji. — @claudeai sur X
| Funkcjonalność | Opis |
|---|---|
| Sidebar sesji | Wszystkie aktywne i ostatnie sesje, filtrowalne według statusu, projektu lub środowiska |
| Side chat (⌘+; / Ctrl+;) | Odgałęzia rozmowę z głównej sesji bez zaśmiecania jej |
| Zintegrowany terminal | Uruchamianie testów lub buildów bez opuszczania aplikacji |
| Edytor plików w aplikacji | Otwieranie, edycja i zapisywanie plików bezpośrednio |
| Przebudowany diff viewer | Lepsza wydajność przy dużych changesets |
| Rozszerzony podgląd | HTML, PDF, lokalne serwery w panelu preview |
| Układ drag-and-drop | Dowolne rozmieszczanie terminala, preview, diff viewer i czatu |
| Parzystość pluginów CLI | Pluginy działają identycznie w aplikacji desktopowej |
| SSH rozszerzone na Mac | Oprócz Linuxa sesje mogą wskazywać zdalne maszyny |
| 3 tryby widoku | Verbose, Normal, Summary — od pełnych szczegółów po same wyniki |
Sidebar sesji stanowi najbardziej strukturalną zmianę: centralizuje wszystkie aktywne sesje w jednym miejscu, co fundamentalnie zmienia sposób pracy z wieloma agentami równolegle. Side chat (⌘+; na Macu, Ctrl+; na Linuxie/Windows) pozwala rozpocząć poboczną rozmowę bez zanieczyszczania kontekstu głównej sesji — przydatne do zadania szybkiego pytania albo sprawdzenia hipotezy.
Rozszerzenie SSH na macOS zamyka zauważalną lukę względem Linuxa: sesje mogą teraz wskazywać na zdalne maszyny z Maca, co otwiera drogę do workflowów, w których kod wykonuje się na zdalnym serwerze, pozostając sterowanym z lokalnego interfejsu.
Dostępne teraz dla wszystkich użytkowników Claude Code w planach Pro, Max, Team, Enterprise oraz przez API Claude.
🔗 Blog Claude — Redesigning Claude Code on desktop 🔗 Pobierz aplikację
OpenAI Agents SDK v0.14.0: natywna piaskownica i prymitywy agentowe
15 kwietnia — OpenAI publikuje znaczącą ewolucję swojego Agents SDK (openai-agents>=0.14.0). Ogłoszenie pozycjonuje to SDK jako standardową infrastrukturę do budowy agentów w produkcji.
Rozbudowany natywny harness
SDK integruje teraz zestaw prymitywów, które odpowiadają temu, co robią inne czołowe środowiska uruchomieniowe agentowe:
| Prymityw | Opis |
|---|---|
| MCP (tool use) | Wywoływanie narzędzi przez protokół MCP |
| AGENTS.md | Niestandardowe instrukcje przez plik konfiguracyjny |
shell tool | Wykonywanie poleceń (execution of code) |
apply patch tool | Edycja plików przez patch |
| Skills | Stopniowe ujawnianie możliwości |
| Konfigurowalna pamięć | Zarządzanie długoterminowym stanem agenta |
Środowisko uruchomieniowe w piaskownicy (sandbox)
Agenci mogą teraz działać w kontrolowanych środowiskach (sandboxes) z własnym systemem plików, zależnościami i narzędziami. Rozdzielenie między orchestratorem (harness) a obliczeniami (compute) zostało zaprojektowane z myślą o trzech celach: ochronie identyfikatorów w środowiskach, w których uruchamia się generowany kod, umożliwieniu trwałego wykonania przez punkt kontrolny (checkpoint) i rehydratację w razie awarii kontenera oraz umożliwieniu skalowania (scaling) z wieloma piaskownicami równolegle.
Natywnie obsługiwani dostawcy piaskownic: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel.
Przechowywanie przez abstrakcję Manifest : AWS S3, Google Cloud Storage, Azure Blob Storage, Cloudflare R2.
Dostępność
Najpierw Python, TypeScript planowany w kolejnej wersji. Wśród firm testujących wcześniej: Oscar Health, LexisNexis, Thomson Reuters, Zoom.
Gemini 3.1 Flash TTS: audio tags i Elo 1 211
15 kwietnia — Google uruchamia Gemini 3.1 Flash TTS, swój najbardziej ekspresyjny i najbardziej sterowalny model syntezy mowy (text-to-speech) do tej pory.
Najważniejszą nowością jest wprowadzenie audio tags: poleceń w języku naturalnym bezpośrednio osadzonych w tekście wejściowym, aby sterować stylem głosu, tempem i tonem. Fragment otoczony przez [excitement] zostanie wypowiedziany entuzjastycznie, fragment [explanatory] przyjmie ton dydaktyczny. Takie podejście stawia dewelopera w roli „reżysera”, komponującego precyzyjne doświadczenia audio.
| Funkcjonalność | Szczegół |
|---|---|
| Audio tags | Polecenia w języku naturalnym w tekście |
| Obsługiwane języki | 70+ (w tym 24 oceniane w wysokiej jakości) |
| Dialog wielu mówców | Natywnie |
| Watermarking | SynthID zintegrowany z całym generowanym audio |
| Wynik Elo | 1 211 (Artificial Analysis TTS Leaderboard) |
Z wynikiem Elo 1 211 w referencyjnym rankingu Artificial Analysis TTS — który mierzy tysiące ludzkich preferencji w ślepym teście — model jest pozycjonowany w „najbardziej atrakcyjnym kwadrancie” ze względu na równowagę jakości i kosztu.
W Google AI Studio dostępne są trzy zaawansowane kontrolki: Scene direction (określenie środowiska i instrukcji gry), Speaker-level specificity (unikalne profile audio dla każdej postaci) oraz Seamless export (eksport parametrów do kodu API, aby zachować spójność głosu między projektami).
Całe generowane audio jest niewyczuwalnie oznaczane przez SynthID, cyfrowy znak wodny Google.
Dostępność:
- Deweloperzy: podgląd (preview) przez API Gemini i Google AI Studio
- Firmy: podgląd w Vertex AI
- Użytkownicy Workspace: przez Google Vids
🔗 Artykuł blog.google — Gemini 3.1 Flash TTS
Gemini App na Mac: natywny klient desktopowy
15 kwietnia — Google uruchamia aplikację Gemini dla macOS, dostępną bezpłatnie dla wszystkich użytkowników na macOS 15 i nowszym.
| Funkcjonalność | Szczegół |
|---|---|
| Globalny skrót | Option + Space z dowolnej aplikacji |
| Udostępnianie okna | Kontekst z lokalnych dokumentów, kodu, danych |
| Generowanie obrazów | Integracja Nano Banana |
| Generowanie wideo | Integracja Veo |
| Dostępność | Bezpłatnie, macOS 15+, globalnie |
Aplikacja jest dostępna z dowolnego ekranu przez Option + Space, pozwalając pytać Gemini bez wychodzenia z bieżącego workflow. Może współdzielić aktywne okno, aby natychmiast dostarczyć kontekst z lokalnych plików, arkuszy, wykresów lub bloków kodu.
Google przedstawia tę wersję jako „pierwszą wersję”, która kładzie fundamenty pod osobistego, proaktywnego asystenta biurkowego, a kolejne zapowiedzi są planowane na następne miesiące.
🔗 Artykuł blog.google — Gemini App pour macOS
Claude Code v2.1.108 i v2.1.109: recap sesji, caching 1h, thinking
14-15 kwietnia — Dwie nowe wersje Claude Code w dwa dni.
v2.1.108 przynosi kilka usprawnień funkcjonalnych:
| Funkcjonalność | Opis |
|---|---|
| Recap sesji | /recap lub /config, uruchamiany automatycznie po nieobecności. Możliwy do wymuszenia przez CLAUDE_CODE_ENABLE_AWAY_SUMMARY |
| Prompt caching 1h | Zmienna ENABLE_PROMPT_CACHING_1H dla TTL 1h (API key, Bedrock, Vertex, Foundry). FORCE_PROMPT_CACHING_5M wymusza TTL 5 min |
| Slash commands via Skill tool | Model może wywoływać wbudowane polecenia (/init, /review, /security-review) przez Skill tool |
Alias /undo | /undo jest teraz aliasem dla /rewind |
Ulepszenia /model | Ostrzeżenie przed zmianą modelu (następna odpowiedź ponownie czyta pełną historię bez cache) |
Ulepszenia /resume | Domyślnie dla sesji z bieżącego katalogu; Ctrl+A do zobaczenia wszystkich projektów |
Funkcja /recap jest szczególnie użyteczna w kontekście równoległych agentów: gdy wraca się do sesji pozostawionej w tle, Claude streszcza to, co wydarzyło się od ostatniej interakcji.
v2.1.109 przynosi usprawnienie interfejsu dla trybu extended thinking: wskaźnik postępu obraca się z rotującą podpowiedzią, aby lepiej pokazać, że model znajduje się w fazie rozumowania.
Anthropic: zautomatyzowani badacze alignementu (PGR 0.97)
14 kwietnia — W ramach programu Anthropic Fellows, oryginalny eksperyment: czy można użyć Claude Opus 4.6 do przyspieszenia badań nad alignementem?
Problem nadzoru „słabe do silnego” (weak-to-strong supervision) jest proxy nadchodzącego wyzwania: jak nadzorować modele mądrzejsze od nas? Eksperyment wykorzystuje silny model (Qwen 3-4B-Base) oraz słaby model jako „nauczyciela” (Qwen 1.5-0.5B-Chat). Metryka performance gap recovered (PGR) mierzy, w jakim stopniu model silny przekracza ograniczenia słabego nauczyciela.
Układ: 9 kopii Claude Opus 4.6 wyposażonych w narzędzia (piaskownica, wspólne forum, storage, serwer wyniku) pracuje równolegle przez 5 dni. Każda instancja otrzymuje nieco inny punkt startowy, aby zachęcić do różnorodności podejść.
| Wskaźnik | Wartość |
|---|---|
| Baseline ludzki (7 dni, 4 metody) | PGR 0.23 |
| Zautomatyzowani badacze po 5 dniach (800h łącznie) | PGR 0.97 |
| Łączny koszt | ~18 000 /godz. na instancję) |
| Uogólnienie matematyczne | PGR 0.94 |
| Uogólnienie kodu | PGR 0.47 (dwa razy więcej niż baseline) |
| Test produkcyjny (Claude Sonnet 4) | Brak istotnej poprawy |
Badacze podkreślają, że wynik ten nie oznacza, iż Claude jest „uniwersalnym naukowcem od alignementu” — wybrany problem jest wyjątkowo dobrze dopasowany do automatyzacji (jedna obiektywna miara). Jednak eksperyment pokazuje, że Claude może wielokrotnie zwiększyć tempo eksperymentów w alignemencie, a różnorodność punktów startowych jest kluczowa. Kod i dane są dostępne jako open source.
🔗 Blog Anthropic — Automated Alignment Researchers
Subliminal learning w LLMs opublikowane w Nature
15 kwietnia — Artykuł badawczy współautorstwa Anthropic i Owaina Evansa został opublikowany w czasopiśmie Nature na temat zjawiska subliminal learning (subliminal learning) w LLMs.
“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”
🇵🇱 Badania, które współredagowaliśmy na temat subliminal learning — tego, jak LLMs mogą przekazywać cechy, takie jak preferencje lub misalignment, poprzez ukryte sygnały w danych — zostały dziś opublikowane w Nature. — @AnthropicAI sur X
Artykuł pokazuje, że LLMs mogą przekazywać cechy (takie jak „lubić sowy”) poprzez dane pozornie neutralne (na przykład sekwencje liczb niezwiązane z daną cechą). To zjawisko ukrytego przekazywania rodzi ważne pytania dotyczące bezpieczeństwa: model może propagować preferencje lub misalignment przez dane treningowe, bez możliwości wykrycia tego bezpośrednią inspekcją. Preprint został opublikowany w lipcu 2025.
🔗 Artykuł Nature — Subliminal Learning
GPT-5.4-Cyber i rozszerzenie programu TAC
14 kwietnia — OpenAI ogłasza rozszerzenie programu Trusted Access for Cyber (TAC) na tysiące zweryfikowanych indywidualnych obrońców i setki zespołów odpowiedzialnych za ochronę krytycznego oprogramowania.
Nowy model, GPT-5.4-Cyber, jest teraz dostępny dla użytkowników najwyższych poziomów programu. To wariant GPT-5.4 zoptymalizowany pod kątem defensywnego cyberbezpieczeństwa, z obniżonym progiem odmowy dla legalnych zastosowań oraz ekskluzywną zdolnością reverse engineering binarnego (analiza skompilowanego oprogramowania bez dostępu do kodu źródłowego).
Program TAC działa na trzech poziomach:
- Użytkownicy indywidualni: Weryfikacja tożsamości na chatgpt.com/cyber
- Firmy: Dostęp zespołowy przez przedstawiciela OpenAI
- Najwyższe poziomy (dostęp do GPT-5.4-Cyber): Wzmocnione uwierzytelnianie + wyrażenie zainteresowania
Codex Security, uruchomiony na początku 2026 roku, pomógł już naprawić ponad 3 000 krytycznych i wysokich podatności.
Gemini Personal Intelligence: globalne wdrożenie
15 kwietnia — Funkcja Personal Intelligence w aplikacji Gemini rozszerza się na poziom międzynarodowy. Dotychczas ograniczona do Stanów Zjednoczonych, jest teraz dostępna dla subskrybentów Google AI Ultra, Pro i Plus na całym świecie, a wdrożenie dla użytkowników darmowych planowane jest wkrótce.
Personal Intelligence pozwala Gemini dostarczać spersonalizowane i kontekstowe odpowiedzi, łącząc się z aplikacjami Google użytkownika: Search, Gmail, Google Photos i YouTube. Google ogłosił również nadejście Personal Intelligence w Google Chrome jeszcze w tym tygodniu.
Mistral Connectors MCP w Studio (Public Preview)
15 kwietnia — Mistral AI uruchamia Connectors w Mistral Studio w publicznym dostępie wczesnym (Public Preview), umożliwiając łączenie źródeł danych firmowych przez protokół MCP.
Connector opakowuje integrację w wielokrotnego użytku encję opartą na MCP. Po zarejestrowaniu jest zarządzany i monitorowany w Studio, a następnie staje się natywnym narzędziem dla każdej rozmowy, agenta lub przepływu pracy.
| Funkcjonalność | Szczegół | | --------------------------------- | ----------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------- | | Wbudowane i niestandardowe MCPs | Dostępne dla wszystkich zapytań modeli i agentów | | Bezpośrednie wywoływanie narzędzi | Precyzyjna kontrola nad tym, kiedy i jak narzędzia są wywoływane | | Human-in-the-loop validation | Konfigurowalny przepływ zatwierdzania przed wykonaniem narzędzi | | Dostęp programistyczny | Tworzenie, modyfikowanie, listowanie i usuwanie connectorów przez API | | Scentralizowany rejestr | Dostępny we wszystkich aplikacjach Mistral (Le Chat, AI Studio, Vibe wkrótce) | Intégrations prises en charge : CRM, bases de connaissances, outils de productivité, GitHub, recherche web. |
🔗 Annonce Mistral — Connectors
Premier spot publicitaire automobile entièrement produit par IA
15 avril — Luma Agents a alimenté le premier spot publicitaire Mazda entièrement produit par IA. L’agence créative indépendante Boundless (Johannesburg) a utilisé Luma pour créer une campagne réunissant plusieurs générations de la MX-5 et des décennies de storytelling de la marque. Délai total du concept jusqu’à l’approbation finale : moins de deux semaines.
Luma cite ce cas comme exemple des flux de travail créatifs natifs à l’IA : production plus rapide, sans compromis sur la vision créative.
🔗 Luma Labs — Boundless × Mazda
Annonces mineures
Kling AI Skill (15 avril) — Kling lance une encapsulation one-stop de ses API pour une intégration directe dans les agents IA. Les agents peuvent accéder à la génération Text/Image-to-Video, génération d’images 4K et cohérence inter-scènes, sans configuration complexe. Compatible avec Claude Code, Cursor, Codex, Copilot. 🔗 Documentation Kling AI Skill
Qwen dans OpenCode (15 avril) — Qwen3.6-Plus et Qwen3.5-Plus sont désormais disponibles dans l’outil de coding OpenCode. Qwen3.5-Plus est 3x moins cher que Qwen3.6-Plus, les deux modèles supportent les images et proposent la rétention zéro de données. 🔗 Tweet @Alibaba_Qwen
Copilot Cloud Agent — activation sélective (15 avril) — Les admins GitHub Enterprise peuvent désormais activer le Copilot Cloud Agent de façon sélective par organisation via les propriétés personnalisées (custom properties). Trois nouveaux endpoints REST permettent de gérer cette politique par API. 🔗 Changelog GitHub
Ce que ça signifie
La journée du 15 avril illustre une convergence : les grands acteurs équipent leurs environnements de développement d’une infrastructure agentique standardisée. Claude Code Desktop, les Agents SDK OpenAI et Mistral Connectors partagent la même logique — orchestrer plusieurs agents en parallèle, les doter de primitives (MCP, AGENTS.md, shell, fichiers) et leur offrir un environnement d’exécution isolé.
L’annonce la plus structurante reste le redesign Claude Code Desktop : la sidebar de sessions et le side chat changent la façon de travailler avec plusieurs agents simultanément, un usage qui devient progressivement la norme pour les développeurs qui s’appuient sur l’IA.
Côté recherche, la publication Nature sur l’apprentissage subliminal et l’expérience des chercheurs d’alignement automatisés (PGR 0.97 pour 18 000 $) signalent qu’Anthropic investit parallèlement dans la compréhension des risques à long terme — un équilibre entre productivité immédiate et sécurité structurelle.
Sources
- Blog Claude — Redesigning Claude Code on desktop
- CHANGELOG Claude Code (GitHub)
- Anthropic — Automated Alignment Researchers
- Nature — Subliminal Learning dans les LLMs
- OpenAI — The Next Evolution of the Agents SDK
- OpenAI — Scaling Trusted Access for Cyber Defense
- blog.google — Gemini 3.1 Flash TTS
- blog.google — Gemini App pour macOS
- Mistral — Connectors MCP
- Luma Labs — Boundless × Mazda
- Kling AI Skill documentation
- GitHub Changelog — Copilot Cloud Agent custom properties
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator