Szukaj

Przeprojektowanie Claude Code Desktop, Agents SDK OpenAI, Gemini 3.1 Flash TTS i aplikacja Mac

Przeprojektowanie Claude Code Desktop, Agents SDK OpenAI, Gemini 3.1 Flash TTS i aplikacja Mac

Zajęty dzień 15 kwietnia: Anthropic uruchamia całkowicie przeprojektowaną aplikację desktopową Claude Code, nastawioną na równoległe sesje agentów; OpenAI publikuje Agents SDK v0.14.0 z natywną piaskownicą i ustandaryzowanymi prymitywami agentowymi; Google jednocześnie ogłasza Gemini 3.1 Flash TTS (Elo 1 211) oraz darmową aplikację desktopową macOS. Równolegle Mistral otwiera Connectors MCP w Studio, Anthropic publikuje dwa ważne badania na temat alignementu, a w reklamie motoryzacyjnej pojawia się nowość: pierwszy spot Mazdy w całości wyprodukowany przez AI.


Claude Code Desktop: redesign dla równoległych agentów

14 kwietnia — Anthropic uruchamia całkowicie przeprojektowaną aplikację desktopową Claude Code, zaprojektowaną do wykonywania wielu sesji równolegle.

“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”

🇵🇱 Przeprojektowaliśmy Claude Code na desktopie. Teraz możesz uruchamiać wiele sesji Claude równolegle z tej samej aplikacji.@claudeai sur X

FunkcjonalnośćOpis
Sidebar sesjiWszystkie aktywne i ostatnie sesje, filtrowalne według statusu, projektu lub środowiska
Side chat (⌘+; / Ctrl+;)Odgałęzia rozmowę z głównej sesji bez zaśmiecania jej
Zintegrowany terminalUruchamianie testów lub buildów bez opuszczania aplikacji
Edytor plików w aplikacjiOtwieranie, edycja i zapisywanie plików bezpośrednio
Przebudowany diff viewerLepsza wydajność przy dużych changesets
Rozszerzony podglądHTML, PDF, lokalne serwery w panelu preview
Układ drag-and-dropDowolne rozmieszczanie terminala, preview, diff viewer i czatu
Parzystość pluginów CLIPluginy działają identycznie w aplikacji desktopowej
SSH rozszerzone na MacOprócz Linuxa sesje mogą wskazywać zdalne maszyny
3 tryby widokuVerbose, Normal, Summary — od pełnych szczegółów po same wyniki

Sidebar sesji stanowi najbardziej strukturalną zmianę: centralizuje wszystkie aktywne sesje w jednym miejscu, co fundamentalnie zmienia sposób pracy z wieloma agentami równolegle. Side chat (⌘+; na Macu, Ctrl+; na Linuxie/Windows) pozwala rozpocząć poboczną rozmowę bez zanieczyszczania kontekstu głównej sesji — przydatne do zadania szybkiego pytania albo sprawdzenia hipotezy.

Rozszerzenie SSH na macOS zamyka zauważalną lukę względem Linuxa: sesje mogą teraz wskazywać na zdalne maszyny z Maca, co otwiera drogę do workflowów, w których kod wykonuje się na zdalnym serwerze, pozostając sterowanym z lokalnego interfejsu.

Dostępne teraz dla wszystkich użytkowników Claude Code w planach Pro, Max, Team, Enterprise oraz przez API Claude.

🔗 Blog Claude — Redesigning Claude Code on desktop 🔗 Pobierz aplikację


OpenAI Agents SDK v0.14.0: natywna piaskownica i prymitywy agentowe

15 kwietnia — OpenAI publikuje znaczącą ewolucję swojego Agents SDK (openai-agents>=0.14.0). Ogłoszenie pozycjonuje to SDK jako standardową infrastrukturę do budowy agentów w produkcji.

Rozbudowany natywny harness

SDK integruje teraz zestaw prymitywów, które odpowiadają temu, co robią inne czołowe środowiska uruchomieniowe agentowe:

PrymitywOpis
MCP (tool use)Wywoływanie narzędzi przez protokół MCP
AGENTS.mdNiestandardowe instrukcje przez plik konfiguracyjny
shell toolWykonywanie poleceń (execution of code)
apply patch toolEdycja plików przez patch
SkillsStopniowe ujawnianie możliwości
Konfigurowalna pamięćZarządzanie długoterminowym stanem agenta

Środowisko uruchomieniowe w piaskownicy (sandbox)

Agenci mogą teraz działać w kontrolowanych środowiskach (sandboxes) z własnym systemem plików, zależnościami i narzędziami. Rozdzielenie między orchestratorem (harness) a obliczeniami (compute) zostało zaprojektowane z myślą o trzech celach: ochronie identyfikatorów w środowiskach, w których uruchamia się generowany kod, umożliwieniu trwałego wykonania przez punkt kontrolny (checkpoint) i rehydratację w razie awarii kontenera oraz umożliwieniu skalowania (scaling) z wieloma piaskownicami równolegle.

Natywnie obsługiwani dostawcy piaskownic: Blaxel, Cloudflare, Daytona, E2B, Modal, Runloop, Vercel.

Przechowywanie przez abstrakcję Manifest : AWS S3, Google Cloud Storage, Azure Blob Storage, Cloudflare R2.

Dostępność

Najpierw Python, TypeScript planowany w kolejnej wersji. Wśród firm testujących wcześniej: Oscar Health, LexisNexis, Thomson Reuters, Zoom.

🔗 Oficjalne ogłoszenie OpenAI


Gemini 3.1 Flash TTS: audio tags i Elo 1 211

15 kwietnia — Google uruchamia Gemini 3.1 Flash TTS, swój najbardziej ekspresyjny i najbardziej sterowalny model syntezy mowy (text-to-speech) do tej pory.

Najważniejszą nowością jest wprowadzenie audio tags: poleceń w języku naturalnym bezpośrednio osadzonych w tekście wejściowym, aby sterować stylem głosu, tempem i tonem. Fragment otoczony przez [excitement] zostanie wypowiedziany entuzjastycznie, fragment [explanatory] przyjmie ton dydaktyczny. Takie podejście stawia dewelopera w roli „reżysera”, komponującego precyzyjne doświadczenia audio.

FunkcjonalnośćSzczegół
Audio tagsPolecenia w języku naturalnym w tekście
Obsługiwane języki70+ (w tym 24 oceniane w wysokiej jakości)
Dialog wielu mówcówNatywnie
WatermarkingSynthID zintegrowany z całym generowanym audio
Wynik Elo1 211 (Artificial Analysis TTS Leaderboard)

Z wynikiem Elo 1 211 w referencyjnym rankingu Artificial Analysis TTS — który mierzy tysiące ludzkich preferencji w ślepym teście — model jest pozycjonowany w „najbardziej atrakcyjnym kwadrancie” ze względu na równowagę jakości i kosztu.

W Google AI Studio dostępne są trzy zaawansowane kontrolki: Scene direction (określenie środowiska i instrukcji gry), Speaker-level specificity (unikalne profile audio dla każdej postaci) oraz Seamless export (eksport parametrów do kodu API, aby zachować spójność głosu między projektami).

Całe generowane audio jest niewyczuwalnie oznaczane przez SynthID, cyfrowy znak wodny Google.

Dostępność:

  • Deweloperzy: podgląd (preview) przez API Gemini i Google AI Studio
  • Firmy: podgląd w Vertex AI
  • Użytkownicy Workspace: przez Google Vids

🔗 Artykuł blog.google — Gemini 3.1 Flash TTS


Gemini App na Mac: natywny klient desktopowy

15 kwietnia — Google uruchamia aplikację Gemini dla macOS, dostępną bezpłatnie dla wszystkich użytkowników na macOS 15 i nowszym.

FunkcjonalnośćSzczegół
Globalny skrótOption + Space z dowolnej aplikacji
Udostępnianie oknaKontekst z lokalnych dokumentów, kodu, danych
Generowanie obrazówIntegracja Nano Banana
Generowanie wideoIntegracja Veo
DostępnośćBezpłatnie, macOS 15+, globalnie

Aplikacja jest dostępna z dowolnego ekranu przez Option + Space, pozwalając pytać Gemini bez wychodzenia z bieżącego workflow. Może współdzielić aktywne okno, aby natychmiast dostarczyć kontekst z lokalnych plików, arkuszy, wykresów lub bloków kodu.

Google przedstawia tę wersję jako „pierwszą wersję”, która kładzie fundamenty pod osobistego, proaktywnego asystenta biurkowego, a kolejne zapowiedzi są planowane na następne miesiące.

🔗 Artykuł blog.google — Gemini App pour macOS


Claude Code v2.1.108 i v2.1.109: recap sesji, caching 1h, thinking

14-15 kwietnia — Dwie nowe wersje Claude Code w dwa dni.

v2.1.108 przynosi kilka usprawnień funkcjonalnych:

FunkcjonalnośćOpis
Recap sesji/recap lub /config, uruchamiany automatycznie po nieobecności. Możliwy do wymuszenia przez CLAUDE_CODE_ENABLE_AWAY_SUMMARY
Prompt caching 1hZmienna ENABLE_PROMPT_CACHING_1H dla TTL 1h (API key, Bedrock, Vertex, Foundry). FORCE_PROMPT_CACHING_5M wymusza TTL 5 min
Slash commands via Skill toolModel może wywoływać wbudowane polecenia (/init, /review, /security-review) przez Skill tool
Alias /undo/undo jest teraz aliasem dla /rewind
Ulepszenia /modelOstrzeżenie przed zmianą modelu (następna odpowiedź ponownie czyta pełną historię bez cache)
Ulepszenia /resumeDomyślnie dla sesji z bieżącego katalogu; Ctrl+A do zobaczenia wszystkich projektów

Funkcja /recap jest szczególnie użyteczna w kontekście równoległych agentów: gdy wraca się do sesji pozostawionej w tle, Claude streszcza to, co wydarzyło się od ostatniej interakcji.

v2.1.109 przynosi usprawnienie interfejsu dla trybu extended thinking: wskaźnik postępu obraca się z rotującą podpowiedzią, aby lepiej pokazać, że model znajduje się w fazie rozumowania.

🔗 CHANGELOG Claude Code


Anthropic: zautomatyzowani badacze alignementu (PGR 0.97)

14 kwietnia — W ramach programu Anthropic Fellows, oryginalny eksperyment: czy można użyć Claude Opus 4.6 do przyspieszenia badań nad alignementem?

Problem nadzoru „słabe do silnego” (weak-to-strong supervision) jest proxy nadchodzącego wyzwania: jak nadzorować modele mądrzejsze od nas? Eksperyment wykorzystuje silny model (Qwen 3-4B-Base) oraz słaby model jako „nauczyciela” (Qwen 1.5-0.5B-Chat). Metryka performance gap recovered (PGR) mierzy, w jakim stopniu model silny przekracza ograniczenia słabego nauczyciela.

Układ: 9 kopii Claude Opus 4.6 wyposażonych w narzędzia (piaskownica, wspólne forum, storage, serwer wyniku) pracuje równolegle przez 5 dni. Każda instancja otrzymuje nieco inny punkt startowy, aby zachęcić do różnorodności podejść.

WskaźnikWartość
Baseline ludzki (7 dni, 4 metody)PGR 0.23
Zautomatyzowani badacze po 5 dniach (800h łącznie)PGR 0.97
Łączny koszt~18 000 ( 22(~22/godz. na instancję)
Uogólnienie matematycznePGR 0.94
Uogólnienie koduPGR 0.47 (dwa razy więcej niż baseline)
Test produkcyjny (Claude Sonnet 4)Brak istotnej poprawy

Badacze podkreślają, że wynik ten nie oznacza, iż Claude jest „uniwersalnym naukowcem od alignementu” — wybrany problem jest wyjątkowo dobrze dopasowany do automatyzacji (jedna obiektywna miara). Jednak eksperyment pokazuje, że Claude może wielokrotnie zwiększyć tempo eksperymentów w alignemencie, a różnorodność punktów startowych jest kluczowa. Kod i dane są dostępne jako open source.

🔗 Blog Anthropic — Automated Alignment Researchers


Subliminal learning w LLMs opublikowane w Nature

15 kwietnia — Artykuł badawczy współautorstwa Anthropic i Owaina Evansa został opublikowany w czasopiśmie Nature na temat zjawiska subliminal learning (subliminal learning) w LLMs.

“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”

🇵🇱 Badania, które współredagowaliśmy na temat subliminal learning — tego, jak LLMs mogą przekazywać cechy, takie jak preferencje lub misalignment, poprzez ukryte sygnały w danych — zostały dziś opublikowane w Nature.@AnthropicAI sur X

Artykuł pokazuje, że LLMs mogą przekazywać cechy (takie jak „lubić sowy”) poprzez dane pozornie neutralne (na przykład sekwencje liczb niezwiązane z daną cechą). To zjawisko ukrytego przekazywania rodzi ważne pytania dotyczące bezpieczeństwa: model może propagować preferencje lub misalignment przez dane treningowe, bez możliwości wykrycia tego bezpośrednią inspekcją. Preprint został opublikowany w lipcu 2025.

🔗 Artykuł Nature — Subliminal Learning


GPT-5.4-Cyber i rozszerzenie programu TAC

14 kwietnia — OpenAI ogłasza rozszerzenie programu Trusted Access for Cyber (TAC) na tysiące zweryfikowanych indywidualnych obrońców i setki zespołów odpowiedzialnych za ochronę krytycznego oprogramowania.

Nowy model, GPT-5.4-Cyber, jest teraz dostępny dla użytkowników najwyższych poziomów programu. To wariant GPT-5.4 zoptymalizowany pod kątem defensywnego cyberbezpieczeństwa, z obniżonym progiem odmowy dla legalnych zastosowań oraz ekskluzywną zdolnością reverse engineering binarnego (analiza skompilowanego oprogramowania bez dostępu do kodu źródłowego).

Program TAC działa na trzech poziomach:

  1. Użytkownicy indywidualni: Weryfikacja tożsamości na chatgpt.com/cyber
  2. Firmy: Dostęp zespołowy przez przedstawiciela OpenAI
  3. Najwyższe poziomy (dostęp do GPT-5.4-Cyber): Wzmocnione uwierzytelnianie + wyrażenie zainteresowania

Codex Security, uruchomiony na początku 2026 roku, pomógł już naprawić ponad 3 000 krytycznych i wysokich podatności.

🔗 Oficjalne ogłoszenie OpenAI


Gemini Personal Intelligence: globalne wdrożenie

15 kwietnia — Funkcja Personal Intelligence w aplikacji Gemini rozszerza się na poziom międzynarodowy. Dotychczas ograniczona do Stanów Zjednoczonych, jest teraz dostępna dla subskrybentów Google AI Ultra, Pro i Plus na całym świecie, a wdrożenie dla użytkowników darmowych planowane jest wkrótce.

Personal Intelligence pozwala Gemini dostarczać spersonalizowane i kontekstowe odpowiedzi, łącząc się z aplikacjami Google użytkownika: Search, Gmail, Google Photos i YouTube. Google ogłosił również nadejście Personal Intelligence w Google Chrome jeszcze w tym tygodniu.

🔗 Tweet @GeminiApp


Mistral Connectors MCP w Studio (Public Preview)

15 kwietnia — Mistral AI uruchamia Connectors w Mistral Studio w publicznym dostępie wczesnym (Public Preview), umożliwiając łączenie źródeł danych firmowych przez protokół MCP.

Connector opakowuje integrację w wielokrotnego użytku encję opartą na MCP. Po zarejestrowaniu jest zarządzany i monitorowany w Studio, a następnie staje się natywnym narzędziem dla każdej rozmowy, agenta lub przepływu pracy.

| Funkcjonalność | Szczegół | | --------------------------------- | ----------------------------------------------------------------------------- | ----------------------------------------------------------------------------------------------------------- | | Wbudowane i niestandardowe MCPs | Dostępne dla wszystkich zapytań modeli i agentów | | Bezpośrednie wywoływanie narzędzi | Precyzyjna kontrola nad tym, kiedy i jak narzędzia są wywoływane | | Human-in-the-loop validation | Konfigurowalny przepływ zatwierdzania przed wykonaniem narzędzi | | Dostęp programistyczny | Tworzenie, modyfikowanie, listowanie i usuwanie connectorów przez API | | Scentralizowany rejestr | Dostępny we wszystkich aplikacjach Mistral (Le Chat, AI Studio, Vibe wkrótce) | Intégrations prises en charge : CRM, bases de connaissances, outils de productivité, GitHub, recherche web. |

🔗 Annonce Mistral — Connectors


Premier spot publicitaire automobile entièrement produit par IA

15 avril — Luma Agents a alimenté le premier spot publicitaire Mazda entièrement produit par IA. L’agence créative indépendante Boundless (Johannesburg) a utilisé Luma pour créer une campagne réunissant plusieurs générations de la MX-5 et des décennies de storytelling de la marque. Délai total du concept jusqu’à l’approbation finale : moins de deux semaines.

Luma cite ce cas comme exemple des flux de travail créatifs natifs à l’IA : production plus rapide, sans compromis sur la vision créative.

🔗 Luma Labs — Boundless × Mazda


Annonces mineures

Kling AI Skill (15 avril) — Kling lance une encapsulation one-stop de ses API pour une intégration directe dans les agents IA. Les agents peuvent accéder à la génération Text/Image-to-Video, génération d’images 4K et cohérence inter-scènes, sans configuration complexe. Compatible avec Claude Code, Cursor, Codex, Copilot. 🔗 Documentation Kling AI Skill

Qwen dans OpenCode (15 avril) — Qwen3.6-Plus et Qwen3.5-Plus sont désormais disponibles dans l’outil de coding OpenCode. Qwen3.5-Plus est 3x moins cher que Qwen3.6-Plus, les deux modèles supportent les images et proposent la rétention zéro de données. 🔗 Tweet @Alibaba_Qwen

Copilot Cloud Agent — activation sélective (15 avril) — Les admins GitHub Enterprise peuvent désormais activer le Copilot Cloud Agent de façon sélective par organisation via les propriétés personnalisées (custom properties). Trois nouveaux endpoints REST permettent de gérer cette politique par API. 🔗 Changelog GitHub


Ce que ça signifie

La journée du 15 avril illustre une convergence : les grands acteurs équipent leurs environnements de développement d’une infrastructure agentique standardisée. Claude Code Desktop, les Agents SDK OpenAI et Mistral Connectors partagent la même logique — orchestrer plusieurs agents en parallèle, les doter de primitives (MCP, AGENTS.md, shell, fichiers) et leur offrir un environnement d’exécution isolé.

L’annonce la plus structurante reste le redesign Claude Code Desktop : la sidebar de sessions et le side chat changent la façon de travailler avec plusieurs agents simultanément, un usage qui devient progressivement la norme pour les développeurs qui s’appuient sur l’IA.

Côté recherche, la publication Nature sur l’apprentissage subliminal et l’expérience des chercheurs d’alignement automatisés (PGR 0.97 pour 18 000 $) signalent qu’Anthropic investit parallèlement dans la compréhension des risques à long terme — un équilibre entre productivité immédiate et sécurité structurelle.


Sources

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator