Tydzień od 29 kwietnia do 2 maja 2026 oznacza kilka ważnych przełomów: Claude Security wychodzi z prewersji do publicznej bety enterprise, Manus uruchamia stale aktywną chmurę Ubuntu bez potrzeby umiejętności technicznych, a NVIDIA udostępnia open source sandbox bezpieczeństwa dla agentów AI. Po stronie multimodalnej xAI otwiera klonowanie głosu przez API, notując rekordowe zaangażowanie na poziomie 19,7 miliona wyświetleń.
Claude Security w publicznej becie — audyt kodu przez Claude Opus 4.7
30 kwietnia — Anthropic otwiera Claude Security w publicznej becie dla klientów Claude Enterprise. Ten produkt, wcześniej znany jako Claude Code Security, analizuje codebase’y pod kątem podatności, rozumując jak ludzki badacz bezpieczeństwa — a nie poprzez proste dopasowywanie statycznych wzorców.
“Claude Security is now in public beta for Claude Enterprise customers. Claude scans your codebase for vulnerabilities, validates each finding to cut false positives, and suggests patches you can review and approve.”
🇵🇱 Claude Security jest teraz w publicznej becie dla klientów Claude Enterprise. Claude analizuje Twój codebase pod kątem podatności, weryfikuje każde wykrycie, aby ograniczyć liczbę fałszywych alarmów, i proponuje poprawki, które możesz przejrzeć i zatwierdzić. — @claudeai na X
Narzędzie wykorzystuje Claude Opus 4.7 do wykonywania równoległych, wieloagentowych skanów kodu, walidacji każdego wyniku w celu ograniczenia liczby fałszywych alarmów — jednej z głównych krytyk klasycznych skanerów — oraz proponowania konkretnych poprawek, które zespoły mogą przejrzeć i zatwierdzić. Od prewersji z lutego 2026 roku setki organizacji testowały to narzędzie na kodzie produkcyjnym, zgłaszając cykle od skanu do zastosowanej poprawki w ciągu kilku godzin.
Nowości w publicznej becie obejmują planowanie regularnych skanów (dla ciągłego pokrycia, a nie tylko jednorazowych audytów) oraz możliwość wskazania konkretnego katalogu w repozytorium.
| Aspekt | Szczegóły |
|---|---|
| Dostępność | Publiczna beta, tylko Claude Enterprise |
| Model | Claude Opus 4.7 |
| Dostęp | claude.ai/security lub pasek boczny claude.ai |
| Prewersja | Od lutego 2026 — setki organizacji |
| Nowe funkcje | Zaplanowane skany, targetowanie według katalogu |
| Zintegrowani partnerzy | CrowdStrike, Palo Alto Networks, SentinelOne, TrendAI, Wiz |
Anthropic integruje również Opus 4.7 z partnerskimi platformami bezpieczeństwa: CrowdStrike (platforma Falcon, Project Quiltworks), Palo Alto Networks, SentinelOne (Wayfinder AI), TrendAI i Wiz (Red Agent). Administratorzy Enterprise mogą aktywować Claude Security z poziomu konsoli administracyjnej.
🔗 Oficjalny blog Claude Security
Manus Cloud Computer — maszyna Ubuntu 24/7 bez kodowania
30 kwietnia — Manus uruchamia Cloud Computer, dedykowaną, zawsze włączoną maszynę wirtualną w chmurze, która fundamentalnie zmienia to, co mogą tworzyć i automatyzować użytkownicy bez doświadczenia developerskiego.
Dotąd uruchamianie programu nieprzerwanie 24 godziny na dobę wymagało wynajmowania serwerów, konfiguracji systemu operacyjnego i pisania kodu — bariera zarezerwowana dla programistów. Cloud Computer usuwa tę barierę, pozwalając opisać cel w języku naturalnym: Manus pisze kod i konfiguruje środowisko.
“Introducing Cloud Computer for Manus. Your always on machine in the cloud, so anything you build keeps running.”
🇵🇱 Prezentacja Cloud Computer dla Manus. Twoja zawsze aktywna maszyna w chmurze, dzięki której wszystko, co budujesz, nadal działa. — @ManusAI na X
Trwałość 24/7 kontrastuje z tymczasowym sandboxem Manus, który zamyka się po każdej sesji. Cloud Computer utrzymuje współdzielony system plików Ubuntu między sesjami, pozwalając Manusowi opierać się na wcześniejszej pracy.
| Środowisko Manus | Przykłady użycia |
|---|---|
| Temporary Sandbox | Analizy, dokumenty, jednorazowe aplikacje webowe |
| Manus Desktop | Kontrola plików i aplikacji na lokalnej maszynie |
| Cloud Computer | Boty 24/7, trwałe bazy danych, zaplanowane scrapery |
Udokumentowane konkretne przypadki użycia: boty Slack, Discord lub WhatsApp działające nieprzerwanie, bazy danych MySQL z automatycznymi tygodniowymi raportami, scrapery monitorujące ceny, samodzielny hosting narzędzi open source (Home Assistant, Metabase, WordPress, Plausible). Trzy plany (Basic, Standard, Advanced) pozwalają wybrać zasoby CPU, pamięci i przestrzeni dyskowej zgodnie z potrzebami. Dostęp możliwy przez SSH lub terminal webowy z poziomu panelu Manus.
NVIDIA OpenShell — open source sandbox dla agentów AI w przedsiębiorstwach
2 maja — NVIDIA ogłasza OpenShell, open source’owe środowisko sandbox (bac à sable) zaprojektowane do zabezpieczania agentów AI wdrażanych w przedsiębiorstwach. Zaprezentowane przez Jensena Huanga, CEO NVIDIA, w filmie opublikowanym 2 maja 2026 roku, narzędzie precyzyjnie kontroluje, do czego agenci mogą uzyskiwać dostęp, co mogą udostępniać i co mogą wysyłać.
Wybierając open source, NVIDIA stawia na przejrzystość i możliwość audytu: każda firma może przejrzeć kod, dostosować go do swoich potrzeb i mu zaufać. To pozycjonowanie bezpośrednio odpowiada na obawy zespołów bezpieczeństwa, które hamują enterprise’ową adopcję LLM z powodu obaw o eksfiltrację danych lub niepożądane działania.
OpenShell wpisuje się w szerszą strategię NVIDIA dotyczącą zabezpieczania inferencji agentowej, jako uzupełnienie Dynamo (routing KV-aware) i NIM (zoptymalizowane API Blackwell). Problem, który rozwiązuje, jest dokładnie tym, co opóźnia wdrażanie autonomicznych agentów w wrażliwych środowiskach: niemożność nadzorowania i ograniczania zakresu działań agentów przez zespoły IT.
| Aspekt | Szczegóły |
|---|---|
| Typ | Open source sandbox |
| Przedstawione przez | Jensen Huang (CEO NVIDIA) |
| Funkcja | Kontrola dostępu / udostępniania / wysyłania agentów AI |
| Pozycjonowanie | Uzupełnienie Dynamo i NIM |
| Zaangażowanie | 13K+ wyświetleń w kilka godzin |
xAI Voice Cloning via API — spersonalizowany głos w mniej niż 2 minuty
2 maja — xAI uruchamia klonowanie głosu (voice cloning) poprzez swoje publiczne API. Deweloperzy mogą teraz tworzyć spersonalizowany głos w mniej niż dwie minuty albo wybrać jedną z predefiniowanych barw głosu.
“Voice Cloning is now live via the xAI API! Create a custom voice in less than 2 minutes or select from our preset voices.”
🇵🇱 Klonowanie głosu jest teraz dostępne przez API xAI! Stwórz spersonalizowany głos w mniej niż 2 minuty albo wybierz spośród naszych predefiniowanych głosów. — @xai na X
Ogłoszenie wygenerowało wyjątkowe zaangażowanie na poziomie 19,7 miliona wyświetleń w kilka godzin, co czyni je jednym z najbardziej wiralowych ogłoszeń tygodnia w ekosystemie AI. Ta funkcjonalność wpisuje się w strategię xAI polegającą na udostępnianiu zaawansowanych możliwości multimodalnych przez API, po premierze Grok Voice Think Fast 1.0 w poprzednim tygodniu.
| Metryka | Wartość |
|---|---|
| Wyświetlenia | 19,7 M |
| Reposty | 820 |
| Polubienia | 5 641 |
| Zakładki | 2 481 |
| Czas utworzenia | Mniej niż 2 minuty |
Przypadki użycia obejmują tworzenie treści audio, spersonalizowanych asystentów i aplikacji interaktywnych. Dostępność przez API otwiera drogę do integracji w produktach firm trzecich.
Claude Code — Lekcje o prompt cachingu
30 kwietnia — Zespół Claude Code publikuje artykuł techniczny autorstwa Thariqa Shihipara (staff techniczny Claude Code) o swoich praktykach prompt cachingu. Główna myśl: dla długodziałającego agenta prompt caching nie jest opcjonalną optymalizacją — to podstawowa architektura.
Struktura promptu jest uporządkowana od najbardziej stabilnej do najbardziej dynamicznej: tools i system prompt (globalny cache współdzielony między sesjami), kontekst projektu (cache per projekt), kontekst sesji, a następnie dynamiczna rozmowa. Każda zmiana w stabilnej części unieważnia wszystko, co następuje po niej — co zespół traktuje jako incydent wewnętrzny.
Trzy udokumentowane wzorce: (1) nigdy nie zmieniać narzędzi w trakcie sesji — Claude Code używa EnterPlanMode/ExitPlanMode jako narzędzi wywoływalnych przez model; (2) dziesiątki narzędzi MCP są ładowane jako stuby defer_loading: true zamiast usuwania ich z promptu; (3) kompakcja kontekstu używa forka z identycznym prefiksem jak rodzic, aby zmaksymalizować cache hits.
🔗 Artykuł Claude Code Prompt Caching
Claude API Skill w CodeRabbit, JetBrains, Resolve AI i Warp
29 kwietnia — Anthropic rozszerza skill claude-api na cztery nowe środowiska developerskie: CodeRabbit, JetBrains (i jego agenta Junie), Resolve AI oraz Warp. Skill był już dostępny w Claude Code.
| Narzędzie | Integracja |
|---|---|
| Claude Code | Już dostępne |
| CodeRabbit | Nowe |
| JetBrains / Junie | Nowe |
| Resolve AI | Nowe |
| Warp | Nowe |
Jego rola: dać deweloperom eksperta Claude API zintegrowanego z ich zwykłym narzędziem, który zna zasady prompt cachingu, wzorce agentów, konfigurację Claude Managed Agents i migracje modeli. Skill jest automatycznie aktualizowany przy każdej zmianie API. Jest open source na GitHubie (anthropics/skills).
Code with Claude — konferencja dla deweloperów w tygodniu 5 maja
1 maja — Anthropic ogłasza powrót swojej konferencji dla deweloperów Code with Claude na tydzień 5 maja 2026. Wydarzenie jest przeznaczone dla wszystkich poziomów doświadczenia z Claude Code — początkujących i doświadczonych deweloperów — i będzie transmitowane na żywo. Rejestracja jest otwarta na claude.com/code-with-claude.
Ogłoszenie wywołało ponad 630 000 wyświetleń w kilka godzin, co świadczy o utrzymującym się zainteresowaniu w społeczności deweloperów. Konferencja następuje po pierwszej edycji, która odcisnęła swoje piętno na ekosystemie Claude Code, a uczestnicy wskazywali Tokio jako możliwe fizyczne miejsce niektórych sesji.
🔗 Rejestracja Code with Claude
Anthropic — badanie o osobistym wsparciu poprzez Claude (1M rozmów)
30 kwietnia — Anthropic publikuje badanie analizujące, w jaki sposób użytkownicy Claude zadają pytania o osobiste wsparcie, oparte na analizie miliona rozmów. Analiza jest przeprowadzana za pomocą Clio, wewnętrznego narzędzia do pozyskiwania informacji z zachowaniem prywatności. To badanie wpisuje się w działania mające na celu zrozumienie społecznych skutków Claude, aby informować przyszłe trenowanie modeli — zamykając pętlę między rzeczywistym użyciem a odpowiedzialnym rozwojem AI.
BioMysteryBench — benchmark bioinformatyczny od Anthropic
30 kwietnia — Anthropic publikuje BioMysteryBench, nowy benchmark oceny zdolności badawczych Claude w bioinformatyce. Ewaluacja obejmuje 99 problemów zbudowanych na podstawie rzeczywistych danych biologicznych, w których Claude musi odgadnąć typ danych i zaprojektować kreatywne rozwiązania — symulując pracę badacza wobec nieznanych danych. Celem jest zmierzenie, czy Claude może rywalizować z ludzkimi ekspertami w bioinformatyce w rzeczywistych, otwartych zadaniach badawczych, a nie na standardowych benchmarkach.
Google DeepMind AI co-clinician — multimodalni agenci medyczni
30 kwietnia — Google DeepMind ogłasza nową inicjatywę badawczą o nazwie AI co-clinician (AI współklinista). Celem jest zbadanie, w jaki sposób multimodalni agenci mogliby lepiej wspierać pracowników ochrony zdrowia w ich codziennej pracy.
Aby zapewnić bezpieczeństwo pacjentów, system opiera się na architekturze dwumodelowej (dual agent): główny agent wykonuje analizy, podczas gdy drugi, zintegrowany agent sprawdza i zatwierdza decyzje przed wykonaniem jakiegokolwiek działania. Ta architektura nadzoru ma utrzymać ludzką kontrolę w centrum rozwiązania, co jest warunkiem koniecznym dla adopcji medycznej. Ogłoszenie wywołało ponad 314 000 wyświetleń w kilka godzin.
🔗 Ogłoszenie Google DeepMind AI co-clinician
NotebookLM Notebooks w aplikacji Gemini — dostępność mobilna Free i Paid
30 kwietnia — NotebookLM ogłasza, że jego Notebooks są teraz dostępne na urządzeniach mobilnych w aplikacji Gemini dla wszystkich użytkowników Free i Paid. Wdrożenie w dodatkowych krajach europejskich jest planowane wkrótce. Ta mobilna dostępność następuje po początkowej integracji z 8 kwietnia 2026 roku na desktopie i stanowi ważny krok: użytkownicy mogą teraz organizować swoje projekty, uzyskiwać dostęp do osobistych notebooków i korzystać z NotebookLM w ruchu, z poziomu aplikacji Gemini na smartfonie.
🔗 Ogłoszenie NotebookLM mobile
Gemini CLI v0.40.0 — offline search ripgrep, pamięć 4-poziomowa, lokalny Gemma
28 kwietnia — Wersja v0.40.0 Gemini CLI wprowadza kilka usprawnień dla deweloperów.
| Funkcjonalność | Szczegóły |
|---|---|
| Wersja | v0.40.0 |
| Offline search | ripgrep zintegrowany w bundlu |
| Pamięć | Nowy system 4 hierarchicznych poziomów |
| Modele lokalne | Uproszczona komenda gemini gemma |
| Motywy | Motywy dla osób z daltonizmem inspirowane GitHubem |
| Zasoby MCP | Wprowadzone narzędzia zasobów MCP |
Gemini CLI integruje teraz ripgrep w bundlu, umożliwiając lokalne przeszukiwanie kodu bez połączenia sieciowego. System pamięci przechodzi na architekturę czteropoziomową sterowaną promptami. Konfiguracja i użycie modeli Gemma lokalnie jest uproszczone dzięki dedykowanej komendzie gemini gemma.
GitHub Copilot w Visual Studio — aktualizacja z kwietnia 2026
30 kwietnia — GitHub publikuje kwietniową aktualizację Copilot dla Visual Studio, skoncentrowaną na workflowach agentowych.
| Funkcja | Opis |
|---|---|
| Agent chmurowy z IDE | Uruchamianie sesji agenta chmurowego bez opuszczania Visual Studio |
| Przenośne custom agents | Definicje na poziomie użytkownika w %USERPROFILE%/.github/agents/ |
| Rozszerzone umiejętności agenta | Odkrywanie z .claude/skills/ i .agents/skills/ |
| Agent debugger | Reprodukuje, instrumentuje, diagnozuje i naprawia na podstawie issue |
| C++ Code Editing Tools | Ogólna dostępność (get_symbol_call_hierarchy, itd.) |
Agent chmurowy pozwala wybrać „Cloud” w selektorze agenta, opisać zadanie, a Copilot automatycznie tworzy issue GitHub i pull request na zdalnej infrastrukturze, podczas gdy deweloper kontynuuje pracę. Agent debugger weryfikuje poprawki względem rzeczywistego zachowania runtime.
🔗 Changelog GitHub Copilot Visual Studio kwiecień 2026
Genspark × Microsoft — globalne strategiczne partnerstwo na Azure
30 kwietnia — Genspark ogłasza Microsoft jako globalnego strategicznego partnera. Zbudowane na Azure partnerstwo ma na celu bezpośrednią integrację agentów AI Genspark z codziennymi narzędziami Microsoft — w szczególności z PowerPointem i innymi aplikacjami Microsoft 365. Deklarowanym celem jest wbudowanie wykonywania AI bezpośrednio w istniejące narzędzia, bez zmuszania użytkowników do zmiany nawyków pracy. Ogłoszenie to następuje krótko po partnerstwie Salesforce ogłoszonym 29 kwietnia i stanowi znaczącą ekspansję Genspark w ekosystemie Microsoft.
🔗 Ogłoszenie Genspark × Microsoft
NVIDIA NeMo-RL + vLLM Speculative Decoding — 1,8× przepustowości RL
1 maja — NVIDIA Research publikuje artykuł o przyspieszeniu post-treningu przez reinforcement learning (reinforcement learning post-training). Główny problem: faza generowania (rollout) tworzy wąskie gardło, które spowalnia całą pętlę RL.
Rozwiązanie łączy NeMo-RL i vLLM z speculative decoding (speculative decoding) — techniką, która generuje kandydackie tokeny równolegle bez utraty jakości.
| Metryka | Wartość |
|---|---|
| Zmierzona przepustowość (modele 8B) | 1,8× |
| Projekcja end-to-end | 2,5× |
| Kod | Open source na NVIDIA-NeMo/RL |
Runway — aplikacja mobilna na Androida i iOS
2 maja — Runway ogłasza premierę swojej aplikacji mobilnej na Androida, jako uzupełnienie dostępnej już aplikacji na iOS. Platforma do generowania wideo AI jest teraz dostępna na dwóch głównych platformach mobilnych, umożliwiając tworzenie treści z dowolnego urządzenia.
Dostępność mobilna znacząco rozszerza dostępność Runway, dotąd używanego głównie przez przeglądarkę internetową. Hasło ogłoszenia — „Make anything. From anywhere. On any device.” — dobrze oddaje stawkę: wyprowadzić tworzenie wideo AI z biura i przenieść je do kieszeni twórców. Aplikację na Androida można pobrać ze sklepu Google Play Store.
ElevenCreative Flows — współpraca w czasie rzeczywistym i Basic Seats
1 maja — ElevenLabs aktywuje współpracę w czasie rzeczywistym w ElevenCreative Flows, swojej platformie do tworzenia treści audio i wideo wspomaganej przez AI. Kilku członków zespołu (twórcy, marketerzy, interesariusze) może teraz pracować jednocześnie nad tymi samymi projektami. Basic Seats umożliwiają recenzentom i menedżerom dostęp do projektów bez pełnej subskrypcji ElevenCreative. Ogłoszenie wygenerowało 769 000 wyświetleń, co świadczy o dużym zainteresowaniu tą funkcją współpracy.
🔗 Ogłoszenie ElevenCreative Flows
Grok Imagine — tryb Agent na nieskończonym canvasie
1 maja — Grok Imagine uruchamia tryb Agent (Agent Mode) na nieskończonym canvasie dla desktopu. Ten ujednolicony interfejs pozwala realizować cały kreatywny przepływ — ideację, pisanie, generowanie obrazów, edycję i tworzenie wideo — bez wychodzenia z grok.com/imagine.
Nieskończony canvas (infinite canvas) stanowi ewolucję w projektowaniu narzędzi do tworzenia AI: zamiast łączyć ze sobą wiele wyspecjalizowanych narzędzi, cały proces twórczy odbywa się w sposób ciągły w jednej przestrzeni roboczej, dostępnej wyłącznie na desktopie.
| Metryka | Wartość |
|---|---|
| Wyświetlenia | 7,9 M |
| Polubienia | 3 825 |
| Dostępność | Tylko desktop |
🔗 Ogłoszenie Grok Imagine Agent Mode
Qwen-Scope — open-source’owy zestaw sparse autoencoders
30 kwietnia — Qwen publikuje Qwen-Scope, open-source’owy zestaw sparse autoencoders (sparse autoencoders, SAE) poświęcony interpretowalności i kontroli modeli z rodziny Qwen. SAE rozkładają wewnętrzne aktywacje modelu na zrozumiałe cechy, które Qwen-Scope przekształca w praktyczne narzędzia dla czterech obszarów:
| Obszar | Zastosowanie |
|---|---|
| Inferencja | Sterowanie wynikami bez inżynierii promptów |
| Dane | Klasyfikowanie i syntetyzowanie ukierunkowanych danych |
| Trening | Identyfikowanie problemów u źródła (code-switching, powtórzenia) |
| Ewaluacja | Analiza wzorców aktywacji w celu wyboru właściwych benchmarków |
Kod, wagi i raport techniczny są dostępne na HuggingFace i ModelScope.
Codex CLI v0.128.0 — trwałe cele, keymaps, MultiAgentV2
30 kwietnia — Wersja 0.128.0 Codex CLI przynosi kilka istotnych ulepszeń.
Główną nowością jest komenda /goal, która pozwala definiować trwałe cele (persisted goals) zarządzane przez API app-server. Cel można utworzyć, wstrzymać, wznowić lub usunąć bezpośrednio z interfejsu TUI.
| Funkcja | Opis |
|---|---|
/goal trwały | Cele zarządzane przez API app-server z kontrolami TUI |
codex update | Aktualizacja in place |
| Konfigurowalne keymaps | Personalizowane skróty klawiszowe TUI |
| Rozszerzony MultiAgentV2 | Ograniczenia wątków, kontrola czasu oczekiwania, głębokość subagentów |
| Import agentów zewnętrznych | Sesje agentów importowane w tle |
Instalacja: npm install -g @openai/codex@0.128.0
OpenAI Advanced Account Security — wzmocniona ochrona opt-in
30 kwietnia — OpenAI uruchamia Advanced Account Security, zestaw wzmocnionych, opcjonalnych zabezpieczeń dla kont ChatGPT i Codex. To ustawienie jest skierowane do użytkowników o podwyższonym ryzyku ataków cyfrowych: dziennikarzy, osób wybieranych do władz, dysydentów politycznych, badaczy.
Po aktywacji: logowanie hasłem jest wyłączone (akceptowane są wyłącznie passkeys lub fizyczne klucze bezpieczeństwa zgodne z FIDO), odzyskiwanie przez e-mail i SMS zostaje usunięte, sesje są skrócone, a rozmowy są automatycznie wyłączane z treningu modeli. Partnerstwo z Yubico oferuje klucze YubiKey w preferencyjnej cenie z poziomu ustawień bezpieczeństwa. Od 1 czerwca 2026 r. członkowie programu Trusted Access for Cyber będą musieli aktywować tę ochronę.
🔗 OpenAI Advanced Account Security
GPT-5.5 — podsumowanie po tygodniu: przychody API x2, Codex podwaja przychody
1 maja — OpenAI przedstawia podsumowanie GPT-5.5 tydzień po premierze: przychody API rosną w tempie ponad dwa razy szybszym niż przy jakimkolwiek poprzednim launchu.
| Metryka | Wartość |
|---|---|
| Przychody API vs poprzednie premiery | Wzrost >2x szybszy |
| Przychody Codex w 7 dni | x2 |
| Określenie OpenAI | „Najmocniejsza premiera w naszej historii” |
Codex podwoił swoje przychody w mniej niż siedem dni — to sygnał silnego popytu enterprise na agentowe narzędzia deweloperskie (agentic coding tools). Te liczby potwierdzają dynamikę wokół GPT-5.5 uruchomionego 23 kwietnia.
🔗 Ogłoszenie OpenAI o podsumowaniu GPT-5.5
Perplexity Computer w pracy — Teams, finanse profesjonalne, 70+ workflowów
30 kwietnia — Perplexity publikuje wpis na blogu opisujący rozszerzenie swojego agenta automatyzacji Computer na nowe powierzchnie.
| Rozszerzenie | Szczegóły |
|---|---|
| Microsoft Teams | Po Slacku (uruchomionym na początku kwietnia) |
| Dostępne workflowy | Biblioteka 70+ workflowów enterprise |
| Computer for Professional Finance | Finanse rynkowe, due diligence, private equity |
| Bezpieczeństwo tożsamości | Ogłoszono nowe partnerstwo |
Computer był początkowo dostępny w Slacku. Perplexity rozszerza go na Microsoft Teams, umożliwiając automatyzację zadań bezpośrednio w narzędziu do komunikacji. Kolejne ogłoszone powierzchnie to dokumenty i arkusze kalkulacyjne. W obszarze finansów profesjonalnych oferta jest skierowana do zespołów private equity, analityków finansowych i zespołów due diligence.
🔗 Blog Perplexity Computer w pracy
Krótkie informacje
-
Hackathon Claude Code Opus 4.7 — ogłoszenie zwycięzców — Współorganizowany z Cerebral Valley, nagroda „Best Use of Claude Managed Agents” trafia do ARIA, agenta utrzymaniowego stworzonego przez francuski zespół Idriss Benguezzou i Adam Hnaien. 🔗 Ogłoszenie
-
Anthropic Fellows — introspection adapters — Badacze Anthropic Fellows publikują prace o „introspection adapters”: adapterach pozwalających LLM samodzielnie zgłaszać potencjalnie niepożądane zachowania wyuczone podczas treningu. 🔗 Ogłoszenie
-
Przewodnik wdrażania enterprise Claude Cowork — Anthropic publikuje nowy praktyczny przewodnik po wdrażaniu Claude Cowork na dużą skalę w organizacjach. 🔗 Przewodnik
-
Wycofanie GPT-5.2 i GPT-5.2-Codex w Copilot 1 czerwca 2026 — GitHub wycofuje GPT-5.2 (zastąpiony przez GPT-5.5) oraz GPT-5.2-Codex (zastąpiony przez GPT-5.3-Codex) we wszystkich doświadczeniach Copilot, z wyjątkiem GPT-5.2-Codex w Copilot Code Review. 🔗 Changelog
-
Midjourney V8.1 — aktualizacja jakości i ostrości — Midjourney wypuszcza aktualizację poprawiającą jakość obrazu i ostrość modelu V8.1. 🔗 Ogłoszenie
-
Partnerstwo Qwen + Fireworks AI — Oficjalne partnerstwo między Qwen i Fireworks AI w celu wdrażania modeli Qwen z niższą latencją i mniejszymi kosztami inferencji dla zespołów enterprise. 🔗 Ogłoszenie
-
Mistral AI w TIME100 Most Influential Companies 2026 — Mistral znajduje się w pierwszej dziesiątce w kategorii AI rankingu TIME100 najbardziej wpływowych firm świata. 🔗 Ogłoszenie
-
Z.ai „Scaling Pain” — debugowanie GLM-5 w produkcji — Z.ai publikuje techniczne studium przypadku dotyczące odtwarzania rzadkich uszkodzonych outputów, wąskich gardeł przepustowości w prefill oraz zużycia pamięci GPU przez GLM-5 na dużą skalę. 🔗 Blog · Ogłoszenie
-
Codex — import workflowów z ChatGPT — Ustawienia, wtyczki, agenci i konfiguracje projektów mogą być importowane do Codex kilkoma kliknięciami, z przełączaniem z ChatGPT w przypadku ograniczenia rate limit. 🔗 Ogłoszenie
-
Codex for Work — role i codzienne aplikacje — Nowe doświadczenie Codex ukierunkowane na pracę: wybór roli, podłączenie używanych aplikacji, sugestie promptów dla dokumentów, prezentacji i arkuszy kalkulacyjnych. 🔗 Ogłoszenie
-
Codex Pets — interaktywna maskotka — Komenda
/petw Codex budzi interaktywną wirtualną maskotkę. 1,57 miliona wyświetleń, przypięty tweet na @OpenAIDevs. 🔗 Ogłoszenie
Co to oznacza
Zbieżność ogłoszeń z tego tygodnia rysuje wyraźny trend: bezpieczeństwo enterprise staje się głównym narzędziem różnicowania dostawców AI. Claude Security i OpenAI Advanced Account Security celują w organizacje i użytkowników o wysokim ryzyku — dwa komplementarne podejścia, jedno na poziomie kodu, drugie na poziomie konta. NVIDIA OpenShell wnosi trzecią warstwę, kontrolując zakres działania autonomicznych agentów. AI enterprise wchodzi w fazę dojrzałości, w której zaufanie i audytowalność są ważniejsze niż pogoń za benchmarkami.
Demokratyzacja infrastruktury agentowej postępuje w praktyce. Manus Cloud Computer i Perplexity Computer at Work są skierowane do osób nietechnicznych, które potrafią uruchamiać usługi w trybie ciągłym — pierwszy poprzez trwałą maszynę Ubuntu, drugi poprzez workflowy enterprise w Teams i Slacku. Te dwa produkty zmniejszają tarcie techniczne w sposób komplementarny: Cloud Computer dla tych, którzy budują, Computer for Work dla tych, którzy automatyzują procesy biznesowe.
Syntezowana mowa wchodzi w nową fazę dostępności. Voice Cloning od xAI przez API w mniej niż 2 minuty, z 19,7 miliona wyświetleń zaangażowania, pokazuje apetyt rynku na możliwości multimodalne, które można bezpośrednio integrować z produktami stron trzecich. Grok Imagine Agent Mode i ElevenCreative Flows wpisują się w tę samą logikę: zmniejszyć tarcie między pomysłem a tworzeniem treści audio-wideo.
Liczby związane z premierą GPT-5.5 (przychody API x2, Codex podwajający przychody w 7 dni) potwierdzają, że popyt enterprise na agentów kodu jest już mierzalną rzeczywistością biznesową, a nie obietnicą. Ta dynamika uzasadnia równoległe inwestycje w infrastrukturę RL (speculative decoding NeMo-RL w NVIDIA) oraz narzędzia interpretowalności (Qwen-Scope), które atakują wąskie gardła post-treningu na dużą skalę.
Źródła
- https://x.com/claudeai/status/2049898739783897537
- https://claude.com/blog/claude-security-public-beta
- https://claude.com/product/claude-security
- https://claude.com/blog/lessons-from-building-claude-code-prompt-caching-is-everything
- https://claude.com/blog/claude-api-skill
- https://github.com/anthropics/skills/tree/main/skills/claude-api
- https://x.com/claudeai/status/2050252933866930339
- https://x.com/AnthropicAI/status/2049927618397614466
- https://x.com/AnthropicAI/status/2049624600741560340
- https://x.com/claudeai/status/2049523899918934384
- https://x.com/AnthropicAI/status/2049576143653929153
- https://claude.com/blog/new-guide-deploying-claude-across-the-enterprise-with-claude-cowork
- https://x.com/ManusAI/status/2049870078896963962
- https://manus.im/fr/blog/manus-cloud-computer
- https://github.blog/changelog/2026-04-30-github-copilot-in-visual-studio-april-update/
- https://x.com/genspark_ai/status/2049747536303518194
- https://github.blog/changelog/2026-05-01-upcoming-deprecation-of-gpt-5-2-and-gpt-5-2-codex/
- https://x.com/GoogleDeepMind/status/2049867061279457761
- https://x.com/NotebookLM/status/2049904264731078912
- https://github.com/google-gemini/gemini-cli/blob/main/docs/changelogs/index.md
- https://x.com/NVIDIAAI/status/2050336285428998202
- https://x.com/NVIDIAAI/status/2050304249699950739
- https://github.com/NVIDIA-NeMo/RL
- https://x.com/runwayml/status/2050270993487212712
- https://x.com/ElevenLabs/status/2050100453589852452
- https://x.com/midjourney/status/2049973065094947125
- https://x.com/xai/status/2050355373052223585
- https://x.ai/news/grok-custom-voices
- https://x.com/imagine/status/2050327174629228889
- https://x.com/Alibaba_Qwen/status/2049861145574690992
- https://x.com/Alibaba_Qwen/status/2050232280082522505
- https://x.com/MistralAI/status/2049988769928056852
- https://x.com/Zai_org/status/2049601030170857891
- https://z.ai/blog/scaling-pain
- https://developers.openai.com/codex/changelog
- https://openai.com/index/advanced-account-security/
- https://x.com/OpenAI/status/2050250926888468929
- https://x.com/OpenAI/status/2050290618187055175
- https://x.com/OpenAI/status/2049928776147230886
- https://x.com/OpenAIDevs/status/2050275713824211041
- https://www.perplexity.ai/hub/blog/computer-at-work
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, odwiedź https://github.com/jls42/ai-powered-markdown-translator