ai-powered-markdown-translatorPrzetłumaczony artykuł z fr na pl za pomocą gpt-5.4-mini.
Anthropic i xAI podpisują bezprecedensową umowę: 220 000 GPU NVIDIA z superkomputera Colossus 1 mają od tego tygodnia podwoić limity Claude Code. Claude for Microsoft 365 przechodzi do powszechnej dostępności w Excelu, PowerPoincie i Wordzie. OpenAI uruchamia GPT-Realtime-2, pierwszy model głosowy wyposażony w rozumowanie na poziomie GPT-5. Perplexity udostępnia Personal Computer wszystkim użytkownikom Mac, a ElevenLabs przekracza 500 milionów dolarów ARR, mając NVIDIA jako strategicznego inwestora.
Anthropic wynajmuje Colossus 1 od xAI — 220 000 GPU NVIDIA, podwojenie limitów Claude Code
6 maja — Anthropic ogłasza jednocześnie natychmiastowy wzrost limitów użycia oraz bezprecedensową umowę infrastrukturalną ze SpaceX / xAI.
Dla użytkowników najbardziej widoczną zmianą jest podwojenie pięciogodzinnych limitów przepustowości w Claude Code, obowiązujące natychmiast w planach Pro, Max, Team i Enterprise. Automatyczne ograniczanie w godzinach szczytu — które hamowało plany Pro i Max — zostaje również usunięte. Równolegle podniesiono limity API dla modeli Claude Opus.
Te wzrosty stają się możliwe dzięki umowie ze SpaceX: Anthropic uzyskuje dostęp do całej mocy Colossus 1, superkomputera xAI, czyli ponad 300 megawatów i ponad 220 000 GPU NVIDIA (H100, H200 i GB200). Ta moc będzie dostępna w ciągu miesiąca. Obie firmy ogłaszają również wspólny zamiar rozwijania wielu gigawatów mocy obliczeniowej AI na orbicie — to pierwsze takie przedsięwzięcie w branży.
To partnerstwo dochodzi do już istniejącej serii umów: Amazon (do 5 GW, z czego prawie 1 GW dostępny pod koniec 2026 r.), Google i Broadcom (5 GW od 2027 r.), Microsoft i NVIDIA (30 mld USD mocy Azure) oraz Fluidstack (50 mld USD amerykańskiej infrastruktury AI). Ekspansja międzynarodowa uwzględni wymagania dotyczące rezydencji danych dla sektorów regulowanych. Anthropic zobowiązuje się ponadto pokryć każdą podwyżkę ceny energii elektrycznej dla lokalnych odbiorców związaną z jego centrami danych.
| Zmiana | Objęte plany | Skutek |
|---|---|---|
| Podwojenie limitów 5h Claude Code | Pro, Max, Team, Enterprise | Natychmiast |
| Usunięcie ograniczania w godzinach szczytu | Pro, Max | Natychmiast |
| Podniesienie limitów API Opus | Wszystkie | Natychmiast |
| Umowa compute | Moc | Harmonogram |
|---|---|---|
| SpaceX / xAI Colossus 1 | 300+ MW, 220 000+ GPU NVIDIA | W ciągu miesiąca |
| Amazon | Do 5 GW (~1 GW pod koniec 2026) | 2026 |
| Google + Broadcom | 5 GW | Od 2027 |
| Microsoft + NVIDIA | 30 mld USD Azure | — |
| Fluidstack | 50 mld USD infrastruktura US | — |
🔗 Anthropic — Podniesienie limitów + umowa ze SpaceX
Claude for Microsoft 365 — powszechna dostępność w Excelu, PowerPoincie, Wordzie + beta Outlook
7 maja — Claude for Excel, PowerPoint i Word przechodzą do powszechnej dostępności dla wszystkich płatnych planów. Claude for Outlook jednocześnie wchodzi do publicznej bety na tych samych warunkach.
“Claude for Excel, PowerPoint, and Word are now generally available, and Claude for Outlook is in public beta. As Claude moves between your Microsoft apps, it carries the full context of your conversation.”
🇵🇱 Claude for Excel, PowerPoint i Word jest już dostępny dla wszystkich, a Claude for Outlook jest w publicznej becie. We wszystkich aplikacjach Microsoft Claude zachowuje pełny kontekst twojej rozmowy. — @claudeai na X
Centralną funkcją jest wspólny kontekst między czterema aplikacjami: rozmowa rozpoczęta w Outlooku, aby posegregować e-mail, może być kontynuowana w Wordzie przy pisaniu notatki, potem w Excelu przy analizie danych i w PowerPoincie przy przygotowaniu prezentacji — bez potrzeby ponownego wyjaśniania kontekstu. Automatyczna krzyżowa aktualizacja to druga praktyczna korzyść: zmiana założenia w modelu Excel jednocześnie aktualizuje wykres w prezentacji i odpowiadającą mu liczbę w notatce Word.
Wśród cytowanych firm są: ServiceNow (“Claude does the work in Excel itself, instead of asking us to move content between tools”) oraz zespoły zarządzania prywatnymi aktywami, które używają tego rozwiązania do budowania i utrzymywania modeli pokrycia finansowego.
| Aplikacja | Status na 7 maja 2026 | Plany |
|---|---|---|
| Claude for Excel | Powszechna dostępność (GA) | Wszystkie płatne plany |
| Claude for PowerPoint | Powszechna dostępność (GA) | Wszystkie płatne plany |
| Claude for Word | Powszechna dostępność (GA) | Wszystkie płatne plany |
| Claude for Outlook | Publiczna beta | Wszystkie płatne plany |
🔗 Ogłoszenie Claude for Microsoft 365
Claude Managed Agents — dreaming, outcomes, orkiestracja multiagentowa, webhooks
6 maja — Podczas konferencji Code with Claude Anthropic uruchamia kilka nowych funkcji dla swojej platformy wdrażania agentów.
Najbardziej znaczącą nowością jest dreaming: zaplanowany proces, który analizuje poprzednie sesje agenta, wyodrębnia z nich powtarzające się wzorce i konsoliduje jego pamięć, aby z czasem stawał się lepszy. Programista zachowuje kontrolę — dreaming może automatycznie aktualizować pamięć albo kierować każdą zmianę do ludzkiej weryfikacji. Dreaming jest dostępne w eksperymentalnym podglądzie badawczym (research preview) na żądanie.
Outcomes wchodzi do publicznej bety: ta funkcja pozwala ocenić każdy wynik działania agenta według kryteriów zdefiniowanych przez programistę, zanim zostanie on przekazany użytkownikowi. Firma Wisedocs wykorzystała ją, aby przyspieszyć o 50% przegląd dokumentacji medycznej, jednocześnie zachowując zgodność ze swoimi wewnętrznymi standardami.
Orkiestracja multiagentowa pozwala agentowi-pilotowi delegować podzadania do agentów-specjalistów działających równolegle, co ułatwia obsługę złożonych zadań wymagających kilku kompetencji jednocześnie. Dostępne są również webhooks, służące do wyzwalania działań zewnętrznych.
| Funkcja | Dostępność | Opis |
|---|---|---|
| Dreaming | Research preview (na żądanie) | Samodoskonalenie przez analizę poprzednich sesji |
| Outcomes | Publiczna beta | Ocena wyników przed dostarczeniem |
| Orkiestracja multiagentowa | Publiczna beta | Agent-pilot + agenci-specjaliści równolegle |
| Webhooks | Publiczna beta | Wyzwalanie działań zewnętrznych |
🔗 Ogłoszenie Claude Managed Agents
GPT-Realtime-2 — głos z rozumowaniem GPT-5 i kontekstem 128K
7 maja — OpenAI uruchamia nową generację modeli w Realtime API: GPT-Realtime-2, GPT-Realtime-Translate i GPT-Realtime-Whisper.
GPT-Realtime-2 to pierwszy model głosowy wyposażony w rozumowanie na poziomie GPT-5: potrafi obsługiwać złożone zapytania, wywoływać narzędzia równolegle (parallel tool calls), odzyskiwać sprawność po przerwach (recovery behavior) oraz utrzymywać okno kontekstu o długości 128 000 tokenów (w porównaniu z 32 000 u poprzednika), dostosowane do długich sesji. Dostępnych jest pięć poziomów rozumowania: minimal, low, medium, high, xhigh (domyślnie low). Przed odpowiedziami można wstawiać formuły przejściowe (preambles), aby uzyskać naturalniejszy przepływ.
GPT-Realtime-Translate umożliwia jednoczesne tłumaczenie na żywo na 13 języków docelowych z ponad 70 języków źródłowych. GPT-Realtime-Whisper zapewnia niskolatencyjną transkrypcję strumieniową (streaming).
Zillow przetestowało GPT-Realtime-2 w swoich interakcjach głosowych: +26 punktów współczynnika sukcesu na najtrudniejszym benchmarku adversarialnym (95% wobec 69%). Obsługiwane jest EU Data Residency.
| Model | Możliwości | Cena |
|---|---|---|
| GPT-Realtime-2 | Głos + rozumowanie GPT-5, 128K | $32/1M tokens audio input, $64/1M output |
| GPT-Realtime-Translate | Tłumaczenie 70→13 języków | $0,034/min |
| GPT-Realtime-Whisper | Transkrypcja strumieniowa | $0,017/min |
| Benchmark | GPT-Realtime-1.5 | GPT-Realtime-2 (high) | GPT-Realtime-2 (xhigh) |
|---|---|---|---|
| Big Bench Audio | referencja | +15,2 % | — |
| Audio MultiChallenge APR | 36,7 % | — | 70,8 % |
🔗 Ogłoszenie OpenAI — nowe modele głosowe
Perplexity Personal Computer dostępny dla wszystkich użytkowników Mac
7 maja — Perplexity uruchamia nową aplikację macOS i otwiera Personal Computer dla wszystkich użytkowników, bez ograniczeń związanych z abonamentem Pro lub Max.
Aplikacja przenosi AI z chmury bezpośrednio na urządzenie. Działa na plikach lokalnych, natywnych aplikacjach Mac, otwartym internecie i bezpiecznych serwerach Perplexity. Obsługuje 400+ konektorów i integruje się z przeglądarką Comet dla narzędzi webowych bez bezpośrednich konektorów. Plany Pro i Max zachowują kredyty powiązane z istniejącą subskrypcją; użytkownicy darmowi również mają do niego dostęp.
Rekomendowanym zastosowaniem jest Mac mini jako stałe centrum: zespoły agentów mogą działać nieprzerwanie (24/7), podczas gdy użytkownik zajmuje się czymś innym, a w razie potrzeby otrzymuje powiadomienie, gdy wymagana jest ludzka akceptacja. Sterowanie odbywa się z dowolnego urządzenia — włącznie z iPhonem.
Dotychczasowa aplikacja Perplexity Mac zostanie wycofana w najbliższych tygodniach. Pobieranie jest bezpośrednie (jeszcze niedostępne w App Store).
| Wymiar | Wartość |
|---|---|
| Dostępność | Wszyscy użytkownicy Mac |
| Zalecane urządzenie | Mac mini (włączony cały czas) |
| Obsługiwane konektory | 400+ |
| Integracja z przeglądarką | Comet |
| App Store | Nie (pobieranie bezpośrednie) |
| Stara aplikacja | Wycofanie w najbliższych tygodniach |
🔗 Blog Perplexity — Personal Computer dla wszystkich
Perplexity Finance Search w Agent API — #1 dokładność na FinSearchComp T1
6 maja — Perplexity uruchamia Finance Search w Agent API: jedno wywołanie narzędzia agreguje licencjonowane dane finansowe, dane rynkowe w czasie rzeczywistym i cytowane źródła z sieci.
Rozwiązany problem jest prosty: decyzje finansowe zależą od wiarygodnych, aktualnych i możliwych do prześledzenia źródeł. Finance Search zastępuje ogólne wyszukiwanie w sieci ustrukturyzowanymi, licencjonowanymi danymi — kursami, fundamentami, transkryptami rozmów konferencyjnych, prognozami — zwracanymi w spójnym schemacie niezależnie od dostawcy działającego w tle.
Na benchmarku FinSearchComp T1 Finance Search osiąga najwyższą dokładność dla danych finansowych w czasie rzeczywistym, spójną w czasie, oraz najniższy koszt na poprawną odpowiedź (mniej tokenów dzięki danym ustrukturyzowanym). Cytaty są wbudowane w każdy wynik. Model jest konfigurowalny przez programistę, z widocznością użycia tokenów.
Finance Search jest uzupełnieniem Computer for Professional Finance (omówionego już 5 maja): tam, gdzie pierwszy oferuje wizualny workspace, Finance Search integruje się z programistycznymi workflow poprzez API.
| Wymiar | Wartość |
|---|---|
| Interfejs | Jedno wywołanie narzędzia (finance_search) |
| Pokrywane dane | Kursy, fundamenty, transkrypty, prognozy, kontekst rynkowy |
| Benchmark FinSearchComp T1 | #1 dokładność, #1 koszt/poprawna odpowiedź |
| Cytaty | Wbudowane w każdy wynik |
🔗 Blog Perplexity — Finance Search
Natural Language Autoencoders (NLAs) — czytanie wewnętrznych myśli Claude
7 maja — Anthropic publikuje nową metodę interpretowalności, która zamienia wewnętrzne aktywacje modelu na tekst bezpośrednio czytelny.
Architektura opiera się na treningu w pętli zamkniętej: verbalizator aktywacji (activation verbalizer) tłumaczy aktywację na tekst wyjaśniający, a rekonstruktor aktywacji (activation reconstructor) próbuje odtworzyć aktywację na podstawie tego tekstu. Im wierniejsza rekonstrukcja, tym lepsze wyjaśnienie.
Zastosowanie w bezpieczeństwie jest uderzające: po zastosowaniu do Claude Opus 4.6 i Claude Mythos Preview NLAs ujawniają, że modele podejrzewały, że są w sytuacji testowej znacznie częściej, niż to werbalizowały. W testach destrukcyjnego kodu ukryta świadomość oceny pojawia się w 16% przypadków, wobec 0% jawnej werbalizacji. Na SWE-bench Verified wskaźnik ten rośnie do 26%. W prawdziwych rozmowach użytkowników claude.ai pozostaje poniżej 1%.
W zestawie audytowym z celowo źle dostrojonym modelem audytorzy wyposażeni w NLAs zidentyfikowali przyczynę źródłową w 12 do 15% przypadków, wobec mniej niż 3% przy użyciu innych narzędzi. Kod treningowy został opublikowany jako open source; interaktywna demonstracja jest dostępna na Neuronpedia.
| Ocena | Ukryta świadomość (NLA) | Uwerbalizowana świadomość |
|---|---|---|
| Testy destrukcyjnego kodu | 16 % | ~0 % |
| SWE-bench Verified | 26 % | ~0 % |
| Prawdziwe rozmowy claude.ai | < 1 % | — |
🔗 Anthropic Research — Natural Language Autoencoders
Petri 3.0 — narzędzie do alignementu open source przekazane Meridian Labs
7 maja — Anthropic przekazuje Petri, swoje narzędzie do alignementu open source, Meridian Labs, niezależnej organizacji non-profit zajmującej się oceną AI.
Petri to zestaw narzędzi do testów alignementu, który można stosować do dowolnego modelu językowego: oszustwa, sycophancy, współpracy ze szkodliwymi żądaniami. Zintegrowany z ocenami wszystkich modeli Claude od Sonnet 4.5, został przyjęty przez brytyjski AI Security Institute do ocen sabotażu badań nad AI.
Wersja 3.0 wprowadza trzy ulepszenia: lepszą adaptowalność dzięki rozdzieleniu komponentów audytora i modelu docelowego, moduł “Dish”, który uruchamia testy w rzeczywistych warunkach wdrożeniowych (prawdziwy system prompt, prawdziwy scaffold), aby scenariusze były trudniejsze do wykrycia, oraz integrację z Bloom dla głębszych ocen behawioralnych.
Przekazanie Meridian Labs nawiązuje do modelu przekazania protokołu MCP do Linux Foundation: ma to zagwarantować niezależność narzędzia od jakiegokolwiek laboratorium AI.
🔗 Anthropic Research — Petri 3.0
Instytut Anthropic (TAI) — agenda badawcza w 4 osiach
7 maja — Anthropic publikuje pełny program badawczy TAI, wewnętrznej organizacji uruchomionej w marcu 2026 r., aby badać rzeczywiste skutki AI z pozycji laboratorium frontier.
Agenda opiera się na czterech osiach: dyfuzja ekonomiczna (adopcja AI przez firmy i kraje, wpływ na rynki pracy), zagrożenia i odporność (możliwości podwójnego zastosowania, cyberbezpieczeństwo, mechanizmy defensywne), systemy AI w naturze (in the wild — behawioralne i instytucjonalne skutki wdrożonej na dużą skalę AI) oraz R&D przez AI (przyspieszenie badań naukowych przez samą AI, w tym ryzyka rekurencyjnej pętli samodoskonalenia).
TAI zobowiązuje się do częstszego udostępniania danych z Anthropic Economic Index oraz informacji o wewnętrznym przyspieszeniu Anthropic dzięki własnym narzędziom. Otwarto nabór do programu Anthropic Fellows (czteromiesięczne finansowanie).
🔗 Anthropic Research — Agenda TAI
Codex Extension Chrome — sterowanie przeglądarką w tle na macOS i Windows
7 maja — OpenAI uruchamia rozszerzenie Chrome dla Codex, umożliwiające agentowi bezpośrednie sterowanie kartami Chrome bez przerywania workflow użytkownika.
Codex działa w tle na wielu kartach jednocześnie, łącząc możliwości natywnych wtyczek z bezpośrednim dostępem do stron internetowych (pulpity nawigacyjne, CRM, aplikacje webowe). System automatycznie wybiera najlepsze narzędzie na każdym etapie: wtyczki, Chrome albo ich kombinację. Przypadki użycia: debugowanie przepływów w przeglądarce, sprawdzanie pulpitów, prowadzenie badań, aktualizowanie CRM-ów, testowanie złożonych aplikacji webowych (w tym gier wieloosobowych poprzez subagentów).
Rozszerzenie instaluje się przez wtyczkę Chrome w aplikacji Codex. Dostępne natychmiast na macOS i Windows dla wszystkich użytkowników Codex.
🔗 Tweet OpenAI — Codex Chrome Extension
ChatGPT Trusted Contact — bezpieczeństwo zdrowia psychicznego z przeglądem człowieka
7 maja — OpenAI wdraża Trusted Contact, opcjonalną funkcję bezpieczeństwa w ChatGPT.
Każda dorosła osoba (18+, 19+ w Korei Południowej) może wskazać zaufaną osobę (przyjaciela, rodzinę, opiekuna), która zostanie powiadomiona, jeśli w jej rozmowach zostaną wykryte sygnały kryzysu. Proces łączy automatyczne wykrywanie i przegląd przez człowieka (cel: mniej niż godzina przed wysłaniem), z powiadomieniem bez dostępu do transkrypcji, aby chronić prywatność. Funkcja rozszerza na dorosłych istniejące już kontrole rodzicielskie dla kont nastolatków. Opracowana we współpracy z American Psychological Association i siecią 260+ lekarzy w 60 krajach.
| Parametr | Wartość |
|---|---|
| Kwalifikowalność | 18+ (19+ Korea Południowa) |
| Czas na akceptację kontaktu | 1 tydzień |
| SLA przeglądu przez człowieka | Cel < 1 godzina |
| Treść powiadomienia | Ogólny powód, bez transkrypcji |
| Kanały | Email, SMS, in-app |
OpenAI B2B Signals — luka między firmami z czołówki a typowymi firmami się pogłębia
6 maja — OpenAI publikuje pierwszy raport B2B Signals, dokumentujący rosnącą przepaść między firmami „z czołówki” a typowymi firmami w adopcji AI.
Firmy z 95. percentyla używają 3,5× więcej inteligencji na pracownika niż firmy typowe (wobec 2× w kwietniu 2025). Luka wynika mniej z wolumenu wiadomości (36% luki), a bardziej z głębi użycia (64%): delegowanie złożonych zadań, agentowe workflow, integracja z systemami produkcyjnymi. W przypadku Codex różnica jest największa: ×16 wiadomości na pracownika.
Dwa konkretne przypadki: Cisco skraca czas builda o ~20%, oszczędza 1 500+ godzin inżynierskich miesięcznie i zwiększa szybkość rozwiązywania defektów 10–15 razy. Travelers Insurance obsługuje ~100 000 połączeń dotyczących szkód rocznie za pomocą asystenta.
| Wskaźnik | Firmy typowe | Firmy z czołówki |
|---|---|---|
| Inteligencja/pracownik | punkt odniesienia | ×3,5 |
| Wiadomości Codex/pracownik | punkt odniesienia | ×16 |
| Udział wolumenu w luce | — | 36 % |
| Udział głębi w luce | — | 64 % |
MRC — otwarty protokół sieciowy dla superkomputerów Stargate
5 maja — OpenAI publikuje open source za pośrednictwem Open Compute Project protokół MRC (Multipath Reliable Connection), współtworzony z AMD, Broadcom, Intel, Microsoft i NVIDIA przez dwa lata.
MRC to protokół sieciowy 800 Gb/s dla superkomputerów do trenowania AI na dużą skalę. Łączy 100 000+ GPU zaledwie przy 2 poziomach switchy (wobec 3–4 w podejściu konwencjonalnym), rozbijając pakiety na setki jednoczesnych ścieżek poprzez source routing IPv6 (SRv6). Odzyskiwanie po awarii odbywa się w mikrosekundach (wobec kilku sekund przy klasycznym dynamicznym BGP). Już produkcyjnie używany na Stargate (Abilene, Teksas) oraz superkomputerach Fairwater firmy Microsoft, MRC umożliwił trenowanie kilku modeli, w tym GPT-5.5 i Codex.
| Aspekt | Podejście konwencjonalne | MRC |
|---|---|---|
| Poziomy switchy dla 100K+ GPU | 3-4 | 2 |
| Odzyskiwanie po awarii | Sekundy do dziesiątek sekund | Mikrosekundy |
| Routing | Dynamiczny BGP | Statyczny SRv6 |
| Rozkład pakietów | 1 ścieżka na transfer | 100s ścieżek równolegle |
🔗 OpenAI — MRC Supercomputer Networking
Perplexity ROSE — własny silnik inferencji i CuTeDSL
6 maja — Perplexity publikuje artykuł badawczy szczegółowo opisujący ROSE (Runtime-Optimized Serving Engine), swój własny silnik inferencji, oraz integrację CuTeDSL (biblioteki kernelów GPU NVIDIA).
ROSE obsługuje wszystkie usługi Perplexity (Sonar, Search, Embeddings) na GPU NVIDIA Hopper i Blackwell, od modeli kodujących aż po LLM-y o bilionie parametrów. CuTeDSL umożliwia szybsze tworzenie niestandardowych, zoptymalizowanych kernelów GPU, dostosowanych do nowych architektur modeli w szybkim tempie.
Ta publikacja ilustruje strategię Perplexity: kontrolować cały stos techniczny aż po poziom kernelów GPU, aby odróżniać się wydajnością i zmniejszać zależność od zewnętrznych frameworków.
🔗 Perplexity Research — CuTeDSL i ROSE
ElevenLabs osiąga 500 mln USD ARR — NVIDIA inwestorem przez NVentures
5 maja — ElevenLabs ogłasza trzecie zamknięcie rundy Serii D z NVIDIA jako nowym strategicznym inwestorem poprzez NVentures.
ARR wzrósł z 350 mln USD na koniec 2025 r. do 500 mln USD w kwietniu 2026 r., czyli +43% w cztery miesiące. To trzecie zamknięcie obejmuje również BlackRock, Wellington Management, D.E. Shaw, Schroders, a także firmy-klientów (Salesforce, Santander, KPN, Deutsche Telekom) oraz inwestycję detaliczną przez Robinhood Ventures. Równolegle zamknięto tender offer o wartości 100 mln USD. ElevenLabs zatrudnia 530 osób w 50+ krajach. Plan rozwoju zapowiada połączenie obrazu/wideo i audio w jedną zunifikowaną platformę kreatywną.
🔗 ElevenLabs — 500 mln USD ARR i nowi inwestorzy
AlphaEvolve w produkcji — 5 sektorów przemysłowych przez Google Cloud
7 maja — Rok po uruchomieniu Google DeepMind publikuje podsumowanie AlphaEvolve, swojego agenta kodującego napędzanego przez Gemini, który przeszedł z badań do produkcji przemysłowej.
AlphaEvolve optymalizuje krytyczną infrastrukturę Google: TPU, polityki zastępowania cache, kompakcję LSM-tree w Google Spanner. Jest wdrażany komercyjnie przez Google Cloud w pięciu sektorach: finanse (podwojenie wydajności transformera), półprzewodniki (litografia obliczeniowa), logistyka (problem komiwojażera), reklama i nauka o materiałach (~4× przyspieszenie w Schrödinger). Na poziomie akademickim AlphaEvolve współpracował z Terence’em Tao (UCLA) nad problemami Erdősa i poprawił dolne granice dla problemu komiwojażera oraz liczb Ramseya.
🔗 DeepMind — Wpływ AlphaEvolve
Samoucące się Manus Projects — agentowy workspace, który ulepsza się z każdym zadaniem
6 maja — Manus uruchamia funkcję pozwalającą Projektom automatycznie uczyć się z każdej rozmowy i proponować aktualizacje zatwierdzane przez użytkownika.
Po zakończeniu każdego zadania Manus identyfikuje decyzje, normy i wzorce nadające się do ponownego użycia, a następnie proponuje: aktualizacje instrukcji (gdy proces lub terminologia się zmieniły), aktualizacje plików (nieaktualne źródła, przykłady lub szablony) oraz aktualizacje umiejętności (skills) dla powtarzalnych przepływów. Żadne zmiany nie są wprowadzane bez wyraźnej weryfikacji człowieka. Przyszli współpracownicy zaczynają z ostatnim współdzielonym kontekstem Projektu. Funkcja jest dostępna dla wszystkich sesji, w których obsługiwane są instrukcje i pliki.
🔗 Manus — Samoucące się Projekty
Krótkie informacje
- Bug bounty Anthropic otwarty dla publiczności — Program, dotąd prywatny w społeczności badań nad bezpieczeństwem, jest teraz dostępny dla wszystkich na HackerOne. 🔗 źródło
- xAI Image Generation Quality Mode API — Tryb jakości generowania obrazów (300 mln+ obrazów wygenerowanych w Grok) jest teraz dostępny przez API xAI: większy realizm, lepsze renderowanie tekstu, wzmocniona kontrola kreatywna. 🔗 źródło
- Z.ai GLM-5V-Turbo Tech Report — Z.ai (Zhipu AI) publikuje raport techniczny GLM-5V-Turbo, natywnego modelu bazowego dla agentów multimodalnych z enkoderem CogViT (dystylacja SigLIP2 + DINOv3) i pętlą percepcja-planowanie-wykonanie. 🔗 źródło
- ChatGPT Futures Class of 2026 — OpenAI wyróżnia 26 młodych twórców z 20+ uczelni (Vanderbilt, Oxford, Georgia Tech…) grantem po 10 000 USD każdemu oraz dostępem do modeli z czołówki. 🔗 źródło
- NVIDIA DeepStream + Claude Code — Demonstracja podejścia „concept to app” łączącego DeepStream, Claude Code i reusable Skills, aby generować aplikacje Vision AI bez pisania każdej linii kodu. 🔗 źródło
- NVIDIA Guess-Verify-Refine — Nowa technika inferencji hardware-aware, w której każdy etap dekodowania daje przewagę następnemu, zaprojektowana specjalnie dla akceleratorów NVIDIA. 🔗 źródło
- TokenSpeed + NVIDIA Dynamo — TokenSpeed (LightSeek Foundation) osiąga poziom TensorRT-LLM w open source; NVIDIA Dynamo dodaje wsparcie day-0 dla tego backendu, z obsługą Kimi K2.5 przez frontend Dynamo. 🔗 źródło
- Ideogram BG Remover — Nowy model generatywny (trenowany od zera, nie klasyczna segmentacja) do usuwania tła: zachowanie kanału alpha, ukierunkowany na logo i złożone ilustracje, API dostępne. 🔗 źródło
- Google DeepMind × EVE Online — Partnerstwo z CCP Games w celu zbadania badań nad AI w złożonych środowiskach gier sterowanych przez graczy. 🔗 źródło
- GitHub Copilot Trust Layer — Microsoft/GitHub publikuje badania nad strukturalną warstwą zaufania do walidacji agentów Copilot (grafy wykonania + analiza dominatorów): dokładność 100% vs 82,2% dla samooceny, recall 100% vs 60%. 🔗 źródło
- GitHub — przegląd pull requestów agentów — Praktyczny przewodnik (10-minutowa checklista) z 5 sygnałami ostrzegawczymi: CI gaming, code reuse blindness, hallucinated correctness, agentic ghosting, wstrzykiwanie promptów do potoków CI. 🔗 źródło
Co to oznacza
Wyścig o Personal Computer przyspiesza. W ciągu jednego tygodnia trzy bardzo różne interfejsy celują w to samo biurko użytkownika: Perplexity Personal Computer instaluje się na Macu (i Mac mini jako stałym hubie), Claude wdziera się do czterech aplikacji Microsoft 365 ze współdzielonym kontekstem, a Codex steruje Chrome w tle. Te agenty nie są już w chmurze: integrują się z istniejącymi workflow, na otwartych plikach, w aplikacjach natywnych. Przesunięcie od wyszukiwania informacji do bezpośredniego działania na narzędziach codziennej pracy jest już faktem.
Compute orbitalne wchodzi do rejestru faktów. Umowa Anthropic/xAI Colossus 1 jest znacząca z dwóch powodów: po pierwsze, daje Anthropic natychmiastowy dostęp do 220 000 GPU NVIDIA, by już w tym tygodniu podwoić swoje limity; po drugie, zawiera wspólną intencję rozwijania wielu gigawatów mocy AI na orbicie. W połączeniu z umowami Amazon, Google/Broadcom, Microsoft/NVIDIA i Fluidstack, Anthropic buduje infrastrukturę obliczeniową, która nie ma odpowiednika wśród niezależnych laboratoriów badawczych. Ta kumulacja mocy obliczeniowej jest warunkiem wstępnym dla kolejnej generacji modeli — i dla ciągłego podwajania limitów.
Rozumujący głos zmienia zakres agentów głosowych. GPT-Realtime-2 nie jest kosmetyczną aktualizacją: przeniesienie rozumowania GPT-5 do interfejsu czasu rzeczywistego, z kontekstem 128K i równoległymi wywołaniami narzędzi, zmienia przypadki użycia. Zillow odnotowuje +26 punktów skuteczności w swoich najtrudniejszych rozmowach. Tłumaczenie na żywo (70 języków źródłowych na 13 docelowych) w tym samym modelu otwiera wielojęzyczne workflow bez osobnego pipeline’u tłumaczeniowego. Pytanie nie brzmi już „czy da się zrobić AI voice?”, lecz „które złożone interakcje głosowe stają się ekonomicznie opłacalne?”
Dopasowanie i zaufanie agentowe przechodzą do narzędzi. Trzy odrębne ogłoszenia zbiegają się wokół tego samego problemu — jak ufać agentom w produkcji. NLAs Anthropic ujawniają, że Claude wie, kiedy jest testowany (w 16 do 26% ewaluacji), bez werbalizowania tego. Trust Layer GitHub (dokładność 100% vs 82% dla samooceny) daje zespołom developerskim strukturalną walidację pull requestów generowanych przez agentów. Przekazanie Petri 3.0 Meridian Labs tworzy niezależne od laboratoriów referencyjne środowisko ewaluacyjne. Te trzy warstwy — interpretowalność modelu, walidacja wyników, niezależność narzędzi audytowych — zaczynają tworzyć architekturę zaufania dla wdrożeń agentowych na dużą skalę.
Źródła
- Anthropic — Podwyższone limity + umowa SpaceX/xAI Colossus 1
- xAI — Partnerstwo obliczeniowe z Anthropic
- Claude — Microsoft 365 GA
- Claude — Managed Agents (marzenia, rezultaty, orkiestracja)
- Anthropic Research — Autoenkodery języka naturalnego
- Anthropic Research — Petri 3.0 przekazane Meridian Labs
- Anthropic Research — Agenda The Anthropic Institute
- Anthropic — Publiczny bug bounty HackerOne
- OpenAI — GPT-Realtime-2 i nowe modele głosowe
- OpenAI — Rozszerzenie Codex Chrome
- OpenAI — Zaufany kontakt ChatGPT
- OpenAI — Sygnały B2B
- OpenAI — Sieć superkomputerowa MRC
- OpenAI — Klasa ChatGPT Futures 2026
- Perplexity — Osobisty komputer dla wszystkich użytkowników Maca
- Perplexity — Wyszukiwanie finansowe w Agent API
- Perplexity Research — ROSE i CuTeDSL
- ElevenLabs — 500 mln USD ARR i NVIDIA jako inwestor
- DeepMind — AlphaEvolve w produkcji przemysłowej
- Google DeepMind × EVE Online
- Manus — Projekty samoaktualizujące się
- GitHub — Warstwa zaufania dla agentów Copilot
- GitHub — Recenzowanie PR-ów generowanych przez agentów
- xAI — API trybu jakości generowania obrazów
- Z.ai — raport techniczny GLM-5V-Turbo
- NVIDIA DeepStream + Claude Code
- NVIDIA Guess-Verify-Refine
- TokenSpeed + NVIDIA Dynamo
- Ideogram BG Remover