Dzień 11 marca 2026 jest intensywny: Anthropic tworzy interdyscyplinarny instytut do publicznej debaty o wyzwaniach AI, Perplexity wdraża swoją wizję “Computer” poprzez cztery jednoczesne ogłoszenia, OpenAI publikuje nowe prymitywy agentowe w Responses API, a Meta ujawnia cztery generacje niestandardowych układów IA.
Anthropic Institute: Jack Clark na czele dobra publicznego
11 marca 2026 — Anthropic uruchamia The Anthropic Institute, nowe przedsięwzięcie mające na celu rozwijanie debaty publicznej na temat wyzwań związanych z potężną sztuczną inteligencją. Inicjatywą kieruje współzałożyciel Jack Clark, który obejmuje nowe stanowisko “Head of Public Benefit” (odpowiedzialny za dobro publiczne) w Anthropic.
Instytut zgromadzi interdyscyplinarny zespół — badaczy, ekonomistów, prawników, specjalistów ds. polityk publicznych — z unikalnym dostępem do najnowocześniejszych modeli Anthropic. Jego misja: analizować i komunikować społeczne, ekonomiczne i bezpieczeństwa konsekwencje rozwoju AI.
Ogłoszono trzy pierwsze rekrutacje:
| Rekrut | Doświadczenie |
|---|---|
| Matt Botvinick | Resident Fellow, Yale Law School ; były Senior Director of Research, Google DeepMind |
| Anton Korinek | Profesor ekonomii (na urlopie naukowym), zespół Economic Research |
| Zoë Hitzig | Była w OpenAI, specjalistka od społecznych i ekonomicznych skutków AI |
Instytut będzie współpracował z istniejącymi zespołami Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Równolegle Anthropic zapowiada rozbudowę zespołu Public Policy, skupionego na przejrzystości modeli, ochronie konsumentów energii, kontrolach eksportowych i globalnym zarządzaniu AI.
Utworzenie tego Instytutu to istotny krok: Anthropic formalizuje swoje zaangażowanie publiczne i daje mu twarz jednego ze współzałożycieli.
🔗 Przedstawiamy The Anthropic Institute
Perplexity: skoordynowane uruchomienie wizji “Everything is Computer”
11 marca 2026 — Perplexity opublikowało jednocześnie cztery ogłoszenia tworzące skoordynowane wprowadzenie wizji “Computer”: AI jako komputer osobisty i zawodowy.
Personal Computer i Enterprise
The Personal Computer to dedykowany Mac mini działający 24/7, podłączony do aplikacji lokalnych i serwerów Perplexity. Działa jako cyfrowy proxy użytkownika — wrażliwe akcje wymagają wyraźnej zgody. Lista oczekujących otwarta.
The Computer for Enterprise łączy się ze Snowflake, Salesforce, HubSpot i setkami platform. Umiejętności (skills) są personalizowalne, a integracja z Slack umożliwia pracę w DM lub kanałach współdzielonych. Bazuje na SOC 2 Type II, SAML SSO i logach audytu (audit logs). Perplexity podaje wynik z wewnętrznego badania obejmującego 16 000 zapytań: oszczędność 1,6 miliona dolarów w kosztach pracy i 3,25 roku pracy wykonanej w 4 tygodnie.
Comet Enterprise to natywna przeglądarka AI z kontrolami administratora (uprawnienia według domeny, logi działań, MDM) i partnerstwem z CrowdStrike w celu ochrony na poziomie przeglądarki.
Perplexity Finance obsługuje 40+ narzędzi finansowych w czasie rzeczywistym (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), z połączeniem brokera przez Plaid do analizy rzeczywistego portfela.
Premium Sources zapewnia dostęp do Statista, CB Insights i PitchBook bezpośrednio w strumieniach wyszukiwania — źródła płatne są automatycznie cytowane.
Agent API: kompletna orkiestracja runtime’u
Agent API to zarządzany runtime do budowania workflowów agentowych z wbudowanym wyszukiwaniem, wykonywaniem narzędzi i orkiestracją multi-model. Zastępuje w jednym punkcie integracji router modeli, warstwę wyszukiwania, dostawcę embeddings, serwis sandbox i stos monitoringu (monitoring stack).
| Zintegrowane narzędzie | Możliwości |
|---|---|
web_search | Filtrowanie według domeny, świeżości, zakresu dat, języka, budżetu treści |
fetch_url | Bezpośrednie pobieranie URL |
| Funkcje niestandardowe | Pełne wsparcie |
Cztery zoptymalizowane profile (presets) pokrywają przypadki użycia: szybkie wyszukiwanie faktograficzne, zrównoważone wyszukiwanie, dogłębna analiza multi-źródłowa oraz wyszukiwanie instytucjonalne. Deep Research 2.0 jest dostępne poprzez profil advanced-deep-research — uruchamia dziesiątki zapytań badawczych na żądanie i przetwarza setki dokumentów.
Agent API jest agnostyczne względem modeli, wspiera wielomodelowe łańcuchy zapasowe (fallback chains) dla dostępności bliskiej 100% i jest dostępne już dziś na docs.perplexity.ai.
Search API: ulepszone snippet’y i benchmark SEAL
Aktualizacja Search API dotyczy jakości fragmentów (snippets) i infrastruktury ewaluacyjnej.
Nowy pipeline znakowania na poziomie fragmentów (span-level labeling) identyfikuje, które segmenty dokumentu źródłowego są istotne dla zapytania. Efekt: mniejsze i dokładniejsze fragmenty, co zmniejsza koszty w tokenach i poprawia zarządzanie kontekstem dla modeli downstream.
Benchmark SEAL sprawdza, czy system retrieval potrafi odpowiedzieć na pytania, których odpowiedź zmienia się w czasie. Perplexity robi postępy w SEAL-Hard, podczas gdy inni dostawcy się pogarszają. Framework search_evals został zaktualizowany jako open source na GitHub.
Inne ulepszenia: wsparcie multi-zapytań (do 5 w jednym zapytaniu API), filtrowanie według języka (kod ISO 639-1) i kraju, oraz SDK Python (pip install perplexityai) z natywnym wsparciem dla trzech API.
Sandbox API: izolowane wykonywanie kodu dla agentów
Perplexity udostępnia swoje wewnętrzne środowisko wykonawcze jako niezależny serwis. Każda sesja działa w odizolowanym podzie Kubernetes, z zamontowanym trwałym systemem plików. Obsługiwane języki: Python, JavaScript, SQL. Możliwe jest instalowanie pakietów w czasie wykonywania (at runtime).
Sesje mają stan utrwalony (stateful): pliki utworzone w jednym kroku są dostępne w kolejnych krokach, a długotrwałe workflowy mogą zostać wstrzymane i wznowione po godzinach. Bezpieczeństwo opiera się na modelu zero-trust: brak bezpośredniego dostępu do sieci, ruch wychodzący przez proxy, kod nigdy nie ma dostępu do surowych kluczy API.
Sandbox API będzie integrowalne z Agent API przy użyciu tej samej klucza API i tych samych kredytów. Status: prywatna beta wkrótce.
OpenAI: Responses API otrzymuje środowisko komputerowe dla agentów
11 marca 2026 — OpenAI publikuje artykuł inżynieryjny opisujący nowe prymitywy Responses API do budowy niezawodnych agentów autonomicznych: narzędzie shell Unix, hostowane kontenery, natywna kompakcja kontekstu i ponownie używalne agent skills.
Narzędzie shell
Narzędzie shell pozwala modelowi na interakcję z komputerem przez linię poleceń, z dostępem do klasycznych narzędzi Unix (grep, curl, awk). W odróżnieniu od istniejącego interpretera kodu, który wykonywał tylko Pythona, shell tool obsługuje Go, Java, Node.js i inne środowiska. Modele GPT-5.2 i nowsze są trenowane, by proponować polecenia shell.
Responses API może wykonywać wiele poleceń shell równolegle w oddzielnych sesjach kontenerowych i stosuje limit wielkości wyjścia na polecenie, aby nie zapełnić okna kontekstowego.
Hostowane kontenery
Kontener stanowi przestrzeń roboczą modelu:
| Komponent | Opis |
|---|---|
| System plików | Upload, organizacja i zarządzanie zasobami przez APIs container i file |
| Bazy danych | Przechowywanie strukturalne (SQLite) — model zapytuje tabele zamiast ładować całe treści |
| Dostęp sieciowy | Centralny proxy egress z listą autoryzacji, wstrzykiwanie sekretów według domeny |
Natywna kompakcja kontekstu
Dla długotrwałych zadań Responses API zawiera mechanizm natywnej kompakcji: modele są trenowane do generowania zwartej, szyfrowanej reprezentacji stanu konwersacyjnego. Dostępne po stronie serwera (próg konfigurowalny) lub przez endpoint /compact. Codex używa tego mechanizmu, aby utrzymywać długie sesje kodowania bez degradacji.
Agent skills
Skills (umiejętności agenta) enkapsulują wzorce przepływu pracy (workflow patterns) w ponownie używalne pakiety: folder z plikiem SKILL.md i powiązanymi zasobami. Responses API automatycznie ładuje skill do kontekstu przed wysłaniem promptu do modelu. Skills są zarządzane przez API i wersjonowane.
Równolegle, wpis na blogu dla deweloperów świętuje rocznicę Responses API pięcioma studium przypadków klientów. Obie publikacje tworzą spójny obraz ewolucji platformy w kierunku agentowości.
🔗 Responses API + środowisko komputerowe 🔗 Rok Responses API
OpenAI: strategia obrony przed prompt injection
11 marca 2026 — OpenAI publikuje artykuł bezpieczeństwa o odporności agentów AI na ataki przez wstrzykiwanie poleceń (prompt injection).
Pierwsze ataki polegały na wstawianiu bezpośrednich instrukcji w treści zewnętrzne (strony Wikipedia, e-maile). Wraz z ulepszeniem modeli, ataki ewoluowały w kierunku inżynierii społecznej (social engineering): przekonujący kontekst zawodowy, symulowany stan nagły, rzekome upoważnienie. Przykład z 2025 opisany w artykule pokazywał udane ataki w 50% przypadków na starej wersji ChatGPT.
OpenAI rozpatruje problem przez pryzmat trójelementowego systemu (pracodawca / agent / złośliwy trzeci), analogicznego do pracownika obsługi klienta narażonego na próby manipulacji. Celem nie jest idealne wykrywanie każdej ataku, ale ograniczenie skutków udanej manipulacji.
| Środek zaradczy | Opis |
|---|---|
| Analiza source-sink | Wykrywanie kombinacji treści nierzetelnej + niebezpieczna akcja |
| Safe Url | Wykrywa, czy informacje z rozmowy byłyby przekazane do strony trzeciej — prosi o potwierdzenie lub blokuje |
| Sandbox aplikacyjny | Canvas i ChatGPT Apps wykrywają nieoczekiwane komunikaty i żądają zgody |
Safe Url stosuje się również do nawigacji w Atlas oraz do wyszukiwań i nawigacji w Deep Research.
🔗 Projektowanie agentów AI odpornych na prompt injection
Meta MTIA: cztery generacje układów AI w dwa lata
11 marca 2026 — Meta publikuje techniczny artykuł o rodzinie niestandardowych układów IA MTIA (Meta Training and Inference Accelerator). W ciągu dwóch lat Meta opracowała cztery kolejne generacje, aby obsługiwać miliardy użytkowników przy niższych kosztach.
“AI models are evolving faster than traditional chip development cycles.”
🇵🇱 Modele AI rozwijają się szybciej niż tradycyjne cykle rozwoju układów scalonych.
| Generacja | Główna innowacja |
|---|---|
| MTIA 300 | Pierwszy układ zoptymalizowany pod modele rankingu i rekomendacji (Ranking & Recommendation), modułowa baza wielokrotnego użytku |
| MTIA 400 | Przejście do obciążeń GenAI, szafa z 72 układami w unikalnej domenie scale-up |
| MTIA 450 | Podwojenie przepustowości HBM, +75% FLOPS MX4, sprzętowe przyspieszenie mechanizmu attention i FFN |
| MTIA 500 | +50% przepustowości HBM względem MTIA 450, fokus na inference GenAI |
Progres między MTIA 300 a MTIA 500: przepustowość HBM zwiększona 4,5×, FLOPS 25×. Strategia Meta opiera się na szybkich cyklach rozwoju (nowy układ co rok), fokusie na inference zamiast pre-treningu oraz natywnej integracji z PyTorch.
“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”
🇵🇱 Karty GPU dla masowego rynku są zwykle projektowane pod najbardziej wymagające obciążenia — trening wstępny GenAI na dużą skalę — podczas gdy główną potrzebą Meta jest inferencja.
Architektura elementarnego procesora (Processing Element) łączy dwa wektorowe rdzenie RISC-V, silnik iloczynu skalarnego (Dot Product Engine), jednostkę funkcji specjalnych (Special Function Unit), silnik redukcji i DMA. Stos oprogramowania opiera się na PyTorch, vLLM, Triton i dedykowanych kompilatorach MTIA, z integracją vLLM przez architekturę plugin.
🔗 Meta MTIA: skalowanie chipów AI dla miliardów
Gemini CLI v0.33.0: rozbudowany Plan Mode i uwierzytelnianie A2A
11 marca 2026 — Gemini CLI wydaje wersję v0.33.0, dwa tygodnie po v0.32.0, która wprowadziła Plan Mode.
| Kategoria | Nowości |
|---|---|
| Architektura agentów | Uwierzytelnianie HTTP dla zdalnych agentów A2A, odkrywanie kart agentów A2A z uwierzytelnieniem |
| Plan Mode | Wbudowane pod-agentki wyszukiwania, wsparcie adnotacji dla informacji zwrotnych użytkownika, nowa podkomenda copy |
| Interfejs CLI | Kompaktowy nagłówek z ikoną ASCII, odwrócony widok okna kontekstu, domyślne przechowywanie historii czatu przez 30 dni |
Dodanie uwierzytelniania HTTP dla protokołu A2A (Agent-to-Agent) to główna techniczna nowość: Gemini CLI może teraz odkrywać i uwierzytelniać się wobec zdalnych agentów, tworząc podstawy bezpiecznej orkiestracji wielu agentów.
Gemini w Chrome: ekspansja do Indii, Nowej Zelandii i Kanady
11 marca 2026 — Google rozszerza funkcje AI w Chrome na trzy nowe rynki: Indie, Nowa Zelandia i Kanada.
Gemini in Chrome — asystent AI w panelu bocznym, oparty na Gemini 3.1 — jest teraz dostępny na Mac, Windows i Chromebook Plus w tych regionach. Wśród wdrożonych funkcji: dostęp do Gmail, Maps, Calendar i YouTube z poziomu Chrome, analiza krzyżowa wielu otwartych kart oraz edycja obrazów bezpośrednio w przeglądarce dzięki Nano Banana 2. Aktualizacja dodaje 50+ dodatkowych języków, w tym hindi, francuski i hiszpański.
🔗 Chrome rozszerza działanie na Indie, Nową Zelandię i Kanadę
--- ## AlphaEvolve : nowe dolne granice dla 5 liczb Ramseya
11 marca 2026 — Pushmeet Kohli (Google DeepMind) ogłasza, że AlphaEvolve ustanowił nowe dolne granice dla 5 klasycznych liczb Ramseya w kombinatoryce ekstremalnej — problemów tak trudnych, że sam Erdős komentował ich złożoność, a najlepsze wcześniejsze wyniki pochodziły sprzed co najmniej dekady.
AlphaEvolve działa jako meta-algorytm, który automatycznie odkrywa procedury przeszukiwania niezbędne tam, gdzie historycznie trzeba było ręcznie projektować specyficzne algorytmy. Ten rezultat ilustruje możliwości AlphaEvolve wykraczające poza optymalizacje kerneli Google, z powodu których był już znany.
Gemini Embedding 2 : pierwszy multimodalny embedding Google
10 marca 2026 — Google ogłasza Gemini Embedding 2, opisany jako “our most capable and first fully multimodal embedding model”. To pierwszy natywnie multimodalny model embeddingowy Google, dostępny dla deweloperów poprzez Gemini API i AI Studio.
GitHub Copilot : przegląd kodu z terminala i ulepszenia dla JetBrains
11 marca 2026 — Dwie znaczące aktualizacje dla GitHub Copilot.
Przegląd kodu z GitHub CLI v2.88.0
Od teraz można poprosić o przegląd kodu Copilot bezpośrednio z terminala. Polecenia gh pr edit --add-reviewer @copilot (tryb nieinteraktywny) i gh pr create (tryb interaktywny) integrują Copilot obok współpracowników. Wybór recenzentów korzysta z wyszukiwania dynamicznego, co poprawia wydajność w dużych organizacjach i naprawia problemy z dostępnością. Dostępne na wszystkich planach obejmujących Copilot code review — wymagana aktualizacja do GitHub CLI v2.88.0.
Ulepszenia agentowe dla IDE JetBrains
Aktualizacja wtyczki JetBrains wprowadza ogólną dostępność (GA): agentów niestandardowych (custom agents), podagentów oraz agenta planującego (plan agent), a także automatyczny wybór modelu dla wszystkich planów. W publicznym podglądzie (public preview): hooki agenta (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) poprzez plik hooks.json w .github/hooks/, oraz wsparcie dla plików AGENTS.md i CLAUDE.md.
Inne ulepszenia dopełniają aktualizację: konfigurowalny auto-approve przez MCP, panel myśli dla modeli o rozszerzonym rozumowaniu, wskaźnik wykorzystania kontekstu okna oraz wycofanie trybu Edit w menu.
Eksploracja repozytorium w Copilot na sieci
W publicznym podglądzie: możliwe jest eksplorowanie drzewa repozytorium GitHub bezpośrednio z interfejsu webowego Copilot. Wybrane pliki są automatycznie dodawane jako tymczasowe odniesienia do czatu i mogą zostać zapisane na stałe.
🔗 Eksploracja repozytorium w Copilot
Anthropic — Sydney i Claude for Office
Sydney, czwarte biuro w regionie Azji i Pacyfiku
10 marca 2026 — Anthropic ogłasza wkrótce otwarcie biura w Sydney, swojego czwartego w regionie Azji i Pacyfiku (po Tokio, Seulu i Singapurze). Australia zajmuje 4. miejsce na świecie pod względem użycia Claude.ai per capita; Nowa Zelandia jest na 8. miejscu według tego samego wskaźnika (Anthropic Economic Index). Biuro będzie początkowo skupiać się na klientach korporacyjnych, startupach i badaniach.
🔗 Sydney, 4e bureau Asie-Pacifique
Claude for Excel i PowerPoint : współdzielony kontekst i Skills Office
11 marca 2026 — Dodatki Claude for Excel i Claude for PowerPoint otrzymują dwie istotne aktualizacje: współdzielenie kontekstu między obiema aplikacjami (analityk może wydobyć dane z arkusza Excel i użyć ich w prezentacji PowerPoint w jednej rozmowie) oraz wprowadzenie Skills (wielokrotnego użytku workflowów jednym kliknięciem) w obu dodatkach.
Wstępnie załadowane Skills obejmują najczęstsze przypadki użycia: audyt formuł, budowę modeli LBO/DCF, deki z analizą konkurencji, aktualizację prezentacji nowymi danymi oraz przegląd decków dla bankowości inwestycyjnej. Dodatki są teraz dostępne poprzez Amazon Bedrock, Google Cloud Vertex AI i Microsoft Foundry dla wdrożeń zgodnych z wymogami. Dostępność: Mac i Windows na płatnych planach (Pro, Max, Team, Enterprise).
🔗 Claude for Excel et PowerPoint
NVIDIA Nemotron 3 Super, ComfyUI i GTC 2026
11 marca 2026 — NVIDIA jest bardzo aktywna w związku z GTC 2026.
Nemotron 3 Super oferuje przepustowość 5 razy wyższą dla AI agentowego w porównaniu z poprzednią generacją. To model MoE (Mixture of Experts) o 120 miliardach parametrów w open source, zoptymalizowany pod obciążenia inferencyjne o wysokiej częstotliwości.
NVIDIA i ComfyUI ogłosiły podczas GDC 2026 (Game Developers Conference) integrację upraszczającą generowanie wideo AI lokalnie dla twórców gier i artystów, z obsługą modeli FLUX i LTX-Video.
Blog NVIDIA GTC 2026 Live Updates zbiera ogłoszenia na żywo z konferencji w San Jose — Mistral AI również prezentuje tam swoje modele frontier.
🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live
W skrócie
Runway Labs — Runway uruchamia wewnętrzny inkubator kierowany przez Alejandro Matamala Ortiz (współzałożyciel, dyrektor ds. innowacji). Runway Labs będzie prototypować radykalnie nowe aplikacje dla wideo generatywnego i modeli symulacji świata (General World Models) w różnych sektorach: film, opieka zdrowotna, edukacja, gry wideo, reklama, nieruchomości. Rekrutacja otwarta.
Claude Code /btw — Nowe polecenie /btw pozwala prowadzić rozmowy boczne (side chain conversations) podczas wykonywania zadania, bez przerywania bieżącej pracy.
NotebookLM Flashcards — Aktualizacja quizów i fiszek: wznawianie od miejsca przerwania, śledzenie udanych i nieudanych fiszek, możliwość usuwania lub tasowania fiszek.
Meta Canopy Height Maps v2 — Meta i World Resources Institute udostępniają CHMv2, nową wersję map wysokości pokrywy leśnej na świecie. Model DINOv3 (samouczenie się wizji od Meta) poprawia dokładność i globalne pokrycie. Zastosowania: migracje klimatyczne, przywracanie lasów, planowanie miejskie. Modele dostępne jako open source.
Z.ai GLM-5 — GLM-5 jest teraz dostępny dla użytkowników Lite (poziom darmowy), po tym jak od swojego debiutu w lutym 2026 był zarezerwowany dla użytkowników Pro.
Co to oznacza
11 marca 2026 ilustruje dwie zbieżne tendencje.
Pierwsza to platformizacja agentowości: OpenAI, Perplexity i GitHub publikują tego samego dnia uzupełniające się prymitywy (narzędzia shell, sandboksy, hooki agentów, przegląd kodu). Ekosystem strukturyzuje się wokół wielokrotnego użytku bloków — skills, kontenery, podagenci — które pozwalają deweloperom budować wiarygodnych agentów bez wynajdywania na nowo infrastruktury.
Druga to wyścig ku niestandardowemu krzemowi: szczegóły, które Meta udostępnia na temat swoich czterech generacji MTIA w ciągu dwóch lat, ujawniają jasną strategię niezależności od GPU konsumenckich, kalibrowaną pod dużą skalę inferencji. Ta sama logika popycha NVIDIĘ do publikacji Nemotron 3 Super w dniu GTC, gdzie ogłoszenia się kumulują.
Utworzenie Anthropic Institute wpisuje się w bardziej dyskretny, lecz trwały ruch: w miarę jak możliwości rosną, duże firmy AI organizują zespoły ds. wpływu publicznego — nie już jako PR, ale jako odrębny wysiłek badawczy.
Źródła
- Instytut Anthropic
- Sydney, 4e bureau Asie-Pacifique
- Claude for Excel et PowerPoint
- Tweet @bcherny (/btw)
- Everything is Computer — Perplexity
- Agent API — Perplexity
- Search API — Perplexity
- Sandbox API — Perplexity
- Responses API + środowisko komputerowe — OpenAI
- 1 rok Responses API — OpenAI
- Obrona przed prompt injection — OpenAI
- Chipy Meta MTIA
- Meta Canopy Height Maps v2
- Gemini CLI v0.33.0
- Gemini w Chrome — ekspansja
- AlphaEvolve — liczby Ramseya
- Gemini Embedding 2
- Copilot Code Review z CLI
- Copilot JetBrains — ulepszenia agentowe
- Copilot — eksploracja repozytorium w sieci
- Nemotron 3 Super — NVIDIA
- ComfyUI + NVIDIA na GDC
- GTC 2026 Live Updates — NVIDIA
- Introducing Runway Labs
- NotebookLM Flashcards update
- Z.ai GLM-5 Lite rollout
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator