Szukaj

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 marca 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11 marca 2026

Dzień 11 marca 2026 jest intensywny: Anthropic tworzy interdyscyplinarny instytut do publicznej debaty o wyzwaniach AI, Perplexity wdraża swoją wizję “Computer” poprzez cztery jednoczesne ogłoszenia, OpenAI publikuje nowe prymitywy agentowe w Responses API, a Meta ujawnia cztery generacje niestandardowych układów IA.


Anthropic Institute: Jack Clark na czele dobra publicznego

11 marca 2026 — Anthropic uruchamia The Anthropic Institute, nowe przedsięwzięcie mające na celu rozwijanie debaty publicznej na temat wyzwań związanych z potężną sztuczną inteligencją. Inicjatywą kieruje współzałożyciel Jack Clark, który obejmuje nowe stanowisko “Head of Public Benefit” (odpowiedzialny za dobro publiczne) w Anthropic.

Instytut zgromadzi interdyscyplinarny zespół — badaczy, ekonomistów, prawników, specjalistów ds. polityk publicznych — z unikalnym dostępem do najnowocześniejszych modeli Anthropic. Jego misja: analizować i komunikować społeczne, ekonomiczne i bezpieczeństwa konsekwencje rozwoju AI.

Ogłoszono trzy pierwsze rekrutacje:

RekrutDoświadczenie
Matt BotvinickResident Fellow, Yale Law School ; były Senior Director of Research, Google DeepMind
Anton KorinekProfesor ekonomii (na urlopie naukowym), zespół Economic Research
Zoë HitzigByła w OpenAI, specjalistka od społecznych i ekonomicznych skutków AI

Instytut będzie współpracował z istniejącymi zespołami Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Równolegle Anthropic zapowiada rozbudowę zespołu Public Policy, skupionego na przejrzystości modeli, ochronie konsumentów energii, kontrolach eksportowych i globalnym zarządzaniu AI.

Utworzenie tego Instytutu to istotny krok: Anthropic formalizuje swoje zaangażowanie publiczne i daje mu twarz jednego ze współzałożycieli.

🔗 Przedstawiamy The Anthropic Institute


Perplexity: skoordynowane uruchomienie wizji “Everything is Computer”

11 marca 2026 — Perplexity opublikowało jednocześnie cztery ogłoszenia tworzące skoordynowane wprowadzenie wizji “Computer”: AI jako komputer osobisty i zawodowy.

Personal Computer i Enterprise

The Personal Computer to dedykowany Mac mini działający 24/7, podłączony do aplikacji lokalnych i serwerów Perplexity. Działa jako cyfrowy proxy użytkownika — wrażliwe akcje wymagają wyraźnej zgody. Lista oczekujących otwarta.

The Computer for Enterprise łączy się ze Snowflake, Salesforce, HubSpot i setkami platform. Umiejętności (skills) są personalizowalne, a integracja z Slack umożliwia pracę w DM lub kanałach współdzielonych. Bazuje na SOC 2 Type II, SAML SSO i logach audytu (audit logs). Perplexity podaje wynik z wewnętrznego badania obejmującego 16 000 zapytań: oszczędność 1,6 miliona dolarów w kosztach pracy i 3,25 roku pracy wykonanej w 4 tygodnie.

Comet Enterprise to natywna przeglądarka AI z kontrolami administratora (uprawnienia według domeny, logi działań, MDM) i partnerstwem z CrowdStrike w celu ochrony na poziomie przeglądarki.

Perplexity Finance obsługuje 40+ narzędzi finansowych w czasie rzeczywistym (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), z połączeniem brokera przez Plaid do analizy rzeczywistego portfela.

Premium Sources zapewnia dostęp do Statista, CB Insights i PitchBook bezpośrednio w strumieniach wyszukiwania — źródła płatne są automatycznie cytowane.

🔗 Wszystko jest Computer

Agent API: kompletna orkiestracja runtime’u

Agent API to zarządzany runtime do budowania workflowów agentowych z wbudowanym wyszukiwaniem, wykonywaniem narzędzi i orkiestracją multi-model. Zastępuje w jednym punkcie integracji router modeli, warstwę wyszukiwania, dostawcę embeddings, serwis sandbox i stos monitoringu (monitoring stack).

Zintegrowane narzędzieMożliwości
web_searchFiltrowanie według domeny, świeżości, zakresu dat, języka, budżetu treści
fetch_urlBezpośrednie pobieranie URL
Funkcje niestandardowePełne wsparcie

Cztery zoptymalizowane profile (presets) pokrywają przypadki użycia: szybkie wyszukiwanie faktograficzne, zrównoważone wyszukiwanie, dogłębna analiza multi-źródłowa oraz wyszukiwanie instytucjonalne. Deep Research 2.0 jest dostępne poprzez profil advanced-deep-research — uruchamia dziesiątki zapytań badawczych na żądanie i przetwarza setki dokumentów.

Agent API jest agnostyczne względem modeli, wspiera wielomodelowe łańcuchy zapasowe (fallback chains) dla dostępności bliskiej 100% i jest dostępne już dziś na docs.perplexity.ai.

🔗 Agent API

Search API: ulepszone snippet’y i benchmark SEAL

Aktualizacja Search API dotyczy jakości fragmentów (snippets) i infrastruktury ewaluacyjnej.

Nowy pipeline znakowania na poziomie fragmentów (span-level labeling) identyfikuje, które segmenty dokumentu źródłowego są istotne dla zapytania. Efekt: mniejsze i dokładniejsze fragmenty, co zmniejsza koszty w tokenach i poprawia zarządzanie kontekstem dla modeli downstream.

Benchmark SEAL sprawdza, czy system retrieval potrafi odpowiedzieć na pytania, których odpowiedź zmienia się w czasie. Perplexity robi postępy w SEAL-Hard, podczas gdy inni dostawcy się pogarszają. Framework search_evals został zaktualizowany jako open source na GitHub.

Inne ulepszenia: wsparcie multi-zapytań (do 5 w jednym zapytaniu API), filtrowanie według języka (kod ISO 639-1) i kraju, oraz SDK Python (pip install perplexityai) z natywnym wsparciem dla trzech API.

🔗 Aktualizacja Search API

Sandbox API: izolowane wykonywanie kodu dla agentów

Perplexity udostępnia swoje wewnętrzne środowisko wykonawcze jako niezależny serwis. Każda sesja działa w odizolowanym podzie Kubernetes, z zamontowanym trwałym systemem plików. Obsługiwane języki: Python, JavaScript, SQL. Możliwe jest instalowanie pakietów w czasie wykonywania (at runtime).

Sesje mają stan utrwalony (stateful): pliki utworzone w jednym kroku są dostępne w kolejnych krokach, a długotrwałe workflowy mogą zostać wstrzymane i wznowione po godzinach. Bezpieczeństwo opiera się na modelu zero-trust: brak bezpośredniego dostępu do sieci, ruch wychodzący przez proxy, kod nigdy nie ma dostępu do surowych kluczy API.

Sandbox API będzie integrowalne z Agent API przy użyciu tej samej klucza API i tych samych kredytów. Status: prywatna beta wkrótce.

🔗 Sandbox API


OpenAI: Responses API otrzymuje środowisko komputerowe dla agentów

11 marca 2026 — OpenAI publikuje artykuł inżynieryjny opisujący nowe prymitywy Responses API do budowy niezawodnych agentów autonomicznych: narzędzie shell Unix, hostowane kontenery, natywna kompakcja kontekstu i ponownie używalne agent skills.

Narzędzie shell

Narzędzie shell pozwala modelowi na interakcję z komputerem przez linię poleceń, z dostępem do klasycznych narzędzi Unix (grep, curl, awk). W odróżnieniu od istniejącego interpretera kodu, który wykonywał tylko Pythona, shell tool obsługuje Go, Java, Node.js i inne środowiska. Modele GPT-5.2 i nowsze są trenowane, by proponować polecenia shell.

Responses API może wykonywać wiele poleceń shell równolegle w oddzielnych sesjach kontenerowych i stosuje limit wielkości wyjścia na polecenie, aby nie zapełnić okna kontekstowego.

Hostowane kontenery

Kontener stanowi przestrzeń roboczą modelu:

KomponentOpis
System plikówUpload, organizacja i zarządzanie zasobami przez APIs container i file
Bazy danychPrzechowywanie strukturalne (SQLite) — model zapytuje tabele zamiast ładować całe treści
Dostęp sieciowyCentralny proxy egress z listą autoryzacji, wstrzykiwanie sekretów według domeny

Natywna kompakcja kontekstu

Dla długotrwałych zadań Responses API zawiera mechanizm natywnej kompakcji: modele są trenowane do generowania zwartej, szyfrowanej reprezentacji stanu konwersacyjnego. Dostępne po stronie serwera (próg konfigurowalny) lub przez endpoint /compact. Codex używa tego mechanizmu, aby utrzymywać długie sesje kodowania bez degradacji.

Agent skills

Skills (umiejętności agenta) enkapsulują wzorce przepływu pracy (workflow patterns) w ponownie używalne pakiety: folder z plikiem SKILL.md i powiązanymi zasobami. Responses API automatycznie ładuje skill do kontekstu przed wysłaniem promptu do modelu. Skills są zarządzane przez API i wersjonowane.

Równolegle, wpis na blogu dla deweloperów świętuje rocznicę Responses API pięcioma studium przypadków klientów. Obie publikacje tworzą spójny obraz ewolucji platformy w kierunku agentowości.

🔗 Responses API + środowisko komputerowe 🔗 Rok Responses API


OpenAI: strategia obrony przed prompt injection

11 marca 2026 — OpenAI publikuje artykuł bezpieczeństwa o odporności agentów AI na ataki przez wstrzykiwanie poleceń (prompt injection).

Pierwsze ataki polegały na wstawianiu bezpośrednich instrukcji w treści zewnętrzne (strony Wikipedia, e-maile). Wraz z ulepszeniem modeli, ataki ewoluowały w kierunku inżynierii społecznej (social engineering): przekonujący kontekst zawodowy, symulowany stan nagły, rzekome upoważnienie. Przykład z 2025 opisany w artykule pokazywał udane ataki w 50% przypadków na starej wersji ChatGPT.

OpenAI rozpatruje problem przez pryzmat trójelementowego systemu (pracodawca / agent / złośliwy trzeci), analogicznego do pracownika obsługi klienta narażonego na próby manipulacji. Celem nie jest idealne wykrywanie każdej ataku, ale ograniczenie skutków udanej manipulacji.

Środek zaradczyOpis
Analiza source-sinkWykrywanie kombinacji treści nierzetelnej + niebezpieczna akcja
Safe UrlWykrywa, czy informacje z rozmowy byłyby przekazane do strony trzeciej — prosi o potwierdzenie lub blokuje
Sandbox aplikacyjnyCanvas i ChatGPT Apps wykrywają nieoczekiwane komunikaty i żądają zgody

Safe Url stosuje się również do nawigacji w Atlas oraz do wyszukiwań i nawigacji w Deep Research.

🔗 Projektowanie agentów AI odpornych na prompt injection


Meta MTIA: cztery generacje układów AI w dwa lata

11 marca 2026 — Meta publikuje techniczny artykuł o rodzinie niestandardowych układów IA MTIA (Meta Training and Inference Accelerator). W ciągu dwóch lat Meta opracowała cztery kolejne generacje, aby obsługiwać miliardy użytkowników przy niższych kosztach.

“AI models are evolving faster than traditional chip development cycles.”

🇵🇱 Modele AI rozwijają się szybciej niż tradycyjne cykle rozwoju układów scalonych.

GeneracjaGłówna innowacja
MTIA 300Pierwszy układ zoptymalizowany pod modele rankingu i rekomendacji (Ranking & Recommendation), modułowa baza wielokrotnego użytku
MTIA 400Przejście do obciążeń GenAI, szafa z 72 układami w unikalnej domenie scale-up
MTIA 450Podwojenie przepustowości HBM, +75% FLOPS MX4, sprzętowe przyspieszenie mechanizmu attention i FFN
MTIA 500+50% przepustowości HBM względem MTIA 450, fokus na inference GenAI

Progres między MTIA 300 a MTIA 500: przepustowość HBM zwiększona 4,5×, FLOPS 25×. Strategia Meta opiera się na szybkich cyklach rozwoju (nowy układ co rok), fokusie na inference zamiast pre-treningu oraz natywnej integracji z PyTorch.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇵🇱 Karty GPU dla masowego rynku są zwykle projektowane pod najbardziej wymagające obciążenia — trening wstępny GenAI na dużą skalę — podczas gdy główną potrzebą Meta jest inferencja.

Architektura elementarnego procesora (Processing Element) łączy dwa wektorowe rdzenie RISC-V, silnik iloczynu skalarnego (Dot Product Engine), jednostkę funkcji specjalnych (Special Function Unit), silnik redukcji i DMA. Stos oprogramowania opiera się na PyTorch, vLLM, Triton i dedykowanych kompilatorach MTIA, z integracją vLLM przez architekturę plugin.

🔗 Meta MTIA: skalowanie chipów AI dla miliardów


Gemini CLI v0.33.0: rozbudowany Plan Mode i uwierzytelnianie A2A

11 marca 2026 — Gemini CLI wydaje wersję v0.33.0, dwa tygodnie po v0.32.0, która wprowadziła Plan Mode.

KategoriaNowości
Architektura agentówUwierzytelnianie HTTP dla zdalnych agentów A2A, odkrywanie kart agentów A2A z uwierzytelnieniem
Plan ModeWbudowane pod-agentki wyszukiwania, wsparcie adnotacji dla informacji zwrotnych użytkownika, nowa podkomenda copy
Interfejs CLIKompaktowy nagłówek z ikoną ASCII, odwrócony widok okna kontekstu, domyślne przechowywanie historii czatu przez 30 dni

Dodanie uwierzytelniania HTTP dla protokołu A2A (Agent-to-Agent) to główna techniczna nowość: Gemini CLI może teraz odkrywać i uwierzytelniać się wobec zdalnych agentów, tworząc podstawy bezpiecznej orkiestracji wielu agentów.

🔗 Dziennik zmian Gemini CLI


Gemini w Chrome: ekspansja do Indii, Nowej Zelandii i Kanady

11 marca 2026 — Google rozszerza funkcje AI w Chrome na trzy nowe rynki: Indie, Nowa Zelandia i Kanada.

Gemini in Chrome — asystent AI w panelu bocznym, oparty na Gemini 3.1 — jest teraz dostępny na Mac, Windows i Chromebook Plus w tych regionach. Wśród wdrożonych funkcji: dostęp do Gmail, Maps, Calendar i YouTube z poziomu Chrome, analiza krzyżowa wielu otwartych kart oraz edycja obrazów bezpośrednio w przeglądarce dzięki Nano Banana 2. Aktualizacja dodaje 50+ dodatkowych języków, w tym hindi, francuski i hiszpański.

🔗 Chrome rozszerza działanie na Indie, Nową Zelandię i Kanadę

--- ## AlphaEvolve : nowe dolne granice dla 5 liczb Ramseya

11 marca 2026 — Pushmeet Kohli (Google DeepMind) ogłasza, że AlphaEvolve ustanowił nowe dolne granice dla 5 klasycznych liczb Ramseya w kombinatoryce ekstremalnej — problemów tak trudnych, że sam Erdős komentował ich złożoność, a najlepsze wcześniejsze wyniki pochodziły sprzed co najmniej dekady.

AlphaEvolve działa jako meta-algorytm, który automatycznie odkrywa procedury przeszukiwania niezbędne tam, gdzie historycznie trzeba było ręcznie projektować specyficzne algorytmy. Ten rezultat ilustruje możliwości AlphaEvolve wykraczające poza optymalizacje kerneli Google, z powodu których był już znany.

🔗 Tweet Pushmeet Kohli


Gemini Embedding 2 : pierwszy multimodalny embedding Google

10 marca 2026 — Google ogłasza Gemini Embedding 2, opisany jako “our most capable and first fully multimodal embedding model”. To pierwszy natywnie multimodalny model embeddingowy Google, dostępny dla deweloperów poprzez Gemini API i AI Studio.

🔗 Tweet @googleaidevs


GitHub Copilot : przegląd kodu z terminala i ulepszenia dla JetBrains

11 marca 2026 — Dwie znaczące aktualizacje dla GitHub Copilot.

Przegląd kodu z GitHub CLI v2.88.0

Od teraz można poprosić o przegląd kodu Copilot bezpośrednio z terminala. Polecenia gh pr edit --add-reviewer @copilot (tryb nieinteraktywny) i gh pr create (tryb interaktywny) integrują Copilot obok współpracowników. Wybór recenzentów korzysta z wyszukiwania dynamicznego, co poprawia wydajność w dużych organizacjach i naprawia problemy z dostępnością. Dostępne na wszystkich planach obejmujących Copilot code review — wymagana aktualizacja do GitHub CLI v2.88.0.

🔗 Przegląd kodu z GitHub CLI

Ulepszenia agentowe dla IDE JetBrains

Aktualizacja wtyczki JetBrains wprowadza ogólną dostępność (GA): agentów niestandardowych (custom agents), podagentów oraz agenta planującego (plan agent), a także automatyczny wybór modelu dla wszystkich planów. W publicznym podglądzie (public preview): hooki agenta (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) poprzez plik hooks.json w .github/hooks/, oraz wsparcie dla plików AGENTS.md i CLAUDE.md.

Inne ulepszenia dopełniają aktualizację: konfigurowalny auto-approve przez MCP, panel myśli dla modeli o rozszerzonym rozumowaniu, wskaźnik wykorzystania kontekstu okna oraz wycofanie trybu Edit w menu.

🔗 Ulepszenia JetBrains

Eksploracja repozytorium w Copilot na sieci

W publicznym podglądzie: możliwe jest eksplorowanie drzewa repozytorium GitHub bezpośrednio z interfejsu webowego Copilot. Wybrane pliki są automatycznie dodawane jako tymczasowe odniesienia do czatu i mogą zostać zapisane na stałe.

🔗 Eksploracja repozytorium w Copilot


Anthropic — Sydney i Claude for Office

Sydney, czwarte biuro w regionie Azji i Pacyfiku

10 marca 2026 — Anthropic ogłasza wkrótce otwarcie biura w Sydney, swojego czwartego w regionie Azji i Pacyfiku (po Tokio, Seulu i Singapurze). Australia zajmuje 4. miejsce na świecie pod względem użycia Claude.ai per capita; Nowa Zelandia jest na 8. miejscu według tego samego wskaźnika (Anthropic Economic Index). Biuro będzie początkowo skupiać się na klientach korporacyjnych, startupach i badaniach.

🔗 Sydney, 4e bureau Asie-Pacifique

Claude for Excel i PowerPoint : współdzielony kontekst i Skills Office

11 marca 2026 — Dodatki Claude for Excel i Claude for PowerPoint otrzymują dwie istotne aktualizacje: współdzielenie kontekstu między obiema aplikacjami (analityk może wydobyć dane z arkusza Excel i użyć ich w prezentacji PowerPoint w jednej rozmowie) oraz wprowadzenie Skills (wielokrotnego użytku workflowów jednym kliknięciem) w obu dodatkach.

Wstępnie załadowane Skills obejmują najczęstsze przypadki użycia: audyt formuł, budowę modeli LBO/DCF, deki z analizą konkurencji, aktualizację prezentacji nowymi danymi oraz przegląd decków dla bankowości inwestycyjnej. Dodatki są teraz dostępne poprzez Amazon Bedrock, Google Cloud Vertex AI i Microsoft Foundry dla wdrożeń zgodnych z wymogami. Dostępność: Mac i Windows na płatnych planach (Pro, Max, Team, Enterprise).

🔗 Claude for Excel et PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI i GTC 2026

11 marca 2026 — NVIDIA jest bardzo aktywna w związku z GTC 2026.

Nemotron 3 Super oferuje przepustowość 5 razy wyższą dla AI agentowego w porównaniu z poprzednią generacją. To model MoE (Mixture of Experts) o 120 miliardach parametrów w open source, zoptymalizowany pod obciążenia inferencyjne o wysokiej częstotliwości.

NVIDIA i ComfyUI ogłosiły podczas GDC 2026 (Game Developers Conference) integrację upraszczającą generowanie wideo AI lokalnie dla twórców gier i artystów, z obsługą modeli FLUX i LTX-Video.

Blog NVIDIA GTC 2026 Live Updates zbiera ogłoszenia na żywo z konferencji w San Jose — Mistral AI również prezentuje tam swoje modele frontier.

🔗 Nemotron 3 Super 🔗 ComfyUI GDC 🔗 GTC 2026 Live


W skrócie

Runway Labs — Runway uruchamia wewnętrzny inkubator kierowany przez Alejandro Matamala Ortiz (współzałożyciel, dyrektor ds. innowacji). Runway Labs będzie prototypować radykalnie nowe aplikacje dla wideo generatywnego i modeli symulacji świata (General World Models) w różnych sektorach: film, opieka zdrowotna, edukacja, gry wideo, reklama, nieruchomości. Rekrutacja otwarta.

🔗 Introducing Runway Labs

Claude Code /btw — Nowe polecenie /btw pozwala prowadzić rozmowy boczne (side chain conversations) podczas wykonywania zadania, bez przerywania bieżącej pracy.

🔗 Tweet @bcherny

NotebookLM Flashcards — Aktualizacja quizów i fiszek: wznawianie od miejsca przerwania, śledzenie udanych i nieudanych fiszek, możliwość usuwania lub tasowania fiszek.

🔗 Tweet NotebookLM

Meta Canopy Height Maps v2 — Meta i World Resources Institute udostępniają CHMv2, nową wersję map wysokości pokrywy leśnej na świecie. Model DINOv3 (samouczenie się wizji od Meta) poprawia dokładność i globalne pokrycie. Zastosowania: migracje klimatyczne, przywracanie lasów, planowanie miejskie. Modele dostępne jako open source.

🔗 Canopy Height Maps v2

Z.ai GLM-5 — GLM-5 jest teraz dostępny dla użytkowników Lite (poziom darmowy), po tym jak od swojego debiutu w lutym 2026 był zarezerwowany dla użytkowników Pro.

🔗 Tweet @ZixuanLi_


Co to oznacza

11 marca 2026 ilustruje dwie zbieżne tendencje.

Pierwsza to platformizacja agentowości: OpenAI, Perplexity i GitHub publikują tego samego dnia uzupełniające się prymitywy (narzędzia shell, sandboksy, hooki agentów, przegląd kodu). Ekosystem strukturyzuje się wokół wielokrotnego użytku bloków — skills, kontenery, podagenci — które pozwalają deweloperom budować wiarygodnych agentów bez wynajdywania na nowo infrastruktury.

Druga to wyścig ku niestandardowemu krzemowi: szczegóły, które Meta udostępnia na temat swoich czterech generacji MTIA w ciągu dwóch lat, ujawniają jasną strategię niezależności od GPU konsumenckich, kalibrowaną pod dużą skalę inferencji. Ta sama logika popycha NVIDIĘ do publikacji Nemotron 3 Super w dniu GTC, gdzie ogłoszenia się kumulują.

Utworzenie Anthropic Institute wpisuje się w bardziej dyskretny, lecz trwały ruch: w miarę jak możliwości rosną, duże firmy AI organizują zespoły ds. wpływu publicznego — nie już jako PR, ale jako odrębny wysiłek badawczy.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator