25 i 26 marca przyniosły kilka istotnych ogłoszeń ze strony Anthropic: Claude integruje Figma, Canva i Amplitude jako narzędzia pracy dostępne bezpośrednio z aplikacji mobilnej, a Claude Code uruchamia się 2,8x szybciej dzięki 60 dniom optymalizacji Bun. GitHub Copilot zmienia politykę wykorzystania danych interakcji z możliwością opt-out do aktywowania przed 24 kwietnia. Google DeepMind wprowadza Lyria 3 Pro z generowaniem muzyki do 3 minut, a NVIDIA zakłada Nemotron Coalition podczas GTC 2026.
Claude: narzędzia pracy na mobile (Figma, Canva, Amplitude)
25 marca — Claude integruje teraz trzy narzędzia pracy dostępne bezpośrednio z aplikacji mobilnej: Figma, Canva i Amplitude. Użytkownicy mogą zarządzać przepływami pracy związanymi z projektowaniem, tworzeniem i analizą ze swojego telefonu, bez opuszczania interfejsu Claude.
Ogłoszenie na X, wraz z materiałem wideo demonstracyjnym, wygenerowało 1,9 miliona wyświetleń w ciągu kilku godzin — znak, że integracja narzędzi profesjonalnych w interfejsie mobilnym trafia w silne oczekiwanie użytkowników.
Claude Code: uruchamianie 2,8x szybciej, Agent SDK 5,1x
24 marca — Po 60 dniach optymalizacji prowadzonych przez Jarred Sumnera (twórca Bun, przejęty przez Anthropic w grudniu 2025), Claude Code uruchamia się teraz 2,8x szybciej, a Agent SDK osiąga wydajność 5,1x wyższą.
Te zyski są efektem prac na niskim poziomie nad runtime Bun zintegrowanym z Claude Code — optymalizacje startu, zarządzania pamięcią i czasu odpowiedzi początkowej. Wątek techniczny opublikowany przez Briana Cherny (@bcherny, zespół Claude Code) ilustruje konkretnie, co wnosi integracja Bun w rdzeń narzędzi Claude.
GitHub Copilot: opt-out danych interakcji przed 24 kwietnia
25 marca — Mario Rodriguez, dyrektor produktu w GitHub, ogłasza aktualizację polityki wykorzystania danych interakcji Copilot. Od 24 kwietnia 2026 GitHub będzie wykorzystywał dane interakcji użytkowników Copilot Free, Pro i Pro+ — wejścia, wyjścia, fragmenty kodu i kontekst z nimi związany — do trenowania i ulepszania swoich modeli AI.
Użytkownicy objęci zmianą mogą wyłączyć to udostępnianie w ustawieniach konta przed tą datą. Subskrybenci Copilot Business i Copilot Enterprise nie są objęci tą zmianą — ich dane pozostają na warunkach umownych, które wykluczają trening.
| Plan | Objete tą zmianą | Opt-out dostępny |
|---|---|---|
| Copilot Free | Tak | Tak |
| Copilot Pro | Tak | Tak |
| Copilot Pro+ | Tak | Tak |
| Copilot Business | Nie | — |
| Copilot Enterprise | Nie | — |
Punkt krytyczny to 24 kwietnia: użytkownicy, którzy nie wyłączyli udostępniania przed tą datą, zaczną przyczyniać się do danych treningowych.
🔗 Aktualizacja polityki danych GitHub Copilot 🔗 Ogłoszenie na X
Lyria 3 Pro: ścieżki muzyczne do 3 minut z architekturą muzyczną
25 marca — Google DeepMind wprowadza Lyria 3 Pro, zaawansowaną wersję modelu generacji muzycznej Lyria 3 wydanego miesiąc wcześniej. Główna nowość: możliwość generowania utworów do 3 minut, w porównaniu z 30 sekundami w poprzedniej wersji — czyli 6-krotnie dłużej.
Model zawiera teraz architekturę muzyczną (musical architecture) — wstępy, zwrotki, refreny, mostki — co pozwala tworzyć utwory z płynnymi przejściami i rozbudowaną strukturą. Prompty akceptują tekst, obrazy lub wideo jako punkt wyjścia.
| Platforma | Dostęp | Status |
|---|---|---|
| Aplikacja Gemini | Subskrybenci płatni | Dostępne |
| Google AI Studio + API Gemini | Deweloperzy | Dostępne z Lyria RealTime |
| Vertex AI | Przedsiębiorstwa | Publiczna wersja zapoznawcza |
| Google Vids | Workspace + AI Pro/Ultra | Wdrażanie w tygodniu 25 marca |
| ProducerAI | Darmowy i płatny | Doświadczenie agentowe dla muzyków |
Lyria 3 Pro została użyta przez producenta Yung Spielburg do krótkometrażowego filmu Google DeepMind “Dear Upstairs Neighbors”, a zapowiedziana jest współpraca z DJ François K przy nadchodzącym utworze.
🔗 Oficjalny blog Google — Lyria 3 Pro 🔗 Ogłoszenie na X
NVIDIA Nemotron Coalition: otwarte modele fundamentowe na poziomie frontier
25 marca — Podczas NVIDIA GTC 2026 Jensen Huang ogłasza powstanie NVIDIA Nemotron Coalition, globalnej koalicji producentów modeli poświęconej rozwijaniu otwartych modeli fundamentowych na poziomie frontier (frontier open foundation models).
Pierwszym konkretnym projektem koalicji będzie model bazowy współtworzony przez Mistral AI i NVIDIA, z członkami dostarczającymi dane, oceny i ekspertyzę dziedzinową. Paneliści sesji GTC to m.in. Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), a także przedstawiciele Cursor i Ai2.
Kilka liczb podkreślonych podczas wydarzenia:
- NVIDIA jest teraz największą organizacją na Hugging Face, z około 4 000 członkami
- Modele Nemotron zostały pobrane ponad 45 milionów razy
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇵🇱 Rozróżnienie między własnościowym a otwartym w praktyce nie istnieje. To jest jednocześnie własnościowe i otwarte. — Jensen Huang, NVIDIA GTC 2026
🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary
OpenAI: kulisy Model Spec i powiązane oceny
25 marca — OpenAI publikuje szczegółowe wyjaśnienie swojej pracy nad Model Spec — publicznym ramowym dokumentem definiującym, jak mają się zachowywać jej modele. Artykuł, podpisany przez Jasona Wolfe’a (badacz OpenAI), opisuje filozofię, strukturę i mechanizmy ewolucji tego podejścia.
Model Spec opiera się na kilku odrębnych poziomach:
| Poziom | Opis |
|---|---|
| Intencje i zobowiązania publiczne | Cele wysokiego poziomu: iteracyjne wdrażanie, unikanie poważnych szkód |
| Łańcuch dowodzenia (Chain of Command) | Zasady rozwiązywania konfliktów między instrukcjami OpenAI, deweloperów i użytkowników |
| Reguły ścisłe (Hard rules) | Granice niezmienne: ryzyka katastroficzne, szkody fizyczne, treści nielegalne |
| Zachowania domyślne | Punkty startowe możliwe do modyfikacji przez deweloperów i użytkowników |
| Pomoc w interpretacji | Zasady decyzyjne i przykłady dla przypadków dwuznacznych |
Kluczowe rozróżnienie: reguły ścisłe są nieomijalne (poziom “root”), podczas gdy zachowania domyślne są konfigurowalne — co pozwala maksymalizować swobodę użytkowników w ramach ograniczeń bezpieczeństwa.
OpenAI argumentuje, że wystarczająco zaawansowana SI nie może po prostu wywnioskować właściwego zachowania z ogólnych celów typu “być użytecznym i bezpiecznym”: takie sformułowania są zbyt zależne od kontekstu i wymagają rozstrzygnięć wartości. Model Spec służy zarówno jako cel wewnętrzny, narzędzie transparentności, jak i mechanizm koordynacji między zespołami.
Równocześnie OpenAI publikuje Model Spec Evals — zestaw ocen scenariuszy, które próbują pokryć założenia Model Spec przy pomocy reprezentatywnych przykładów, aby mierzyć rozbieżności między rzeczywistym zachowaniem modelu a specyfikacją.
🔗 Inside our approach to the Model Spec 🔗 Ogłoszenie na X
Genspark Realtime Voice: głosowy asystent bez użycia rąk
25 marca — Genspark wprowadza Realtime Voice, głosowego asystenta działającego w czasie rzeczywistym, całkowicie bez użycia rąk. Przykład użycia zaprezentowany przy starcie: korzystanie w samochodzie podczas dojazdu do pracy.
Zapowiedziane funkcje obejmują sprawdzanie kalendarza, wysyłanie e-maili i wiadomości, wyszukiwanie informacji oraz tworzenie playlist na trasę. Asystent potrafi także generować prezentacje (slides), prowadzić dogłębne badania (deep research) i analizować dane — wszystko sterowane głosem.
OpenAI Safety Bug Bounty: zgłaszanie ryzyk związanych z SI
25 marca — OpenAI uruchamia program bug bounty poświęcony bezpieczeństwu SI, odrębny od istniejącego programu bezpieczeństwa informatycznego. Nowy program akceptuje zgłoszenia dotyczące ryzyk nadużyć, które niekoniecznie są tradycyjnymi podatnościami oprogramowania.
| Kategoria w zakresie | Przykłady |
|---|---|
| Ryzyka agentowe (w tym MCP) | Wstrzykiwanie promptów przez osoby trzecie, eksfiltracja przez agenta, nieautoryzowane działania na dużą skalę |
| Informacje zastrzeżone OpenAI | Generowanie ujawniające zastrzeżone informacje o procesie rozumowania |
| Integralność kont i platform | Obejście mechanizmów antyautomatyzacyjnych, manipulacja sygnałami zaufania |
Klasyczne jailbreaki pozostają poza zakresem. OpenAI dodaje też, że prowadzi od czasu do czasu prywatne kampanie dotyczące specyficznych typów szkód — na przykład treści związanych z ryzykiem biologicznym w ChatGPT Agent i GPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge: konkurs studencki z nagrodą 10 000 $ w kredytach
25 marca — OpenAI i Handshake uruchamiają Codex Creator Challenge, konkurs dla studentów mający na celu tworzenie realnych projektów z wykorzystaniem Codex. Do wygrania: 10 000 $ w kredytach API OpenAI. Wyzwanie zachęca studentów do eksperymentowania z narzędziami Codex i budowy praktycznych aplikacji.
ElevenLabs: Guardrails 2.0 w ElevenAgents, certyfikat AIUC-1
24 marca — ElevenLabs wdraża Guardrails 2.0 w swojej platformie ElevenAgents. Ta warstwa bezpieczeństwa pozwala kontrolować zachowanie agentów w produkcji przy użyciu polityk biznesowych dostosowanych do potrzeb lub prekonfigurowanych zabezpieczeń: trzymanie się tematu (on-topic), spójność marki (on-brand), odporność na manipulacje.
Guardrails 2.0 ma certyfikat AIUC-1 (AI Use Case standard) i obejmuje funkcje ochrony danych, zapisywania historii konwersacji oraz monitoringu po wdrożeniu.
PrismAudio: otwarty model Video-to-Audio od Tongyi Lab (Alibaba)
24 marca — Tongyi Lab z Alibaba publikuje PrismAudio, model Video-to-Audio. W przeciwieństwie do klasycznych podejść V2A, które optymalizują wszystko jedną funkcją straty, PrismAudio przyjmuje architekturę “Decomposed Multi-CoT” z trzema wyspecjalizowanymi głowami — każda dedykowana innemu aspektowi generacji audio.
Model jest trenowany z użyciem Multi-Dimensional RL i Fast-GRPO, aby dopasować generację audio do preferencji ludzkich. Zasoby (model, demo, artykuł na arXiv) są udostępnione przez HuggingFace, ModelScope i dedykowaną stronę projektu.
Claude Code v2.1.83: scentralizowane zarządzanie ustawieniami Enterprise
25 marca — Wersja 2.1.83 Claude Code wprowadza katalog drop-in managed-settings.d/, przeznaczony dla administratorów Enterprise. Ten katalog pozwala organizacjom centralnie zarządzać ustawieniami Claude Code, umieszczając pliki konfiguracyjne stosowane dla wszystkich stanowisk w wdrożeniu.
Kling AI Team Plan: współpraca do 15 członków
24 marca — Kling AI uruchamia Team Plan, plan współpracy umożliwiający zespołom do 15 członków pracę razem na platformie. Plan obejmuje współdzielone zasoby i możliwość komercyjnego wykorzystania stworzonych materiałów.
Manus Desktop: kredyty zmniejszone o połowę do 30 marca
24 marca — Manus oferuje czasową promocję na aplikację Desktop: od 24 do 30 marca 2026 każde zadanie zużywa o 50% mniej kredytów. Istniejące kredyty zatem mają podwójną wartość dla wszystkich zadań wykonanych przez Manus Desktop w tym okresie.
NVIDIA przekazuje swój sterownik DRA GPU społeczności Kubernetes
24 marca — W kontekście NVIDIA GTC 2026, NVIDIA ogłasza przekazanie społeczności Kubernetes swojego sterownika Dynamic Resource Allocation (DRA) dla GPU. Ten wkład wpisuje się w otwartoźródłowe zaangażowanie NVIDIA i ułatwia dynamiczne przydzielanie zasobów GPU w środowiskach Kubernetes.
🔗 Blog NVIDIA — AI Future Open and Proprietary
Co to oznacza
Dwie zaprezentowane przez Anthropic inicjatywy są komplementarne: integracja Figma, Canva i Amplitude na mobile przybliża Claude do codziennych workflowów zawodowych, podczas gdy przyspieszenie uruchamiania Claude Code (2,8x) i Agent SDK (5,1x) realnie poprawia doświadczenie deweloperów korzystających z tych narzędzi na co dzień. Te dwa kierunki — użytkowanie mobilne skierowane do szerokiej publiczności i wydajność skierowana do deweloperów — ilustrują podwójną trajektorię rozwoju Anthropic.
Decyzja GitHub Copilot dotycząca danych interakcji jest najbardziej istotna dla indywidualnych programistów: po raz pierwszy użytkownicy planów konsumenckich (Free, Pro, Pro+) zobaczą swoje interakcje potencjalnie wykorzystane do trenowania modeli. Opcja opt-out istnieje, ale musi być aktywowana przed 24 kwietnia — ten krótki termin warto odnotować.
Nemotron Coalition NVIDIA to silny sygnał dotyczący strategii open source branży. Zbierając Mistral, Black Forest Labs, Cursor i innych w formalną koalicję do rozwoju modeli na poziomie frontier, NVIDIA pozycjonuje open source nie jako alternatywę dla modeli własnościowych, lecz jako równorzędną kategorię. Zdanie Jensena Huanga — “proprietary and open”, a nie “versus” — dobrze podsumowuje to przesunięcie. Lyria 3 Pro potwierdza, że generowanie muzyki zmierza w stronę formatów nadających się do produkcji: 3-minutowe utwory ze spójną strukturą (wstępy, zwrotki, refreny) zmieniają charakter zastosowania, przesuwając je z eksperymentalnych fragmentów do pełnych kompozycji. Dostępność na kilku platformach Google już w tygodniu premiery przyspiesza adopcję.
Publikacja Model Spec Evals przez OpenAI — zestawu ocen mierzących rozbieżności między zachowaniem modelu a zapisanymi specyfikacjami — jest znacząca: to jedna z pierwszych publicznych prób obiektywnego zmierzenia zgodności modelu z jego własnymi zasadami postępowania.
Źródła
- Aktualizacja polityki danych GitHub Copilot
- Tweet @github — polityka danych
- Blog Google — Lyria 3 Pro
- Tweet @GoogleAI — Lyria 3 Pro
- Blog NVIDIA — Przyszłość AI jest otwarta i zastrzeżona
- Tweet @NVIDIAAI — Cohere + suwerenne AI GTC
- OpenAI — O naszym podejściu do Model Spec
- Tweet @OpenAI — Model Spec
- OpenAI — Program Safety Bug Bounty
- Tweet @OpenAIDevs — Codex Creator Challenge
- Tweet @genspark_ai — Realtime Voice
- Tweet @ElevenLabs — Guardrails 2.0
- Tweet @Ali_TongyiLab — PrismAudio
- Tweet @ManusAI — promocja Manus Desktop
- Tweet @claudeai — mobilne narzędzia pracy Claude
- Wątek @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- CHANGELOG Claude Code — v2.1.83
- Tweet @Kling_ai — Plan zespołowy
Niniejszy dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator