Szukaj

Claude integruje Figma/Canva na urządzeniach mobilnych, Claude Code uruchamia się 2,8x szybciej, GitHub Copilot zmienia politykę danych

Claude integruje Figma/Canva na urządzeniach mobilnych, Claude Code uruchamia się 2,8x szybciej, GitHub Copilot zmienia politykę danych

25 i 26 marca przyniosły kilka istotnych ogłoszeń ze strony Anthropic: Claude integruje Figma, Canva i Amplitude jako narzędzia pracy dostępne bezpośrednio z aplikacji mobilnej, a Claude Code uruchamia się 2,8x szybciej dzięki 60 dniom optymalizacji Bun. GitHub Copilot zmienia politykę wykorzystania danych interakcji z możliwością opt-out do aktywowania przed 24 kwietnia. Google DeepMind wprowadza Lyria 3 Pro z generowaniem muzyki do 3 minut, a NVIDIA zakłada Nemotron Coalition podczas GTC 2026.


Claude: narzędzia pracy na mobile (Figma, Canva, Amplitude)

25 marca — Claude integruje teraz trzy narzędzia pracy dostępne bezpośrednio z aplikacji mobilnej: Figma, Canva i Amplitude. Użytkownicy mogą zarządzać przepływami pracy związanymi z projektowaniem, tworzeniem i analizą ze swojego telefonu, bez opuszczania interfejsu Claude.

Ogłoszenie na X, wraz z materiałem wideo demonstracyjnym, wygenerowało 1,9 miliona wyświetleń w ciągu kilku godzin — znak, że integracja narzędzi profesjonalnych w interfejsie mobilnym trafia w silne oczekiwanie użytkowników.

🔗 Ogłoszenie @claudeai na X


Claude Code: uruchamianie 2,8x szybciej, Agent SDK 5,1x

24 marca — Po 60 dniach optymalizacji prowadzonych przez Jarred Sumnera (twórca Bun, przejęty przez Anthropic w grudniu 2025), Claude Code uruchamia się teraz 2,8x szybciej, a Agent SDK osiąga wydajność 5,1x wyższą.

Te zyski są efektem prac na niskim poziomie nad runtime Bun zintegrowanym z Claude Code — optymalizacje startu, zarządzania pamięcią i czasu odpowiedzi początkowej. Wątek techniczny opublikowany przez Briana Cherny (@bcherny, zespół Claude Code) ilustruje konkretnie, co wnosi integracja Bun w rdzeń narzędzi Claude.

🔗 Wątek @jarredsumner na X


GitHub Copilot: opt-out danych interakcji przed 24 kwietnia

25 marca — Mario Rodriguez, dyrektor produktu w GitHub, ogłasza aktualizację polityki wykorzystania danych interakcji Copilot. Od 24 kwietnia 2026 GitHub będzie wykorzystywał dane interakcji użytkowników Copilot Free, Pro i Pro+ — wejścia, wyjścia, fragmenty kodu i kontekst z nimi związany — do trenowania i ulepszania swoich modeli AI.

Użytkownicy objęci zmianą mogą wyłączyć to udostępnianie w ustawieniach konta przed tą datą. Subskrybenci Copilot Business i Copilot Enterprise nie są objęci tą zmianą — ich dane pozostają na warunkach umownych, które wykluczają trening.

PlanObjete tą zmianąOpt-out dostępny
Copilot FreeTakTak
Copilot ProTakTak
Copilot Pro+TakTak
Copilot BusinessNie
Copilot EnterpriseNie

Punkt krytyczny to 24 kwietnia: użytkownicy, którzy nie wyłączyli udostępniania przed tą datą, zaczną przyczyniać się do danych treningowych.

🔗 Aktualizacja polityki danych GitHub Copilot 🔗 Ogłoszenie na X


Lyria 3 Pro: ścieżki muzyczne do 3 minut z architekturą muzyczną

25 marca — Google DeepMind wprowadza Lyria 3 Pro, zaawansowaną wersję modelu generacji muzycznej Lyria 3 wydanego miesiąc wcześniej. Główna nowość: możliwość generowania utworów do 3 minut, w porównaniu z 30 sekundami w poprzedniej wersji — czyli 6-krotnie dłużej.

Model zawiera teraz architekturę muzyczną (musical architecture) — wstępy, zwrotki, refreny, mostki — co pozwala tworzyć utwory z płynnymi przejściami i rozbudowaną strukturą. Prompty akceptują tekst, obrazy lub wideo jako punkt wyjścia.

PlatformaDostępStatus
Aplikacja GeminiSubskrybenci płatniDostępne
Google AI Studio + API GeminiDeweloperzyDostępne z Lyria RealTime
Vertex AIPrzedsiębiorstwaPubliczna wersja zapoznawcza
Google VidsWorkspace + AI Pro/UltraWdrażanie w tygodniu 25 marca
ProducerAIDarmowy i płatnyDoświadczenie agentowe dla muzyków

Lyria 3 Pro została użyta przez producenta Yung Spielburg do krótkometrażowego filmu Google DeepMind “Dear Upstairs Neighbors”, a zapowiedziana jest współpraca z DJ François K przy nadchodzącym utworze.

🔗 Oficjalny blog Google — Lyria 3 Pro 🔗 Ogłoszenie na X


NVIDIA Nemotron Coalition: otwarte modele fundamentowe na poziomie frontier

25 marca — Podczas NVIDIA GTC 2026 Jensen Huang ogłasza powstanie NVIDIA Nemotron Coalition, globalnej koalicji producentów modeli poświęconej rozwijaniu otwartych modeli fundamentowych na poziomie frontier (frontier open foundation models).

Pierwszym konkretnym projektem koalicji będzie model bazowy współtworzony przez Mistral AI i NVIDIA, z członkami dostarczającymi dane, oceny i ekspertyzę dziedzinową. Paneliści sesji GTC to m.in. Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), a także przedstawiciele Cursor i Ai2.

Kilka liczb podkreślonych podczas wydarzenia:

  • NVIDIA jest teraz największą organizacją na Hugging Face, z około 4 000 członkami
  • Modele Nemotron zostały pobrane ponad 45 milionów razy

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇵🇱 Rozróżnienie między własnościowym a otwartym w praktyce nie istnieje. To jest jednocześnie własnościowe i otwarte.Jensen Huang, NVIDIA GTC 2026

🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary


OpenAI: kulisy Model Spec i powiązane oceny

25 marca — OpenAI publikuje szczegółowe wyjaśnienie swojej pracy nad Model Spec — publicznym ramowym dokumentem definiującym, jak mają się zachowywać jej modele. Artykuł, podpisany przez Jasona Wolfe’a (badacz OpenAI), opisuje filozofię, strukturę i mechanizmy ewolucji tego podejścia.

Model Spec opiera się na kilku odrębnych poziomach:

PoziomOpis
Intencje i zobowiązania publiczneCele wysokiego poziomu: iteracyjne wdrażanie, unikanie poważnych szkód
Łańcuch dowodzenia (Chain of Command)Zasady rozwiązywania konfliktów między instrukcjami OpenAI, deweloperów i użytkowników
Reguły ścisłe (Hard rules)Granice niezmienne: ryzyka katastroficzne, szkody fizyczne, treści nielegalne
Zachowania domyślnePunkty startowe możliwe do modyfikacji przez deweloperów i użytkowników
Pomoc w interpretacjiZasady decyzyjne i przykłady dla przypadków dwuznacznych

Kluczowe rozróżnienie: reguły ścisłe są nieomijalne (poziom “root”), podczas gdy zachowania domyślne są konfigurowalne — co pozwala maksymalizować swobodę użytkowników w ramach ograniczeń bezpieczeństwa.

OpenAI argumentuje, że wystarczająco zaawansowana SI nie może po prostu wywnioskować właściwego zachowania z ogólnych celów typu “być użytecznym i bezpiecznym”: takie sformułowania są zbyt zależne od kontekstu i wymagają rozstrzygnięć wartości. Model Spec służy zarówno jako cel wewnętrzny, narzędzie transparentności, jak i mechanizm koordynacji między zespołami.

Równocześnie OpenAI publikuje Model Spec Evals — zestaw ocen scenariuszy, które próbują pokryć założenia Model Spec przy pomocy reprezentatywnych przykładów, aby mierzyć rozbieżności między rzeczywistym zachowaniem modelu a specyfikacją.

🔗 Inside our approach to the Model Spec 🔗 Ogłoszenie na X


Genspark Realtime Voice: głosowy asystent bez użycia rąk

25 marca — Genspark wprowadza Realtime Voice, głosowego asystenta działającego w czasie rzeczywistym, całkowicie bez użycia rąk. Przykład użycia zaprezentowany przy starcie: korzystanie w samochodzie podczas dojazdu do pracy.

Zapowiedziane funkcje obejmują sprawdzanie kalendarza, wysyłanie e-maili i wiadomości, wyszukiwanie informacji oraz tworzenie playlist na trasę. Asystent potrafi także generować prezentacje (slides), prowadzić dogłębne badania (deep research) i analizować dane — wszystko sterowane głosem.

🔗 Ogłoszenie na X


OpenAI Safety Bug Bounty: zgłaszanie ryzyk związanych z SI

25 marca — OpenAI uruchamia program bug bounty poświęcony bezpieczeństwu SI, odrębny od istniejącego programu bezpieczeństwa informatycznego. Nowy program akceptuje zgłoszenia dotyczące ryzyk nadużyć, które niekoniecznie są tradycyjnymi podatnościami oprogramowania.

Kategoria w zakresiePrzykłady
Ryzyka agentowe (w tym MCP)Wstrzykiwanie promptów przez osoby trzecie, eksfiltracja przez agenta, nieautoryzowane działania na dużą skalę
Informacje zastrzeżone OpenAIGenerowanie ujawniające zastrzeżone informacje o procesie rozumowania
Integralność kont i platformObejście mechanizmów antyautomatyzacyjnych, manipulacja sygnałami zaufania

Klasyczne jailbreaki pozostają poza zakresem. OpenAI dodaje też, że prowadzi od czasu do czasu prywatne kampanie dotyczące specyficznych typów szkód — na przykład treści związanych z ryzykiem biologicznym w ChatGPT Agent i GPT-5.

🔗 Introducing the OpenAI Safety Bug Bounty program


Codex Creator Challenge: konkurs studencki z nagrodą 10 000 $ w kredytach

25 marca — OpenAI i Handshake uruchamiają Codex Creator Challenge, konkurs dla studentów mający na celu tworzenie realnych projektów z wykorzystaniem Codex. Do wygrania: 10 000 $ w kredytach API OpenAI. Wyzwanie zachęca studentów do eksperymentowania z narzędziami Codex i budowy praktycznych aplikacji.

🔗 Tweet @OpenAIDevs


ElevenLabs: Guardrails 2.0 w ElevenAgents, certyfikat AIUC-1

24 marca — ElevenLabs wdraża Guardrails 2.0 w swojej platformie ElevenAgents. Ta warstwa bezpieczeństwa pozwala kontrolować zachowanie agentów w produkcji przy użyciu polityk biznesowych dostosowanych do potrzeb lub prekonfigurowanych zabezpieczeń: trzymanie się tematu (on-topic), spójność marki (on-brand), odporność na manipulacje.

Guardrails 2.0 ma certyfikat AIUC-1 (AI Use Case standard) i obejmuje funkcje ochrony danych, zapisywania historii konwersacji oraz monitoringu po wdrożeniu.

🔗 Ogłoszenie na X


PrismAudio: otwarty model Video-to-Audio od Tongyi Lab (Alibaba)

24 marca — Tongyi Lab z Alibaba publikuje PrismAudio, model Video-to-Audio. W przeciwieństwie do klasycznych podejść V2A, które optymalizują wszystko jedną funkcją straty, PrismAudio przyjmuje architekturę “Decomposed Multi-CoT” z trzema wyspecjalizowanymi głowami — każda dedykowana innemu aspektowi generacji audio.

Model jest trenowany z użyciem Multi-Dimensional RL i Fast-GRPO, aby dopasować generację audio do preferencji ludzkich. Zasoby (model, demo, artykuł na arXiv) są udostępnione przez HuggingFace, ModelScope i dedykowaną stronę projektu.

🔗 Ogłoszenie na X


Claude Code v2.1.83: scentralizowane zarządzanie ustawieniami Enterprise

25 marca — Wersja 2.1.83 Claude Code wprowadza katalog drop-in managed-settings.d/, przeznaczony dla administratorów Enterprise. Ten katalog pozwala organizacjom centralnie zarządzać ustawieniami Claude Code, umieszczając pliki konfiguracyjne stosowane dla wszystkich stanowisk w wdrożeniu.

🔗 CHANGELOG Claude Code


Kling AI Team Plan: współpraca do 15 członków

24 marca — Kling AI uruchamia Team Plan, plan współpracy umożliwiający zespołom do 15 członków pracę razem na platformie. Plan obejmuje współdzielone zasoby i możliwość komercyjnego wykorzystania stworzonych materiałów.

🔗 Ogłoszenie @Kling_ai na X


Manus Desktop: kredyty zmniejszone o połowę do 30 marca

24 marca — Manus oferuje czasową promocję na aplikację Desktop: od 24 do 30 marca 2026 każde zadanie zużywa o 50% mniej kredytów. Istniejące kredyty zatem mają podwójną wartość dla wszystkich zadań wykonanych przez Manus Desktop w tym okresie.

🔗 Ogłoszenie na X


NVIDIA przekazuje swój sterownik DRA GPU społeczności Kubernetes

24 marca — W kontekście NVIDIA GTC 2026, NVIDIA ogłasza przekazanie społeczności Kubernetes swojego sterownika Dynamic Resource Allocation (DRA) dla GPU. Ten wkład wpisuje się w otwartoźródłowe zaangażowanie NVIDIA i ułatwia dynamiczne przydzielanie zasobów GPU w środowiskach Kubernetes.

🔗 Blog NVIDIA — AI Future Open and Proprietary


Co to oznacza

Dwie zaprezentowane przez Anthropic inicjatywy są komplementarne: integracja Figma, Canva i Amplitude na mobile przybliża Claude do codziennych workflowów zawodowych, podczas gdy przyspieszenie uruchamiania Claude Code (2,8x) i Agent SDK (5,1x) realnie poprawia doświadczenie deweloperów korzystających z tych narzędzi na co dzień. Te dwa kierunki — użytkowanie mobilne skierowane do szerokiej publiczności i wydajność skierowana do deweloperów — ilustrują podwójną trajektorię rozwoju Anthropic.

Decyzja GitHub Copilot dotycząca danych interakcji jest najbardziej istotna dla indywidualnych programistów: po raz pierwszy użytkownicy planów konsumenckich (Free, Pro, Pro+) zobaczą swoje interakcje potencjalnie wykorzystane do trenowania modeli. Opcja opt-out istnieje, ale musi być aktywowana przed 24 kwietnia — ten krótki termin warto odnotować.

Nemotron Coalition NVIDIA to silny sygnał dotyczący strategii open source branży. Zbierając Mistral, Black Forest Labs, Cursor i innych w formalną koalicję do rozwoju modeli na poziomie frontier, NVIDIA pozycjonuje open source nie jako alternatywę dla modeli własnościowych, lecz jako równorzędną kategorię. Zdanie Jensena Huanga — “proprietary and open”, a nie “versus” — dobrze podsumowuje to przesunięcie. Lyria 3 Pro potwierdza, że generowanie muzyki zmierza w stronę formatów nadających się do produkcji: 3-minutowe utwory ze spójną strukturą (wstępy, zwrotki, refreny) zmieniają charakter zastosowania, przesuwając je z eksperymentalnych fragmentów do pełnych kompozycji. Dostępność na kilku platformach Google już w tygodniu premiery przyspiesza adopcję.

Publikacja Model Spec Evals przez OpenAI — zestawu ocen mierzących rozbieżności między zachowaniem modelu a zapisanymi specyfikacjami — jest znacząca: to jedna z pierwszych publicznych prób obiektywnego zmierzenia zgodności modelu z jego własnymi zasadami postępowania.


Źródła

Niniejszy dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator