Szukaj

Grok zbanowany w Holandii, Gemini 3.1 Flash Live, natywne plugins Codex

Sąd w Amsterdamie zakazuje xAI generowania seksualnych obrazów bez zgody z użyciem Grok pod karą 100 000 € dziennie. Tego samego dnia Google uruchamia Gemini 3.1 Flash Live do rozmów audio w czasie rzeczywistym w ponad 90 językach, OpenAI wprowadza natywne plugins w Codex (Slack, Figma, Notion, Gmail), a Anthropic publikuje artykuł techniczny o projektowaniu trybu auto w Claude Code. Cohere, Mistral i Suno dopełniają tygodnia pełnego ogłoszeń.


xAI: sąd w Amsterdamie zakazuje Grok nudes

27 marca — Sąd okręgowy w Amsterdamie wydał orzeczenie przeciwko xAI, zakazując generowania lub dystrybuowania seksualnych obrazów bez zgody na terytorium Holandii. W razie nieprzestrzegania, kara wynosi 100 000 € dziennie, z limitem do 10 milionów €.

Orzeczenie następuje po wspólnym pozwie holenderskiej organizacji pozarządowej Offlimits oraz Victims Support Fund. Według Center for Countering Digital Hate (CCDH), Grok wygenerował 3 miliony zsexualizowanych obrazów w ciągu 11 dni, w tym 23 000 z udziałem nieletnich. Offlimits podkreśla, że Grok nie uwzględnia geograficznej lokalizacji ofiary przedstawionej na obrazie, co nadaje mu zasięg globalny.

Orzeczenie ukazało się tego samego dnia, w którym Parlament Europejski zatwierdził zakaz deepfake’ów seksualnych generowanych przez AI — mocny sygnał konwergencji regulacyjnej. To pierwszy europejski wyrok tego typu bezpośrednio skierowany przeciwko xAI.

🔗 CNBC: Holenderski sąd zakazuje Grok AI nudes 🔗 The Record Media: Holenderski sąd grozi xAI grzywnami


Gemini 3.1 Flash Live: audio w czasie rzeczywistym w 90+ językach

26 marca — Google wprowadza Gemini 3.1 Flash Live, swój model multimodalny do rozmów w czasie rzeczywistym. Obsługuje audio, obrazy, wideo i tekst z oknem kontekstu o wielkości 128 000 tokens i wspiera ponad 90 języków.

W porównaniu z poprzednią generacją, model utrzymuje rozmowy dwa razy dłuższe, lepiej radzi sobie z szumem tła i dźwiękami otoczenia, dokładniej realizuje złożone instrukcje systemowe oraz bardziej niezawodnie wywołuje zewnętrzne narzędzia podczas konwersacji. Wszystkie generowane audio są oznaczane SynthID.

FonctionnalitéDétail
Fenêtre de contexte128 000 tokens
Langues90+
Conversations2× plus longues qu’avant
WatermarkingSynthID sur tous les audios

Dostępność: przez Live API w Google AI Studio (dla deweloperów), przez Gemini Live i Search Live (użytkownicy, 200+ krajów) oraz przez Vertex AI (dla firm). Search Live rozszerza też dostęp do ponad 200 krajów i terytoriów, z obsługą wideo Google Lens.

🔗 Oficjalne ogłoszenie Google


Gemini: import pamięci i historii z ChatGPT i Claude

26 marca — Google wprowadza narzędzie importu w aplikacji Gemini, ułatwiające migrację z innych asystentów AI.

Dostępne są dwie funkcje:

  1. Import pamięci (“Add Memory”): Gemini sugeruje prompt do wpisania w ChatGPT, Claude lub Copilot. Wygenerowana odpowiedź (podsumowanie danych osobistych zapamiętanych przez innego asystenta) jest kopiowana i wklejana do Gemini, który wyodrębnia preferencje, zainteresowania, informacje o lokalizacji itp.

  2. Import historii (“Import Chats”): przesłanie pliku .zip wyeksportowanego z ChatGPT lub Claude, do 5 GB. Poprzednie konwersacje stają się przeszukiwalne i można je wznowić w Gemini.

🔗 Blog Google: Przejdź na Gemini


Gemini CLI v0.35.2: subagents domyślnie, ulepszony Vim — i ograniczony dostęp Pro

25-26 marca — Stabilna wersja v0.35.2 Gemini CLI wprowadza kilka istotnych funkcji.

FonctionnalitéDescription
Subagents activés par défautPlanificateur de tâches parallèles + découpage de code
Raccourcis clavier personnalisablesSupport keybindings, caractères littéraux, protocole Kitty
Mode Vim amélioréMotions X, ~, r, f/F/t/T ; copier-coller avec registre unnamed
SandboxManager unifiéIsolation des outils avec bubblewrap/seccomp Linux
Découverte de contexte JITChargement optimisé pour les outils filesystem
gRPC natifIntégration native et routage de protocole

Istotna zmiana polityki: od 25 marca użytkownicy darmowi mają dostęp tylko do Gemini Flash. Dostęp do Gemini Pro jest zarezerwowany dla subskrybentów płatnych (plany Pro i Ultra). Reakcja społeczności jest w dużej mierze negatywna. Google zaostrza też wykrywanie nadużyć: użycie uwierzytelniania OAuth Gemini CLI z oprogramowaniem firm trzecich może teraz skutkować ograniczeniami.

🔗 Changelog Gemini CLI 🔗 Dyskusja społeczności


Gemini Drop marzec 2026: Personal Intelligence za darmo i Lyria 3 Pro

27 marca — Miesięczna aktualizacja “Gemini Drops” z marca 2026 przedstawia nowe funkcje aplikacji Gemini wdrożone w tym miesiącu.

FonctionnalitéDescriptionDisponibilité
Personal Intelligence gratuitConnexion Gmail, Photos, YouTube pour planifier voyages/projetsGratuit, États-Unis
Gemini Live amélioréBasé sur Gemini 3.1 Flash Live, contexte 2× plus longTous utilisateurs
Import ChatGPT/ClaudeTransfert mémoires et historiqueTous utilisateurs
Lyria 3 ProCréation de musique jusqu’à 3 minutes, photos → anthèmesAbonnés
Google TVRéponses visuelles Gemini et narrationsGoogle TV

🔗 Gemini Drop mars 2026


Codex: natywne plugins dla Slack, Figma, Notion i Gmail

26-27 marca — OpenAI wdraża plugins jako funkcję pierwszorzędną w Codex. Deweloperzy mogą podłączyć Codex do narzędzi, których używają na co dzień, bez ręcznej konfiguracji.

PluginCas d’usage
SlackEnvoyer des messages, lire des canaux
FigmaAccéder aux designs, générer du code
NotionLire et écrire des pages
GmailLire et rédiger des e-mails

Plugins synchronizują się automatycznie przy uruchomieniu Codex i są dostępne przez komendę /plugins. Instalacja i odinstalowanie odbywa się bezpośrednio z interfejsu TUI z wbudowanym zarządzaniem uwierzytelnianiem.

27 marca OpenAI opublikowało galerię praktycznych przypadków użycia dostępną jednym kliknięciem: budowa aplikacji iOS, analiza datasetów, generowanie raportów i prezentacji. Changelog Codex v0.117.0 opisuje funkcje techniczne, w tym wsparcie dla wzmiankowania plugins w promptach.

🔗 Dokumentacja plugins Codex 🔗 Tweet @OpenAIDevs


Anthropic: projektowanie trybu auto w Claude Code wyjaśnione

26 marca — Anthropic opublikował techniczny wpis na blogu o zaprojektowaniu trybu auto (auto mode) w Claude Code, dostępny na blogu Engineering.

Problem, który rozwiązano: użytkownicy Claude Code doświadczają zmęczenia zatwierdzaniem (approval fatigue). Statystyki pokazują, że 93% próśb o zgodę jest akceptowanych — co sugeruje, że częściowa automatyzacja jest możliwa bez poświęcania bezpieczeństwa.

Rozwiązanie: dwie warstwy klasyfikatorów

Tryb auto opiera się na dwóch poziomach ochrony bazujących na modelach (Sonnet 4.6):

  1. Warstwa wejściowa: sonda wykrywająca injekcję promptu (prompt injection probe) analizuje wyniki narzędzi, zanim dotrą do agenta.
  2. Warstwa wyjściowa: klasyfikator transakcji ocenia każdą proponowaną akcję w dwuetapowym procesie przed jej wykonaniem.
NiveauType d’actionTraitement
Tier 1Outils sûrs (lecture de fichiers, recherche)Passage direct, sans classifieur
Tier 2Modifications de fichiers dans le projetContournement du classifieur (révisables via contrôle de version)
Tier 3Actions dangereuses (commandes shell, opérations externes)Évaluation complète par le classifieur

Métriques de performance :

ÉtapeTaux de faux positifs (trafic réel)Taux de faux négatifs (actions risquées)
Étape 1 (rapide)8,5 %6,6 %
Pipeline complet0,4 %17 %

Współczynnik fałszywych pozytywów 0,4% w pełnym pipeline oznacza, że tryb auto prawie nigdy nie przerywa pracy niesłusznie. Współczynnik fałszywych negatywów 17% odzwierciedla przypadki, w których klasyfikator wykrywa niebezpieczeństwo, ale źle interpretuje zakres uprawnień nadanych przez użytkownika.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇵🇱 Na blogu Engineering: jak zaprojektowaliśmy tryb auto w Claude Code. Wielu użytkowników pozwala Claude działać bez żądań zgody. Tryb auto to bezpieczniejszy kompromis: zbudowaliśmy i przetestowaliśmy klasyfikatory podejmujące decyzje o zatwierdzeniu w ich imieniu.@AnthropicAI na X

🔗 Claude Code auto mode: a safer way to skip permissions


GitHub Copilot: rozwiązywanie konfliktów merge i widoczność agentów

26 marca — Dwie główne aktualizacje GitHub Copilot poprawiają przepływ pracy zespołów.

Rozwiązywanie konfliktów merge: teraz można wspomnieć @copilot w komentarzu do pull request, by poprosić go o rozwiązanie konfliktów. Agent pracuje w swoim środowisku w chmurze, rozwiązuje konflikty, sprawdza, czy build i testy przechodzą, a następnie pushuje zmiany. Dostępne we wszystkich płatnych planach Copilot (Business/Enterprise wymaga aktywacji przez admina).

Widoczność agentów w Issues i Projects: gdy agent kodu (Copilot, Claude, Codex) jest przypisany do issue, jego sesja pojawia się jako assignee w sidebarze ze statusem w czasie rzeczywistym — w kolejce, w toku, oczekuje na review, zakończone. Sesje są też widoczne w widokach table i board w Projects (do włączenia przez “View menu > Show agent sessions”).

🔗 Copilot rozwiązuje konflikty merge 🔗 Aktywność agentów w Issues i Projects


GitHub: nowy dashboard PRs i Copilot for Jira

25-26 marca — Dwie dodatkowe poprawki dla deweloperów GitHub.

Dashboard Pull Requests (public preview): przeprojektowany dashboard na github.com/pulls centralizuje PRy wymagające uwagi — żądane review, wymagane poprawki, gotowe do mergowania. Spersonalizowane zapisane widoki, zaawansowane filtry z autouzupełnianiem i wsparcie zapytań AND/OR uzupełniają interfejs. Do włączenia przez ustawienia Feature Preview.

Copilot for Jira: od uruchomienia w publicznej preview wprowadzono kilka udoskonaleń: wybór modelu IA bezpośrednio z Jira, automatyczne umieszczanie numeru ticketa Jira w tytule PR i nazwie branży oraz dostęp do stron Confluence przez serwer MCP Atlassian (konfigurowalne z PAT).

🔗 Nowy dashboard PRs 🔗 Ulepszenia Copilot for Jira


Cohere Transcribe: nr 1 w rankingu ASR open-source

26 marca — Cohere wprowadza Cohere Transcribe, swój pierwszy model rozpoznawania mowy (Automatic Speech Recognition — ASR). Udostępniony jako open-source na licencji Apache 2.0, od razu zajmuje pierwsze miejsce w rankingu Open ASR na Hugging Face dla języka angielskiego.

Model opiera się na architekturze Fast-Conformer Transformer encoder-decoder o 2 miliardach parametrów. Ponad 90% parametrów przypisano enkoderowi, z lekkim dekoderem minimalizującym obliczenia autoregresywne i maksymalizującym szybkość. Trenowany na 500 000 godzin par audio-transkrypcja.

ModèleWER moyen
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

WER (Word Error Rate — wskaźnik błędów słów) 5,42% daje Cohere Transcribe pozycję lidera. Prędkość inferencji jest 3× większa niż u konkurentów o porównywalnej wielkości. Wspiera 14 języków (w tym francuski, niemiecki, arabski, chiński mandaryński, japoński i koreański).

Ograniczenia: model nie jest zaprojektowany do code-switchingu (zmiany języka w trakcie audio) i może transkrybować dźwięki niewerbalne — zalecane dodanie filtra VAD (Voice Activity Detection).

🔗 Blog Cohere: Transcribe 🔗 Model na Hugging Face


Suno v5.5: głos osobisty, modele na zamówienie, adaptacyjne preferencje

26 marca — Suno wydaje wersję 5.5 swojego narzędzia do generowania muzyki, z trzema nowymi funkcjami ukierunkowanymi na personalizację.

FonctionnalitéDescriptionDisponibilité
VoicesCapturer et utiliser sa propre voix chantée (reste privée)Tous utilisateurs
Custom ModelsFine-tuning à partir de ses compositions originales, jusqu’à 3 modèlesAbonnés Pro/Premier
My TasteApprentissage adaptatif des préférences en genres et ambiancesTous utilisateurs

Te narzędzia są przedstawiane jako fundamenty modeli następnej generacji rozwijanych we współpracy z przemysłem muzycznym.

🔗 Suno Blog v5.5


Mistral Voxtral TTS: klonowanie głosu w 3 sekundy, open-weight

23 marca (relacje prasowe 26-27 marca) — Mistral publikuje Voxtral TTS, swój pierwszy model syntezy mowy (Text-to-Speech) open-weight. Model voxtral-tts-2603 ma 4 miliardy parametrów i wspiera 9 języków (angielski, francuski, niemiecki, hiszpański, niderlandzki, portugalski, włoski, hindi, arabski).

Deklarowana latencja to 70 ms dla typowej konfiguracji (próbka 10 sekund + 500 znaków). Klon głosu działa już z zaledwie 3 sekundami nagrania referencyjnego. Pod względem naturalności Mistral twierdzi, że Voxtral przewyższa ElevenLabs Flash v2.5 i osiąga parytet z ElevenLabs v3. Model może działać na laptopie konsumenckim, GPU średniej klasy lub na zaawansowanym urządzeniu mobilnym. Dostęp: wagi dostępne na Hugging Face (licencja Creative Commons) oraz przez API Mistral Studio za 0,016 dolara za 1 000 znaków. Integracja trybu głosowego dostępna w Le Chat.

🔗 Ogłoszenie Mistral Voxtral


xAI: SuperGrok Lite za 10 dolarów/mies. i wideo stories 15 sekund

25 marca — xAI ogłosiło dwie nowości związane z Grok.

SuperGrok Lite: nowy plan subskrypcyjny za 10 dolarów miesięcznie, obecnie testowany w ograniczonym gronie. Obejmuje sesje czatu dwukrotnie dłuższe niż w planie darmowym, agenta SI oraz generowanie wideo w rozdzielczości 480p (maksymalnie 6 sekund). Plan pozycjonuje się pomiędzy poziomem darmowym a SuperGrok Standard (30 dolarów miesięcznie).

Wideo stories przez Grok Imagine: Grok Imagine generuje teraz „wideo stories” trwające 15 sekund w 720p z zsynchronizowanym dźwiękiem, muzyką w tle i efektami dźwiękowymi. Elon Musk stwierdził, że chce „podbić stawkę” w kwestii wideo. Ogłoszenie pojawia się w kontekście zamknięcia Sora przez OpenAI w tym samym tygodniu.

🔗 Bloomberg: xAI podbija stawkę na wideo AI


Kimi/Moonshot AI rozważa wejście na giełdę w Hongkongu

26 marca — Moonshot AI, chińska firma stojąca za modelem Kimi, rozważa wejście na giełdę w Hongkongu, według Bloomberg. Doradcami bankowymi miałyby być CICC i Goldman Sachs, z docelową wyceną około 18 miliardów dolarów i trwającym finansowaniem do 1 miliarda dolarów. Obecni akcjonariusze to Alibaba, Tencent i 5Y Capital. Harmonogram IPO pozostaje niepewny.

🔗 Bloomberg: Moonshot rozważa IPO w Hongkongu


NVIDIA GTC: własnościowa i otwarta SI nie wykluczają się

25 marca — W trakcie GTC 2026 NVIDIA i liderzy branży (Mistral, Perplexity, Cursor, Reflection AI, LangChain) potwierdzili, że przyszłość SI leży we współistnieniu modeli otwartych i własnościowych. Jensen Huang podsumował stanowisko NVIDII: „Własnościowe kontra otwarte to nie problem. To jest własnościowe i otwarte.”

Artykuł na blogu podkreśla potrzebę orkiestracji multi-modelowej, multi-cloud i multimodalnej dla przedsiębiorstw. NVIDIA potwierdza swoje zobowiązanie do open source, stając się największą organizacją na Hugging Face.

🔗 Blog NVIDIA: Otwarte i własnościowe AI


Claude Code v2.1.85 i v2.1.84: warunkowe hooki i PowerShell na Windows

26–27 marca — Opublikowano dwie nowe wersje Claude Code.

v2.1.85 (27 marca): wprowadzenie pola warunkowego if w konfiguracji hooków, pozwalającego uruchamiać hook tylko dla określonych poleceń lub plików. Również: zmienne środowiskowe dla pomocniczych skryptów MCP, znaczniki czasu w transkrypcjach dla zadań zaplanowanych, wsparcie OAuth zgodne z RFC 9728 oraz możliwość, by hooki PreToolUse spełniały AskUserQuestion zwracając updatedInput.

v2.1.84 (~26 marca): PowerShell na Windows dostępny w podglądzie (opt-in preview) jako narzędzie natywne, hook TaskCreated (wywoływany przy tworzeniu zadania przez Claude), obsługa HTTP dla WorktreeCreate, oraz wyświetlanie promptu powrotu po 75 minutach bezczynności. Poprawka błędu uprawnień w skryptach oficjalnych pluginów na macOS/Linux.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 dostępny dla wszystkich subskrybentów Coding Plan

27 marca — Z.ai (Zhipu) ogłasza, że GLM-5.1 jest teraz dostępny dla wszystkich abonentów GLM Coding Plan, niezależnie od poziomu subskrypcji (Lite, Pro lub Max).

🔗 PANews: GLM-5.1 dla Coding Plan


Genspark integruje Grok Imagine w swoim agencie wideo

26 marca — Genspark zintegrował Grok Imagine (generowanie wideo z wielu obrazów i rozszerzanie wideo) ze swoim Genspark AI Video Agent. Użytkownicy mogą użyć do 7 obrazów, aby stworzyć wideo, lub rozszerzyć istniejące wideo do 10 sekund.

🔗 Tweet @genspark_ai


Meta SAM 3.1: śledzenie 16 obiektów w czasie rzeczywistym, prędkość podwojona

27 marca — Meta publikuje SAM 3.1, aktualizację Segment Anything Model 3 do detekcji i śledzenia obiektów w wideo w czasie rzeczywistym. Główną innowacją jest multiplexing obiektów (object multiplexing): zamiast osobnego przebiegu na każdy śledzony obiekt, wszystkie obiekty są przetwarzane w jednym przebiegu (forward pass). W efekcie: do 16 obiektów jednocześnie, z prędkością wzrastającą z 16 do 32 klatek na sekundę na GPU H100 — czyli dwukrotnie szybciej — przy znacznym zmniejszeniu zużycia pamięci.

Architektura opiera się na enkoderze/dekoderze Mux-Demux, który współdzieli jedną obliczeniową przepustowość dla wszystkich obiektów. Mechanizm globalnego rozumowania (global reasoning) poprawia dokładność w scenach z wieloma elementami. SAM 3.1 jest bezpośrednim zamiennikiem (drop-in replacement) dla SAM 3 — bez konieczności zmiany API.

Model opublikowano jako open source: checkpoint dostępny do pobrania na Hugging Face, zaktualizowany kod źródłowy na GitHub, opublikowany artykuł badawczy i interaktywna demo.

🔗 Blog Meta: SAM 3.1 🔗 Kod na GitHub 🔗 Tweet @AIatMeta — SAM 3.1


Meta TRIBE v2: cyfrowy bliźniak aktywności mózgowej człowieka

26 marca — Meta publikuje TRIBE v2, predykcyjny model bazowy zaprojektowany jako „cyfrowy bliźniak” (digital twin) aktywności neuronalnej. Model przewiduje odpowiedzi mózgowe fMRI o wysokiej rozdzielczości na niemal dowolny dźwięk, obraz czy tekst, z 70× większą rozdzielczością niż wcześniejsze podejścia. Trenowany na danych od ponad 700 ochotników, działa w trybie zero-shot dla nowych osób, języków i zadań bez potrzeby ponownego treningu. Celem jest umożliwienie neuro-naukowcom szybkiego testowania hipotez bez eksperymentów na ludziach i przyspieszenie badań nad zaburzeniami neurologicznymi. Model, kod i artykuł naukowy opublikowano na licencji CC BY-NC.

🔗 Blog Meta: TRIBE v2 🔗 Tweet @AIatMeta — TRIBE v2


Co to oznacza

Decyzja sądu w Amsterdamie wyznacza punkt zwrotny regulacyjny: to pierwszy przypadek w jurysdykcji europejskiej, w którym sąd bezpośrednio ukarał xAI za treści generowane przez Grok, z odstraszającą karą pieniężną. W połączeniu z głosowaniem Parlamentu Europejskiego nad deepfake’ami o charakterze seksualnym tego samego dnia, rysuje się ramy prawne, które stopniowo zaczną obowiązywać wszystkich dostawców generatywnej SI.

Po stronie narzędzi dla deweloperów, tydzień ilustruje wyścig o integrację: Codex z natywnymi pluginami, Copilot z rozwiązywaniem konfliktów merge i widocznością agentów w Issues/Projects, oraz Claude Code z warunkowymi hookami. Asystenci SI integrują się coraz głębiej z istniejącymi workflowami zamiast ich zastępować.

Ograniczenie dostępu do Gemini Pro w darmowym CLI to sygnał, że okres hojności w narzędziach CLI zaczyna się kurczyć. Gemini, podobnie jak GitHub Copilot wcześniej, zmierza w stronę modelu freemium, gdzie zaawansowane możliwości wymagają subskrypcji.

Wreszcie, planowane IPO Kimi w Hongkongu przy wycenie 18 miliardów dolarów potwierdza atrakcyjność wycen w chińskim sektorze SI, podczas gdy Mistral z Voxtral TTS nadal pozycjonuje swoje modele open-weight jako alternatywę dla usług własnościowych w syntezie mowy.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator