Sąd w Amsterdamie zakazuje xAI generowania seksualnych obrazów bez zgody z użyciem Grok pod karą 100 000 € dziennie. Tego samego dnia Google uruchamia Gemini 3.1 Flash Live do rozmów audio w czasie rzeczywistym w ponad 90 językach, OpenAI wprowadza natywne plugins w Codex (Slack, Figma, Notion, Gmail), a Anthropic publikuje artykuł techniczny o projektowaniu trybu auto w Claude Code. Cohere, Mistral i Suno dopełniają tygodnia pełnego ogłoszeń.
xAI: sąd w Amsterdamie zakazuje Grok nudes
27 marca — Sąd okręgowy w Amsterdamie wydał orzeczenie przeciwko xAI, zakazując generowania lub dystrybuowania seksualnych obrazów bez zgody na terytorium Holandii. W razie nieprzestrzegania, kara wynosi 100 000 € dziennie, z limitem do 10 milionów €.
Orzeczenie następuje po wspólnym pozwie holenderskiej organizacji pozarządowej Offlimits oraz Victims Support Fund. Według Center for Countering Digital Hate (CCDH), Grok wygenerował 3 miliony zsexualizowanych obrazów w ciągu 11 dni, w tym 23 000 z udziałem nieletnich. Offlimits podkreśla, że Grok nie uwzględnia geograficznej lokalizacji ofiary przedstawionej na obrazie, co nadaje mu zasięg globalny.
Orzeczenie ukazało się tego samego dnia, w którym Parlament Europejski zatwierdził zakaz deepfake’ów seksualnych generowanych przez AI — mocny sygnał konwergencji regulacyjnej. To pierwszy europejski wyrok tego typu bezpośrednio skierowany przeciwko xAI.
🔗 CNBC: Holenderski sąd zakazuje Grok AI nudes 🔗 The Record Media: Holenderski sąd grozi xAI grzywnami
Gemini 3.1 Flash Live: audio w czasie rzeczywistym w 90+ językach
26 marca — Google wprowadza Gemini 3.1 Flash Live, swój model multimodalny do rozmów w czasie rzeczywistym. Obsługuje audio, obrazy, wideo i tekst z oknem kontekstu o wielkości 128 000 tokens i wspiera ponad 90 języków.
W porównaniu z poprzednią generacją, model utrzymuje rozmowy dwa razy dłuższe, lepiej radzi sobie z szumem tła i dźwiękami otoczenia, dokładniej realizuje złożone instrukcje systemowe oraz bardziej niezawodnie wywołuje zewnętrzne narzędzia podczas konwersacji. Wszystkie generowane audio są oznaczane SynthID.
| Fonctionnalité | Détail |
|---|---|
| Fenêtre de contexte | 128 000 tokens |
| Langues | 90+ |
| Conversations | 2× plus longues qu’avant |
| Watermarking | SynthID sur tous les audios |
Dostępność: przez Live API w Google AI Studio (dla deweloperów), przez Gemini Live i Search Live (użytkownicy, 200+ krajów) oraz przez Vertex AI (dla firm). Search Live rozszerza też dostęp do ponad 200 krajów i terytoriów, z obsługą wideo Google Lens.
Gemini: import pamięci i historii z ChatGPT i Claude
26 marca — Google wprowadza narzędzie importu w aplikacji Gemini, ułatwiające migrację z innych asystentów AI.
Dostępne są dwie funkcje:
-
Import pamięci (“Add Memory”): Gemini sugeruje prompt do wpisania w ChatGPT, Claude lub Copilot. Wygenerowana odpowiedź (podsumowanie danych osobistych zapamiętanych przez innego asystenta) jest kopiowana i wklejana do Gemini, który wyodrębnia preferencje, zainteresowania, informacje o lokalizacji itp.
-
Import historii (“Import Chats”): przesłanie pliku
.zipwyeksportowanego z ChatGPT lub Claude, do 5 GB. Poprzednie konwersacje stają się przeszukiwalne i można je wznowić w Gemini.
🔗 Blog Google: Przejdź na Gemini
Gemini CLI v0.35.2: subagents domyślnie, ulepszony Vim — i ograniczony dostęp Pro
25-26 marca — Stabilna wersja v0.35.2 Gemini CLI wprowadza kilka istotnych funkcji.
| Fonctionnalité | Description |
|---|---|
| Subagents activés par défaut | Planificateur de tâches parallèles + découpage de code |
| Raccourcis clavier personnalisables | Support keybindings, caractères littéraux, protocole Kitty |
| Mode Vim amélioré | Motions X, ~, r, f/F/t/T ; copier-coller avec registre unnamed |
| SandboxManager unifié | Isolation des outils avec bubblewrap/seccomp Linux |
| Découverte de contexte JIT | Chargement optimisé pour les outils filesystem |
| gRPC natif | Intégration native et routage de protocole |
Istotna zmiana polityki: od 25 marca użytkownicy darmowi mają dostęp tylko do Gemini Flash. Dostęp do Gemini Pro jest zarezerwowany dla subskrybentów płatnych (plany Pro i Ultra). Reakcja społeczności jest w dużej mierze negatywna. Google zaostrza też wykrywanie nadużyć: użycie uwierzytelniania OAuth Gemini CLI z oprogramowaniem firm trzecich może teraz skutkować ograniczeniami.
🔗 Changelog Gemini CLI 🔗 Dyskusja społeczności
Gemini Drop marzec 2026: Personal Intelligence za darmo i Lyria 3 Pro
27 marca — Miesięczna aktualizacja “Gemini Drops” z marca 2026 przedstawia nowe funkcje aplikacji Gemini wdrożone w tym miesiącu.
| Fonctionnalité | Description | Disponibilité |
|---|---|---|
| Personal Intelligence gratuit | Connexion Gmail, Photos, YouTube pour planifier voyages/projets | Gratuit, États-Unis |
| Gemini Live amélioré | Basé sur Gemini 3.1 Flash Live, contexte 2× plus long | Tous utilisateurs |
| Import ChatGPT/Claude | Transfert mémoires et historique | Tous utilisateurs |
| Lyria 3 Pro | Création de musique jusqu’à 3 minutes, photos → anthèmes | Abonnés |
| Google TV | Réponses visuelles Gemini et narrations | Google TV |
Codex: natywne plugins dla Slack, Figma, Notion i Gmail
26-27 marca — OpenAI wdraża plugins jako funkcję pierwszorzędną w Codex. Deweloperzy mogą podłączyć Codex do narzędzi, których używają na co dzień, bez ręcznej konfiguracji.
| Plugin | Cas d’usage |
|---|---|
| Slack | Envoyer des messages, lire des canaux |
| Figma | Accéder aux designs, générer du code |
| Notion | Lire et écrire des pages |
| Gmail | Lire et rédiger des e-mails |
Plugins synchronizują się automatycznie przy uruchomieniu Codex i są dostępne przez komendę /plugins. Instalacja i odinstalowanie odbywa się bezpośrednio z interfejsu TUI z wbudowanym zarządzaniem uwierzytelnianiem.
27 marca OpenAI opublikowało galerię praktycznych przypadków użycia dostępną jednym kliknięciem: budowa aplikacji iOS, analiza datasetów, generowanie raportów i prezentacji. Changelog Codex v0.117.0 opisuje funkcje techniczne, w tym wsparcie dla wzmiankowania plugins w promptach.
🔗 Dokumentacja plugins Codex 🔗 Tweet @OpenAIDevs
Anthropic: projektowanie trybu auto w Claude Code wyjaśnione
26 marca — Anthropic opublikował techniczny wpis na blogu o zaprojektowaniu trybu auto (auto mode) w Claude Code, dostępny na blogu Engineering.
Problem, który rozwiązano: użytkownicy Claude Code doświadczają zmęczenia zatwierdzaniem (approval fatigue). Statystyki pokazują, że 93% próśb o zgodę jest akceptowanych — co sugeruje, że częściowa automatyzacja jest możliwa bez poświęcania bezpieczeństwa.
Rozwiązanie: dwie warstwy klasyfikatorów
Tryb auto opiera się na dwóch poziomach ochrony bazujących na modelach (Sonnet 4.6):
- Warstwa wejściowa: sonda wykrywająca injekcję promptu (prompt injection probe) analizuje wyniki narzędzi, zanim dotrą do agenta.
- Warstwa wyjściowa: klasyfikator transakcji ocenia każdą proponowaną akcję w dwuetapowym procesie przed jej wykonaniem.
| Niveau | Type d’action | Traitement |
|---|---|---|
| Tier 1 | Outils sûrs (lecture de fichiers, recherche) | Passage direct, sans classifieur |
| Tier 2 | Modifications de fichiers dans le projet | Contournement du classifieur (révisables via contrôle de version) |
| Tier 3 | Actions dangereuses (commandes shell, opérations externes) | Évaluation complète par le classifieur |
Métriques de performance :
| Étape | Taux de faux positifs (trafic réel) | Taux de faux négatifs (actions risquées) |
|---|---|---|
| Étape 1 (rapide) | 8,5 % | 6,6 % |
| Pipeline complet | 0,4 % | 17 % |
Współczynnik fałszywych pozytywów 0,4% w pełnym pipeline oznacza, że tryb auto prawie nigdy nie przerywa pracy niesłusznie. Współczynnik fałszywych negatywów 17% odzwierciedla przypadki, w których klasyfikator wykrywa niebezpieczeństwo, ale źle interpretuje zakres uprawnień nadanych przez użytkownika.
“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”
🇵🇱 Na blogu Engineering: jak zaprojektowaliśmy tryb auto w Claude Code. Wielu użytkowników pozwala Claude działać bez żądań zgody. Tryb auto to bezpieczniejszy kompromis: zbudowaliśmy i przetestowaliśmy klasyfikatory podejmujące decyzje o zatwierdzeniu w ich imieniu. — @AnthropicAI na X
🔗 Claude Code auto mode: a safer way to skip permissions
GitHub Copilot: rozwiązywanie konfliktów merge i widoczność agentów
26 marca — Dwie główne aktualizacje GitHub Copilot poprawiają przepływ pracy zespołów.
Rozwiązywanie konfliktów merge: teraz można wspomnieć @copilot w komentarzu do pull request, by poprosić go o rozwiązanie konfliktów. Agent pracuje w swoim środowisku w chmurze, rozwiązuje konflikty, sprawdza, czy build i testy przechodzą, a następnie pushuje zmiany. Dostępne we wszystkich płatnych planach Copilot (Business/Enterprise wymaga aktywacji przez admina).
Widoczność agentów w Issues i Projects: gdy agent kodu (Copilot, Claude, Codex) jest przypisany do issue, jego sesja pojawia się jako assignee w sidebarze ze statusem w czasie rzeczywistym — w kolejce, w toku, oczekuje na review, zakończone. Sesje są też widoczne w widokach table i board w Projects (do włączenia przez “View menu > Show agent sessions”).
🔗 Copilot rozwiązuje konflikty merge 🔗 Aktywność agentów w Issues i Projects
GitHub: nowy dashboard PRs i Copilot for Jira
25-26 marca — Dwie dodatkowe poprawki dla deweloperów GitHub.
Dashboard Pull Requests (public preview): przeprojektowany dashboard na github.com/pulls centralizuje PRy wymagające uwagi — żądane review, wymagane poprawki, gotowe do mergowania. Spersonalizowane zapisane widoki, zaawansowane filtry z autouzupełnianiem i wsparcie zapytań AND/OR uzupełniają interfejs. Do włączenia przez ustawienia Feature Preview.
Copilot for Jira: od uruchomienia w publicznej preview wprowadzono kilka udoskonaleń: wybór modelu IA bezpośrednio z Jira, automatyczne umieszczanie numeru ticketa Jira w tytule PR i nazwie branży oraz dostęp do stron Confluence przez serwer MCP Atlassian (konfigurowalne z PAT).
🔗 Nowy dashboard PRs 🔗 Ulepszenia Copilot for Jira
Cohere Transcribe: nr 1 w rankingu ASR open-source
26 marca — Cohere wprowadza Cohere Transcribe, swój pierwszy model rozpoznawania mowy (Automatic Speech Recognition — ASR). Udostępniony jako open-source na licencji Apache 2.0, od razu zajmuje pierwsze miejsce w rankingu Open ASR na Hugging Face dla języka angielskiego.
Model opiera się na architekturze Fast-Conformer Transformer encoder-decoder o 2 miliardach parametrów. Ponad 90% parametrów przypisano enkoderowi, z lekkim dekoderem minimalizującym obliczenia autoregresywne i maksymalizującym szybkość. Trenowany na 500 000 godzin par audio-transkrypcja.
| Modèle | WER moyen |
|---|---|
| Cohere Transcribe | 5,42 |
| Zoom Scribe v1 | 5,47 |
| IBM Granite 4.0 1B | 5,52 |
| NVIDIA Canary Qwen 2.5B | 5,63 |
| OpenAI Whisper Large v3 | 7,44 |
WER (Word Error Rate — wskaźnik błędów słów) 5,42% daje Cohere Transcribe pozycję lidera. Prędkość inferencji jest 3× większa niż u konkurentów o porównywalnej wielkości. Wspiera 14 języków (w tym francuski, niemiecki, arabski, chiński mandaryński, japoński i koreański).
Ograniczenia: model nie jest zaprojektowany do code-switchingu (zmiany języka w trakcie audio) i może transkrybować dźwięki niewerbalne — zalecane dodanie filtra VAD (Voice Activity Detection).
🔗 Blog Cohere: Transcribe 🔗 Model na Hugging Face
Suno v5.5: głos osobisty, modele na zamówienie, adaptacyjne preferencje
26 marca — Suno wydaje wersję 5.5 swojego narzędzia do generowania muzyki, z trzema nowymi funkcjami ukierunkowanymi na personalizację.
| Fonctionnalité | Description | Disponibilité |
|---|---|---|
| Voices | Capturer et utiliser sa propre voix chantée (reste privée) | Tous utilisateurs |
| Custom Models | Fine-tuning à partir de ses compositions originales, jusqu’à 3 modèles | Abonnés Pro/Premier |
| My Taste | Apprentissage adaptatif des préférences en genres et ambiances | Tous utilisateurs |
Te narzędzia są przedstawiane jako fundamenty modeli następnej generacji rozwijanych we współpracy z przemysłem muzycznym.
Mistral Voxtral TTS: klonowanie głosu w 3 sekundy, open-weight
23 marca (relacje prasowe 26-27 marca) — Mistral publikuje Voxtral TTS, swój pierwszy model syntezy mowy (Text-to-Speech) open-weight. Model voxtral-tts-2603 ma 4 miliardy parametrów i wspiera 9 języków (angielski, francuski, niemiecki, hiszpański, niderlandzki, portugalski, włoski, hindi, arabski).
Deklarowana latencja to 70 ms dla typowej konfiguracji (próbka 10 sekund + 500 znaków). Klon głosu działa już z zaledwie 3 sekundami nagrania referencyjnego. Pod względem naturalności Mistral twierdzi, że Voxtral przewyższa ElevenLabs Flash v2.5 i osiąga parytet z ElevenLabs v3. Model może działać na laptopie konsumenckim, GPU średniej klasy lub na zaawansowanym urządzeniu mobilnym. Dostęp: wagi dostępne na Hugging Face (licencja Creative Commons) oraz przez API Mistral Studio za 0,016 dolara za 1 000 znaków. Integracja trybu głosowego dostępna w Le Chat.
xAI: SuperGrok Lite za 10 dolarów/mies. i wideo stories 15 sekund
25 marca — xAI ogłosiło dwie nowości związane z Grok.
SuperGrok Lite: nowy plan subskrypcyjny za 10 dolarów miesięcznie, obecnie testowany w ograniczonym gronie. Obejmuje sesje czatu dwukrotnie dłuższe niż w planie darmowym, agenta SI oraz generowanie wideo w rozdzielczości 480p (maksymalnie 6 sekund). Plan pozycjonuje się pomiędzy poziomem darmowym a SuperGrok Standard (30 dolarów miesięcznie).
Wideo stories przez Grok Imagine: Grok Imagine generuje teraz „wideo stories” trwające 15 sekund w 720p z zsynchronizowanym dźwiękiem, muzyką w tle i efektami dźwiękowymi. Elon Musk stwierdził, że chce „podbić stawkę” w kwestii wideo. Ogłoszenie pojawia się w kontekście zamknięcia Sora przez OpenAI w tym samym tygodniu.
🔗 Bloomberg: xAI podbija stawkę na wideo AI
Kimi/Moonshot AI rozważa wejście na giełdę w Hongkongu
26 marca — Moonshot AI, chińska firma stojąca za modelem Kimi, rozważa wejście na giełdę w Hongkongu, według Bloomberg. Doradcami bankowymi miałyby być CICC i Goldman Sachs, z docelową wyceną około 18 miliardów dolarów i trwającym finansowaniem do 1 miliarda dolarów. Obecni akcjonariusze to Alibaba, Tencent i 5Y Capital. Harmonogram IPO pozostaje niepewny.
🔗 Bloomberg: Moonshot rozważa IPO w Hongkongu
NVIDIA GTC: własnościowa i otwarta SI nie wykluczają się
25 marca — W trakcie GTC 2026 NVIDIA i liderzy branży (Mistral, Perplexity, Cursor, Reflection AI, LangChain) potwierdzili, że przyszłość SI leży we współistnieniu modeli otwartych i własnościowych. Jensen Huang podsumował stanowisko NVIDII: „Własnościowe kontra otwarte to nie problem. To jest własnościowe i otwarte.”
Artykuł na blogu podkreśla potrzebę orkiestracji multi-modelowej, multi-cloud i multimodalnej dla przedsiębiorstw. NVIDIA potwierdza swoje zobowiązanie do open source, stając się największą organizacją na Hugging Face.
🔗 Blog NVIDIA: Otwarte i własnościowe AI
Claude Code v2.1.85 i v2.1.84: warunkowe hooki i PowerShell na Windows
26–27 marca — Opublikowano dwie nowe wersje Claude Code.
v2.1.85 (27 marca): wprowadzenie pola warunkowego if w konfiguracji hooków, pozwalającego uruchamiać hook tylko dla określonych poleceń lub plików. Również: zmienne środowiskowe dla pomocniczych skryptów MCP, znaczniki czasu w transkrypcjach dla zadań zaplanowanych, wsparcie OAuth zgodne z RFC 9728 oraz możliwość, by hooki PreToolUse spełniały AskUserQuestion zwracając updatedInput.
v2.1.84 (~26 marca): PowerShell na Windows dostępny w podglądzie (opt-in preview) jako narzędzie natywne, hook TaskCreated (wywoływany przy tworzeniu zadania przez Claude), obsługa HTTP dla WorktreeCreate, oraz wyświetlanie promptu powrotu po 75 minutach bezczynności. Poprawka błędu uprawnień w skryptach oficjalnych pluginów na macOS/Linux.
🔗 Tweet @lydiahallie — v2.1.85
Z.ai GLM-5.1 dostępny dla wszystkich subskrybentów Coding Plan
27 marca — Z.ai (Zhipu) ogłasza, że GLM-5.1 jest teraz dostępny dla wszystkich abonentów GLM Coding Plan, niezależnie od poziomu subskrypcji (Lite, Pro lub Max).
🔗 PANews: GLM-5.1 dla Coding Plan
Genspark integruje Grok Imagine w swoim agencie wideo
26 marca — Genspark zintegrował Grok Imagine (generowanie wideo z wielu obrazów i rozszerzanie wideo) ze swoim Genspark AI Video Agent. Użytkownicy mogą użyć do 7 obrazów, aby stworzyć wideo, lub rozszerzyć istniejące wideo do 10 sekund.
Meta SAM 3.1: śledzenie 16 obiektów w czasie rzeczywistym, prędkość podwojona
27 marca — Meta publikuje SAM 3.1, aktualizację Segment Anything Model 3 do detekcji i śledzenia obiektów w wideo w czasie rzeczywistym. Główną innowacją jest multiplexing obiektów (object multiplexing): zamiast osobnego przebiegu na każdy śledzony obiekt, wszystkie obiekty są przetwarzane w jednym przebiegu (forward pass). W efekcie: do 16 obiektów jednocześnie, z prędkością wzrastającą z 16 do 32 klatek na sekundę na GPU H100 — czyli dwukrotnie szybciej — przy znacznym zmniejszeniu zużycia pamięci.
Architektura opiera się na enkoderze/dekoderze Mux-Demux, który współdzieli jedną obliczeniową przepustowość dla wszystkich obiektów. Mechanizm globalnego rozumowania (global reasoning) poprawia dokładność w scenach z wieloma elementami. SAM 3.1 jest bezpośrednim zamiennikiem (drop-in replacement) dla SAM 3 — bez konieczności zmiany API.
Model opublikowano jako open source: checkpoint dostępny do pobrania na Hugging Face, zaktualizowany kod źródłowy na GitHub, opublikowany artykuł badawczy i interaktywna demo.
🔗 Blog Meta: SAM 3.1 🔗 Kod na GitHub 🔗 Tweet @AIatMeta — SAM 3.1
Meta TRIBE v2: cyfrowy bliźniak aktywności mózgowej człowieka
26 marca — Meta publikuje TRIBE v2, predykcyjny model bazowy zaprojektowany jako „cyfrowy bliźniak” (digital twin) aktywności neuronalnej. Model przewiduje odpowiedzi mózgowe fMRI o wysokiej rozdzielczości na niemal dowolny dźwięk, obraz czy tekst, z 70× większą rozdzielczością niż wcześniejsze podejścia. Trenowany na danych od ponad 700 ochotników, działa w trybie zero-shot dla nowych osób, języków i zadań bez potrzeby ponownego treningu. Celem jest umożliwienie neuro-naukowcom szybkiego testowania hipotez bez eksperymentów na ludziach i przyspieszenie badań nad zaburzeniami neurologicznymi. Model, kod i artykuł naukowy opublikowano na licencji CC BY-NC.
🔗 Blog Meta: TRIBE v2 🔗 Tweet @AIatMeta — TRIBE v2
Co to oznacza
Decyzja sądu w Amsterdamie wyznacza punkt zwrotny regulacyjny: to pierwszy przypadek w jurysdykcji europejskiej, w którym sąd bezpośrednio ukarał xAI za treści generowane przez Grok, z odstraszającą karą pieniężną. W połączeniu z głosowaniem Parlamentu Europejskiego nad deepfake’ami o charakterze seksualnym tego samego dnia, rysuje się ramy prawne, które stopniowo zaczną obowiązywać wszystkich dostawców generatywnej SI.
Po stronie narzędzi dla deweloperów, tydzień ilustruje wyścig o integrację: Codex z natywnymi pluginami, Copilot z rozwiązywaniem konfliktów merge i widocznością agentów w Issues/Projects, oraz Claude Code z warunkowymi hookami. Asystenci SI integrują się coraz głębiej z istniejącymi workflowami zamiast ich zastępować.
Ograniczenie dostępu do Gemini Pro w darmowym CLI to sygnał, że okres hojności w narzędziach CLI zaczyna się kurczyć. Gemini, podobnie jak GitHub Copilot wcześniej, zmierza w stronę modelu freemium, gdzie zaawansowane możliwości wymagają subskrypcji.
Wreszcie, planowane IPO Kimi w Hongkongu przy wycenie 18 miliardów dolarów potwierdza atrakcyjność wycen w chińskim sektorze SI, podczas gdy Mistral z Voxtral TTS nadal pozycjonuje swoje modele open-weight jako alternatywę dla usług własnościowych w syntezie mowy.
Źródła
- CNBC: Holenderski sąd zakazuje Grok AI generowania nagich zdjęć
- The Record Media: Holenderski sąd grozi xAI karami
- Al Jazeera: Holenderski sąd zakazuje xAI Grok „nudification”
- Blog Google: Gemini 3.1 Flash Live
- Blog Google: Gemini 3.1 Flash Live — Dla deweloperów
- Blog Google: Przełącz się na Gemini
- Blog Google: Gemini Drop marzec 2026
- Changelog Gemini CLI
- Dyskusja o polityce Gemini CLI
- TechCrunch: importuj czaty z ChatGPT/Claude do Gemini
- Dokumentacja pluginów Codex
- Tweet @OpenAIDevs — pluginy
- Anthropic Engineering: Claude Code auto mode
- Tweet @AnthropicAI — auto mode
- GitHub Changelog: Copilot rozwiązuje konflikty merge
- GitHub Changelog: Aktywność agentów w Issues i Projects
- GitHub Changelog: Panel PRs
- GitHub Changelog: Copilot for Jira — public preview
- Blog Cohere: Transcribe
- Hugging Face: Cohere Transcribe
- TechCrunch: Cohere Transcribe
- Suno Blog v5.5
- Mistral Voxtral TTS
- TechCrunch: Mistral Voxtral
- Bloomberg: xAI podbija stawkę na wideo AI
- Bloomberg: Moonshot rozważa IPO w Hongkongu
- Blog NVIDIA GTC: Otwarte i własnościowe AI
- Tweet @lydiahallie — Claude Code v2.1.85
- PANews: GLM-5.1 dla Coding Plan
- Tweet @genspark_ai
- Blog Meta: SAM 3.1
- GitHub SAM 3
- Tweet @AIatMeta — SAM 3.1
- Blog Meta: TRIBE v2
- Tweet @AIatMeta — TRIBE v2
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator