17 marca 2026 upływa pod znakiem GTC NVIDIA i kilku ważnych premier. OpenAI publikuje GPT-5.4 mini i nano, swoje najbardziej zaawansowane jak dotąd kompaktowe modele, które zbliżają się do pełnego modelu w kilku benchmarkach. NVIDIA Nemotron Coalition zyskuje na rozmachu wraz z dołączeniem Mistral AI i Perplexity. Perplexity jednocześnie otwiera Comet Enterprise z pełnym zarządzaniem MDM, Claude Code v2.1.77 podwaja limit generacji dla Opus 4.6, a GitHub, Anthropic, Google i OpenAI łączą siły, aby sfinansować bezpieczeństwo open source kwotą 12,5 miliona dolarów.
GPT-5.4 mini i nano: kompaktowe modele OpenAI
17 marca — OpenAI uruchamia GPT-5.4 mini i GPT-5.4 nano, swoje najbardziej wydajne kompaktowe modele do tej pory. Te dwie odmiany przenoszą możliwości GPT-5.4 do formatów zoptymalizowanych pod obciążenia o dużej skali, z mniejszą latencją i niższym kosztem.
GPT-5.4 mini znacząco ulepsza GPT-5 mini w zakresie kodu, rozumowania, rozumienia multimodalnego i używania narzędzi, a przy tym działa ponad dwa razy szybciej. Zbliża się do wydajności pełnego modelu GPT-5.4 w kilku kluczowych ocenach, w tym SWE-Bench Pro i OSWorld-Verified.
GPT-5.4 nano to najmniejsza i najtańsza wersja rodziny GPT-5.4, stworzona do zadań, w których liczą się szybkość i koszt: klasyfikacji, ekstrakcji danych, rankingowania oraz prostych podagentów kodu.
| Ewaluacja | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (public) | 57,7 % | 54,4 % | 52,4 % | 45,7 % |
| Terminal-Bench 2.0 | 75,1 % | 60,0 % | 46,3 % | 38,2 % |
| Toolathlon | 54,6 % | 42,9 % | 35,5 % | 26,9 % |
| GPQA Diamond | 93,0 % | 88,0 % | 82,8 % | 81,6 % |
| OSWorld-Verified | 75,0 % | 72,1 % | 39,0 % | 42,0 % |
Przypadki użycia dzielą się na trzy obszary: asystenci kodowania (GPT-5.4 mini świetnie sprawdza się w szybkich workflow kodowania, pętlach debugowania i generowaniu frontendów), podagenci (w Codex GPT-5.4 może delegować podzadania do GPT-5.4 mini, wykorzystując tylko 30% limitu GPT-5.4) oraz sterowanie interfejsem (computer use), gdzie GPT-5.4 mini szybko interpretuje zrzuty ekranu z gęstych interfejsów.
| Model | Dostępność | Cena wejścia | Cena wyjścia | Kontekst |
|---|---|---|---|---|
| GPT-5.4 mini | API, Codex, ChatGPT Free/Go | 0,75 $/million tokens | 4,50 $/million tokens | 400 000 tokens |
| GPT-5.4 nano | Tylko API | 0,20 $/million tokens | 1,25 $/million tokens | — |
W ChatGPT GPT-5.4 mini jest dostępny dla użytkowników Free i Go przez funkcję „Thinking” w menu +. W planach płatnych służy jako model rezerwowy w razie osiągnięcia limitu przepustowości GPT-5.4 Thinking.
🔗 Wprowadzenie GPT-5.4 mini i nano
NVIDIA GTC 2026: Nemotron Coalition i Dynamo 1.0
Konferencja GTC firmy NVIDIA, która rozpoczęła się 16 marca, stała się katalizatorem kilku ważnych ogłoszeń branżowych: utworzenia otwartej koalicji wokół otwartych modeli frontier, wdrożenia do produkcji systemu operacyjnego inferencji oraz ogłoszenia blueprintu danych dla AI fizycznej.
Mistral dołącza do NVIDIA Nemotron Coalition
16 marca — Mistral AI ogłasza strategiczne partnerstwo z NVIDIA w celu współtworzenia otwartych modeli AI frontier. Mistral zostaje członkiem założycielem NVIDIA Nemotron Coalition, łącząc swoją architekturę frontier z infrastrukturą obliczeniową NVIDIA i jej narzędziami deweloperskimi.
| Aspekt | Szczegóły |
|---|---|
| Rola Mistral | Członek założyciel, architektura frontier + pełny stos AI |
| Wkład NVIDIA | Infrastruktura GPU + narzędzia deweloperskie |
| Cel | Współtworzenie otwartych modeli na poziomie frontier |
Perplexity również dołącza do koalicji
16 marca — Perplexity ogłasza dołączenie do tej samej NVIDIA Nemotron Coalition. Najważniejsze punkty: Perplexity dostraja różne otwarte modele na każdym etapie swojego pipeline odpowiedzi (analiza zapytania, rozumowanie, odpowiedź końcowa). Model Nemotron 3 Super (120 miliardów parametrów, architektura MoE) jest teraz dostępny w pasku wyszukiwania Perplexity, Agent API i Perplexity Computer.
🔗 Blog Perplexity – Nemotron Coalition 🔗 Ogłoszenie NVIDIA
Dynamo 1.0: system operacyjny inferencji wchodzi do produkcji
16 marca — NVIDIA ogłasza na GTC wdrożenie do produkcji Dynamo 1.0, przedstawionego jako „system operacyjny inferencji” (inference operating system) dla fabryk AI (AI factories). Dynamo zwiększa wydajność inferencji na GPU Blackwell nawet 7x w porównaniu z nieoptymalizowanymi wdrożeniami. Przejście do wersji v1.0 oznacza wyjście z fazy eksperymentalnej do produkcji przemysłowej.
🔗 Ogłoszenie NVIDIA Dynamo 1.0
Physical AI Data Factory Blueprint
16 marca — NVIDIA ujawnia Physical AI Data Factory Blueprint: architekturę referencyjną do przekształcania przyspieszanego obliczania w wysokiej jakości dane treningowe przeznaczone dla robotyki, agentów wizji AI i pojazdów autonomicznych. Ten blueprint pozwala firmom generować syntetycznie dane treningowe dla AI fizycznej na dużą skalę.
🔗 Ogłoszenie NVIDIA Physical AI
Cohere + NVIDIA: suwerenna AI na DGX Spark
16 marca — Cohere i NVIDIA łączą siły, aby rozwijać suwerenną, bezpieczną i wydajną AI, ogłoszone również na GTC. Dwa główne kierunki: modele NVIDIA ecosystem-native (modele niestandardowe zoptymalizowane pod najnowszą architekturę NVIDIA, skierowane do wyspecjalizowanych enterprise workloads) oraz North na DGX Spark (agentowa platforma North firmy Cohere będzie dostępna na NVIDIA DGX Spark, lokalnie i z niską latencją dla wrażliwych danych). Docelowe sektory to finanse, ochrona zdrowia i sektor publiczny.
🔗 Blog Cohere – suwerenna AI NVIDIA
Perplexity Comet Enterprise: zarządzanie MDM i integracja z CrowdStrike
17 marca — Perplexity uruchamia Comet Enterprise dla wszystkich subskrybentów Enterprise. Przeglądarka AI przechodzi do wersji enterprise z pełnym zarządzaniem wdrożeniem.
| Funkcja | Opis |
|---|---|
| Wdrożenie MDM | Cichy instalator, wdrożenie na tysiącach maszyn, logi audytowe |
| Granularna telemetria | Śledzenie per użytkownik |
| CrowdStrike Falcon | Ochrona antyphishingowa, wykrywanie eksfiltracji (zrzuty ekranu, pobrania) |
| Interwencja w czasie rzeczywistym | Możliwa dzięki integracji CrowdStrike |
| Prywatność | Perplexity nigdy nie trenuje swoich modeli na danych enterprise |
Wśród pierwszych użytkowników są: firmy z rankingu Fortune, AWS, AlixPartners, Gunderson Dettmer i Bessemer Venture Partners. Udokumentowane przypadki użycia obejmują przygotowanie spotkań z klientami (aktualności w czasie rzeczywistym), analizę umów SOW, obliczenia finansowe i badania sektorowe.
🔗 Blog Perplexity – Comet Enterprise
Claude Code v2.1.77: domyślnie 64k tokens dla Opus 4.6
17 marca — Claude Code v2.1.77 wychodzi z istotnym zwiększeniem limitów generacji i kilkoma krytycznymi poprawkami błędów.
| Model | Limit domyślny | Limit maksymalny |
|---|---|---|
| Claude Opus 4.6 | 64 000 tokens | 128 000 tokens |
| Claude Sonnet 4.6 | — | 128 000 tokens |
Domyślny limit dla Opus 4.6 podwaja się (z 32k do 64k tokens), umożliwiając znacznie dłuższe odpowiedzi bez dodatkowej konfiguracji.
Nowe funkcje:
allowReadw sandboxach: nowy parametr konfiguracyjny filesystem pozwalający ponownie zezwolić na odczyt w obszarach objętych regułądenyRead. Przydatne w granularnych konfiguracjach bezpieczeństwa./copy N: komenda/copyakceptuje teraz opcjonalny indeks —/copy 2kopiuje drugą poprzednią odpowiedź asystenta bez nawigowania po historii.
Istotne poprawki:
- „Always Allow” dla złożonych poleceń bash: reguła była zapisywana dla całego łańcucha (
cd src && npm test), a nie dla pojedynczej podkomendy. Naprawiono. - Auto-updater: uruchamiał równoległe pobierania przy powtarzanym otwieraniu i zamykaniu okna, co mogło gromadzić dziesiątki gigabajtów w pamięci. Naprawiono.
--resumeobcinający historię: race condition między zapisami extraction memory a głównym transcript mogła prowadzić do cichego obcięcia. Naprawiono.- Hooki
PreToolUseomijające regułydeny: hook zwracający"allow"omijał reguły uprawnieńdeny, w tym ustawienia zarządzane przez firmę. Ważna poprawka bezpieczeństwa.
Artykuł techniczny: jak zespół Claude Code używa Skills
17 marca — Thariq (@trq212), inżynier z zespołu Claude Code w Anthropic, publikuje „Lessons from Building Claude Code: How We Use Skills”, drugi artykuł z serii po „Seeing like an Agent” (27 lutego, 3,6 miliona wyświetleń).
Artykuł dokumentuje, jak Skills stały się jednym z najczęściej używanych punktów rozszerzeń Claude Code — elastyczne, łatwe w utrzymaniu i pozwalające zespołom definiować wielokrotnego użytku workflow bezpośrednio w środowisku deweloperskim. Boris Cherny (@bcherny), szef Claude Code, udostępnił artykuł, określając go jako „Really great writeup”. Autor zapowiada również rychłą publikację skilla iMessage jako open source, jako konkretnego przykładu.
“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”
🇵🇱 Dobre używanie Skills to kwestia kompetencji. Nie zdawałem sobie sprawy, jak bardzo, dopóki nie napisałem tego artykułu. — @trq212 na X
Codex Security: dlaczego bez raportu SAST
16 marca — OpenAI publikuje artykuł techniczny wyjaśniający decyzję projektową stojącą za Codex Security: dlaczego system nie opiera się na analizie statycznej (SAST) jako punkcie wyjścia.
Podejście opiera się na czterech filarach: czytaniu kontekstowym (analizowaniu pełnej ścieżki kodu wraz z kontekstem repozytorium), ukierunkowanym micro-fuzzingu (zawężaniu do najmniejszego testowalnego fragmentu w celu pisania mikro-fuzzerów), wnioskowaniu na podstawie ograniczeń (używaniu środowiska Python z z3-solver do formalizowania złożonych problemów) oraz walidacji w sandboxie (odróżnianiu „to może być problem” od „to jest problem” za pomocą skompilowanego PoC). Artykuł ilustruje te zasady na przykładzie CVE-2024-29041 (Express), otwartego przekierowania, w którym niepoprawnie sformatowane URL-e omijały implementacje allowlist.
🔗 Dlaczego Codex Security nie zawiera raportu SAST
Gemini Personal Intelligence: darmowa ekspansja w Stanach Zjednoczonych
17 marca — Google rozszerza Personal Intelligence na większą liczbę użytkowników za darmo w Stanach Zjednoczonych. Ta funkcja, dotąd zarezerwowana dla płacących subskrybentów, jest teraz dostępna dla kont free-tier przez trzy powierzchnie: AI Mode w Google Search, aplikację Gemini (iOS/Android) oraz rozszerzenie Gemini in Chrome.
Personal Intelligence bezpiecznie łączy aplikacje Google użytkownika (Gmail, Google Photos, YouTube, Search), aby dostarczać spersonalizowane odpowiedzi. Przykłady: rekomendacje zakupowe dopasowane do wcześniejszych zakupów, pomoc techniczna wskazująca dokładnie zakupione urządzenie (z wyciągu z Gmaila), spersonalizowane trasy podróży oparte na potwierdzeniach hotelowych. Użytkownik wybiera, które aplikacje połączyć, i może je w każdej chwili wyłączyć. Dostępne tylko dla osobistych kont Google, nie dla Workspace enterprise/education.
🔗 Blog Google – Personal Intelligence
AlphaFold Database: miliony nowych struktur kompleksów białkowych
17 marca — Google DeepMind ogłasza rozszerzenie bazy danych AlphaFold Database (AFDB) o miliony nowych struktur kompleksów białkowych przewidzianych przez AI, we współpracy z EMBL-EBI (Europejskim Instytutem Bioinformatyki), NVIDIA i Uniwersytetem Narodowym w Seulu. Nowe struktury obejmują m.in. priorytetowe patogeny bakteryjne WHO — najgroźniejsze i najbardziej oporne na antybiotyki bakterie. To rozszerzenie przechodzi od poziomu pojedynczych białek do kompleksów białkowych (interakcji między wieloma białkami), co stanowi jakościowy skok dla badań medycznych i farmaceutycznych.
🔗 Ogłoszenie Pushmeet Kohli na X
xAI: API Text-to-Speech Grok i pierwsze miejsce w edycji wideo
API Text-to-Speech
16 marca — xAI ogłasza dostępność API Text-to-Speech Grok, oferującego naturalne i ekspresyjne głosy dla deweloperów. LiveKit zintegrował tę TTS w LiveKit Inference już w momencie premiery.
Grok Imagine #1 w edycji wideo
15 marca — Grok Imagine osiąga pierwsze miejsce w edycji wideo w rankingu Design Arena, z Elo wynoszącym 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.
Perplexity Computer : contrôle total de Comet et Android
Computer contrôle Comet sans MCP
16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.
Computer sur Android
16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.
Manus : bureau local et Google Workspace au niveau développeur
Manus “My Computer” sur macOS et Windows
16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.
Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.
🔗 Tweet Manus · 🔗 Blog Manus
Manus maîtrise Google Workspace avec précision
17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :
| Domaine | Nouvelles capacités |
|---|---|
| Google Docs | Remplacements de texte chirurgicaux, réponses à des commentaires spécifiques |
| Google Sheets | Lecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets |
| Google Slides | Édition de présentations existantes (titre d’une diapositive, mise à jour de chronologie) |
| Google Drive | Réorganisation de dossiers |
La mise à jour est gratuite et rétrocompatible.
🔗 Tweet Manus · 🔗 Blog Manus
GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source
Copilot /fleet : maintenance sur toute la flotte de dépôts
15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.
12,5 M$ pour la sécurité open source
17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.
Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.
Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.
🔗 Article GitHub Blog 🔗 Annonce Linux Foundation
Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents
15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.
Kimi publie un paper sur les Attention Residuals
16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).
🔗 Tweet Kimi · 🔗 arXiv 2603.15031
ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise
14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).
Brèves
Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X
Ce que ça signifie
La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.
GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.
La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.
Sources
- Introducing GPT-5.4 mini and nano – OpenAI
- Why Codex Security Doesn’t Include a SAST Report – OpenAI
- Mistral × NVIDIA – annonce X
- Perplexity rejoint la NVIDIA Nemotron Coalition
- NVIDIA Nemotron Coalition
- NVIDIA Dynamo 1.0 – X
- NVIDIA Physical AI Data Factory Blueprint – X
- Cohere + NVIDIA IA souveraine
- Perplexity Comet Enterprise
- CHANGELOG Claude Code v2.1.77
- Thariq – Article sur les Skills
- Expansion de Google Personal Intelligence
- Expansion de la base de données AlphaFold – X
- API TTS de xAI – X
- Grok Imagine #1 Design Arena – X
- Perplexity Computer contrôle Comet – X
- Perplexity Computer Android – X
- Manus My Computer
- Manus Google Workspace CLI
- GitHub Copilot /fleet – X
- GitHub + Alpha-Omega 12,5 M$
- Linux Foundation – fonds sécurité open source
- Z.ai GLM-5-Turbo – X
- Kimi Attention Residuals – X
- Kimi Attention Residuals – arXiv
- ElevenLabs × Deloitte
- Tongyi Fun-CineForge – X
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator