Szukaj

GPT-5.4 mini i nano uruchomione przez OpenAI, Mistral dołącza do NVIDIA Nemotron Coalition, Perplexity Comet Enterprise dostępne

GPT-5.4 mini i nano uruchomione przez OpenAI, Mistral dołącza do NVIDIA Nemotron Coalition, Perplexity Comet Enterprise dostępne

17 marca 2026 upływa pod znakiem GTC NVIDIA i kilku ważnych premier. OpenAI publikuje GPT-5.4 mini i nano, swoje najbardziej zaawansowane jak dotąd kompaktowe modele, które zbliżają się do pełnego modelu w kilku benchmarkach. NVIDIA Nemotron Coalition zyskuje na rozmachu wraz z dołączeniem Mistral AI i Perplexity. Perplexity jednocześnie otwiera Comet Enterprise z pełnym zarządzaniem MDM, Claude Code v2.1.77 podwaja limit generacji dla Opus 4.6, a GitHub, Anthropic, Google i OpenAI łączą siły, aby sfinansować bezpieczeństwo open source kwotą 12,5 miliona dolarów.


GPT-5.4 mini i nano: kompaktowe modele OpenAI

17 marca — OpenAI uruchamia GPT-5.4 mini i GPT-5.4 nano, swoje najbardziej wydajne kompaktowe modele do tej pory. Te dwie odmiany przenoszą możliwości GPT-5.4 do formatów zoptymalizowanych pod obciążenia o dużej skali, z mniejszą latencją i niższym kosztem.

GPT-5.4 mini znacząco ulepsza GPT-5 mini w zakresie kodu, rozumowania, rozumienia multimodalnego i używania narzędzi, a przy tym działa ponad dwa razy szybciej. Zbliża się do wydajności pełnego modelu GPT-5.4 w kilku kluczowych ocenach, w tym SWE-Bench Pro i OSWorld-Verified.

GPT-5.4 nano to najmniejsza i najtańsza wersja rodziny GPT-5.4, stworzona do zadań, w których liczą się szybkość i koszt: klasyfikacji, ekstrakcji danych, rankingowania oraz prostych podagentów kodu.

EwaluacjaGPT-5.4GPT-5.4 miniGPT-5.4 nanoGPT-5 mini
SWE-Bench Pro (public)57,7 %54,4 %52,4 %45,7 %
Terminal-Bench 2.075,1 %60,0 %46,3 %38,2 %
Toolathlon54,6 %42,9 %35,5 %26,9 %
GPQA Diamond93,0 %88,0 %82,8 %81,6 %
OSWorld-Verified75,0 %72,1 %39,0 %42,0 %

Przypadki użycia dzielą się na trzy obszary: asystenci kodowania (GPT-5.4 mini świetnie sprawdza się w szybkich workflow kodowania, pętlach debugowania i generowaniu frontendów), podagenci (w Codex GPT-5.4 może delegować podzadania do GPT-5.4 mini, wykorzystując tylko 30% limitu GPT-5.4) oraz sterowanie interfejsem (computer use), gdzie GPT-5.4 mini szybko interpretuje zrzuty ekranu z gęstych interfejsów.

ModelDostępnośćCena wejściaCena wyjściaKontekst
GPT-5.4 miniAPI, Codex, ChatGPT Free/Go0,75 $/million tokens4,50 $/million tokens400 000 tokens
GPT-5.4 nanoTylko API0,20 $/million tokens1,25 $/million tokens

W ChatGPT GPT-5.4 mini jest dostępny dla użytkowników Free i Go przez funkcję „Thinking” w menu +. W planach płatnych służy jako model rezerwowy w razie osiągnięcia limitu przepustowości GPT-5.4 Thinking.

🔗 Wprowadzenie GPT-5.4 mini i nano


NVIDIA GTC 2026: Nemotron Coalition i Dynamo 1.0

Konferencja GTC firmy NVIDIA, która rozpoczęła się 16 marca, stała się katalizatorem kilku ważnych ogłoszeń branżowych: utworzenia otwartej koalicji wokół otwartych modeli frontier, wdrożenia do produkcji systemu operacyjnego inferencji oraz ogłoszenia blueprintu danych dla AI fizycznej.

Mistral dołącza do NVIDIA Nemotron Coalition

16 marca — Mistral AI ogłasza strategiczne partnerstwo z NVIDIA w celu współtworzenia otwartych modeli AI frontier. Mistral zostaje członkiem założycielem NVIDIA Nemotron Coalition, łącząc swoją architekturę frontier z infrastrukturą obliczeniową NVIDIA i jej narzędziami deweloperskimi.

AspektSzczegóły
Rola MistralCzłonek założyciel, architektura frontier + pełny stos AI
Wkład NVIDIAInfrastruktura GPU + narzędzia deweloperskie
CelWspółtworzenie otwartych modeli na poziomie frontier

🔗 Ogłoszenie Mistral na X

Perplexity również dołącza do koalicji

16 marca — Perplexity ogłasza dołączenie do tej samej NVIDIA Nemotron Coalition. Najważniejsze punkty: Perplexity dostraja różne otwarte modele na każdym etapie swojego pipeline odpowiedzi (analiza zapytania, rozumowanie, odpowiedź końcowa). Model Nemotron 3 Super (120 miliardów parametrów, architektura MoE) jest teraz dostępny w pasku wyszukiwania Perplexity, Agent API i Perplexity Computer.

🔗 Blog Perplexity – Nemotron Coalition 🔗 Ogłoszenie NVIDIA

Dynamo 1.0: system operacyjny inferencji wchodzi do produkcji

16 marca — NVIDIA ogłasza na GTC wdrożenie do produkcji Dynamo 1.0, przedstawionego jako „system operacyjny inferencji” (inference operating system) dla fabryk AI (AI factories). Dynamo zwiększa wydajność inferencji na GPU Blackwell nawet 7x w porównaniu z nieoptymalizowanymi wdrożeniami. Przejście do wersji v1.0 oznacza wyjście z fazy eksperymentalnej do produkcji przemysłowej.

🔗 Ogłoszenie NVIDIA Dynamo 1.0

Physical AI Data Factory Blueprint

16 marca — NVIDIA ujawnia Physical AI Data Factory Blueprint: architekturę referencyjną do przekształcania przyspieszanego obliczania w wysokiej jakości dane treningowe przeznaczone dla robotyki, agentów wizji AI i pojazdów autonomicznych. Ten blueprint pozwala firmom generować syntetycznie dane treningowe dla AI fizycznej na dużą skalę.

🔗 Ogłoszenie NVIDIA Physical AI

Cohere + NVIDIA: suwerenna AI na DGX Spark

16 marca — Cohere i NVIDIA łączą siły, aby rozwijać suwerenną, bezpieczną i wydajną AI, ogłoszone również na GTC. Dwa główne kierunki: modele NVIDIA ecosystem-native (modele niestandardowe zoptymalizowane pod najnowszą architekturę NVIDIA, skierowane do wyspecjalizowanych enterprise workloads) oraz North na DGX Spark (agentowa platforma North firmy Cohere będzie dostępna na NVIDIA DGX Spark, lokalnie i z niską latencją dla wrażliwych danych). Docelowe sektory to finanse, ochrona zdrowia i sektor publiczny.

🔗 Blog Cohere – suwerenna AI NVIDIA


Perplexity Comet Enterprise: zarządzanie MDM i integracja z CrowdStrike

17 marca — Perplexity uruchamia Comet Enterprise dla wszystkich subskrybentów Enterprise. Przeglądarka AI przechodzi do wersji enterprise z pełnym zarządzaniem wdrożeniem.

FunkcjaOpis
Wdrożenie MDMCichy instalator, wdrożenie na tysiącach maszyn, logi audytowe
Granularna telemetriaŚledzenie per użytkownik
CrowdStrike FalconOchrona antyphishingowa, wykrywanie eksfiltracji (zrzuty ekranu, pobrania)
Interwencja w czasie rzeczywistymMożliwa dzięki integracji CrowdStrike
PrywatnośćPerplexity nigdy nie trenuje swoich modeli na danych enterprise

Wśród pierwszych użytkowników są: firmy z rankingu Fortune, AWS, AlixPartners, Gunderson Dettmer i Bessemer Venture Partners. Udokumentowane przypadki użycia obejmują przygotowanie spotkań z klientami (aktualności w czasie rzeczywistym), analizę umów SOW, obliczenia finansowe i badania sektorowe.

🔗 Blog Perplexity – Comet Enterprise


Claude Code v2.1.77: domyślnie 64k tokens dla Opus 4.6

17 marca — Claude Code v2.1.77 wychodzi z istotnym zwiększeniem limitów generacji i kilkoma krytycznymi poprawkami błędów.

ModelLimit domyślnyLimit maksymalny
Claude Opus 4.664 000 tokens128 000 tokens
Claude Sonnet 4.6128 000 tokens

Domyślny limit dla Opus 4.6 podwaja się (z 32k do 64k tokens), umożliwiając znacznie dłuższe odpowiedzi bez dodatkowej konfiguracji.

Nowe funkcje:

  • allowRead w sandboxach: nowy parametr konfiguracyjny filesystem pozwalający ponownie zezwolić na odczyt w obszarach objętych regułą denyRead. Przydatne w granularnych konfiguracjach bezpieczeństwa.
  • /copy N: komenda /copy akceptuje teraz opcjonalny indeks — /copy 2 kopiuje drugą poprzednią odpowiedź asystenta bez nawigowania po historii.

Istotne poprawki:

  • „Always Allow” dla złożonych poleceń bash: reguła była zapisywana dla całego łańcucha (cd src && npm test), a nie dla pojedynczej podkomendy. Naprawiono.
  • Auto-updater: uruchamiał równoległe pobierania przy powtarzanym otwieraniu i zamykaniu okna, co mogło gromadzić dziesiątki gigabajtów w pamięci. Naprawiono.
  • --resume obcinający historię: race condition między zapisami extraction memory a głównym transcript mogła prowadzić do cichego obcięcia. Naprawiono.
  • Hooki PreToolUse omijające reguły deny: hook zwracający "allow" omijał reguły uprawnień deny, w tym ustawienia zarządzane przez firmę. Ważna poprawka bezpieczeństwa.

🔗 Dziennik zmian Claude Code


Artykuł techniczny: jak zespół Claude Code używa Skills

17 marca — Thariq (@trq212), inżynier z zespołu Claude Code w Anthropic, publikuje „Lessons from Building Claude Code: How We Use Skills”, drugi artykuł z serii po „Seeing like an Agent” (27 lutego, 3,6 miliona wyświetleń).

Artykuł dokumentuje, jak Skills stały się jednym z najczęściej używanych punktów rozszerzeń Claude Code — elastyczne, łatwe w utrzymaniu i pozwalające zespołom definiować wielokrotnego użytku workflow bezpośrednio w środowisku deweloperskim. Boris Cherny (@bcherny), szef Claude Code, udostępnił artykuł, określając go jako „Really great writeup”. Autor zapowiada również rychłą publikację skilla iMessage jako open source, jako konkretnego przykładu.

“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”

🇵🇱 Dobre używanie Skills to kwestia kompetencji. Nie zdawałem sobie sprawy, jak bardzo, dopóki nie napisałem tego artykułu.@trq212 na X

🔗 Tweet z publikacją


Codex Security: dlaczego bez raportu SAST

16 marca — OpenAI publikuje artykuł techniczny wyjaśniający decyzję projektową stojącą za Codex Security: dlaczego system nie opiera się na analizie statycznej (SAST) jako punkcie wyjścia.

Podejście opiera się na czterech filarach: czytaniu kontekstowym (analizowaniu pełnej ścieżki kodu wraz z kontekstem repozytorium), ukierunkowanym micro-fuzzingu (zawężaniu do najmniejszego testowalnego fragmentu w celu pisania mikro-fuzzerów), wnioskowaniu na podstawie ograniczeń (używaniu środowiska Python z z3-solver do formalizowania złożonych problemów) oraz walidacji w sandboxie (odróżnianiu „to może być problem” od „to jest problem” za pomocą skompilowanego PoC). Artykuł ilustruje te zasady na przykładzie CVE-2024-29041 (Express), otwartego przekierowania, w którym niepoprawnie sformatowane URL-e omijały implementacje allowlist.

🔗 Dlaczego Codex Security nie zawiera raportu SAST


Gemini Personal Intelligence: darmowa ekspansja w Stanach Zjednoczonych

17 marca — Google rozszerza Personal Intelligence na większą liczbę użytkowników za darmo w Stanach Zjednoczonych. Ta funkcja, dotąd zarezerwowana dla płacących subskrybentów, jest teraz dostępna dla kont free-tier przez trzy powierzchnie: AI Mode w Google Search, aplikację Gemini (iOS/Android) oraz rozszerzenie Gemini in Chrome.

Personal Intelligence bezpiecznie łączy aplikacje Google użytkownika (Gmail, Google Photos, YouTube, Search), aby dostarczać spersonalizowane odpowiedzi. Przykłady: rekomendacje zakupowe dopasowane do wcześniejszych zakupów, pomoc techniczna wskazująca dokładnie zakupione urządzenie (z wyciągu z Gmaila), spersonalizowane trasy podróży oparte na potwierdzeniach hotelowych. Użytkownik wybiera, które aplikacje połączyć, i może je w każdej chwili wyłączyć. Dostępne tylko dla osobistych kont Google, nie dla Workspace enterprise/education.

🔗 Blog Google – Personal Intelligence


AlphaFold Database: miliony nowych struktur kompleksów białkowych

17 marca — Google DeepMind ogłasza rozszerzenie bazy danych AlphaFold Database (AFDB) o miliony nowych struktur kompleksów białkowych przewidzianych przez AI, we współpracy z EMBL-EBI (Europejskim Instytutem Bioinformatyki), NVIDIA i Uniwersytetem Narodowym w Seulu. Nowe struktury obejmują m.in. priorytetowe patogeny bakteryjne WHO — najgroźniejsze i najbardziej oporne na antybiotyki bakterie. To rozszerzenie przechodzi od poziomu pojedynczych białek do kompleksów białkowych (interakcji między wieloma białkami), co stanowi jakościowy skok dla badań medycznych i farmaceutycznych.

🔗 Ogłoszenie Pushmeet Kohli na X


xAI: API Text-to-Speech Grok i pierwsze miejsce w edycji wideo

API Text-to-Speech

16 marca — xAI ogłasza dostępność API Text-to-Speech Grok, oferującego naturalne i ekspresyjne głosy dla deweloperów. LiveKit zintegrował tę TTS w LiveKit Inference już w momencie premiery.

🔗 Ogłoszenie xAI na X

Grok Imagine #1 w edycji wideo

15 marca — Grok Imagine osiąga pierwsze miejsce w edycji wideo w rankingu Design Arena, z Elo wynoszącym 1290. L’API Imagine est désormais accessible aux développeurs. La fonctionnalité couvre l’ajout, la suppression et l’échange d’objets dans des scènes vidéo.

🔗 Annonce Grok sur X


Perplexity Computer : contrôle total de Comet et Android

Computer contrôle Comet sans MCP

16 mars — Computer peut désormais prendre le contrôle total du navigateur Comet pour exécuter des tâches autonomes : l’agent navigateur peut accéder à n’importe quel site ou application connectée, sans connecteurs ni MCP. Disponible pour tous les utilisateurs Computer sur Comet.

🔗 Tweet Perplexity

Computer sur Android

16 mars — Perplexity Computer est désormais disponible sur Android, étendant le lancement iOS du 13 mars à l’ensemble des plateformes mobiles.

🔗 Tweet Perplexity Android


Manus : bureau local et Google Workspace au niveau développeur

Manus “My Computer” sur macOS et Windows

16 mars — Manus annonce “My Computer”, fonctionnalité centrale de la nouvelle application Manus Desktop (macOS et Windows). Jusqu’ici limité à un bac à sable cloud, Manus peut désormais s’exécuter directement sur la machine locale via des instructions en ligne de commande dans un terminal local — avec approbation explicite de l’utilisateur à chaque étape.

Les cas d’usage couvrent un spectre large : trier et renommer des milliers de fichiers, créer des applications de bureau natives (exemple cité : une application Mac de traduction et sous-titrage en temps réel créée en 20 minutes, sans ouvrir Xcode), ou utiliser le GPU local pour entraîner des modèles de machine learning. My Computer complète les Connecteurs cloud existants (Google Calendar, Gmail) plutôt que de les remplacer.

🔗 Tweet Manus · 🔗 Blog Manus

Manus maîtrise Google Workspace avec précision

17 mars — Manus déploie une mise à jour majeure de son connecteur Google Workspace, basée sur le Google Workspace CLI (outil open source de l’équipe Google). L’ancienne version traitait les fichiers Google comme des blocs monolithiques ; la nouvelle version permet des actions granulaires :

DomaineNouvelles capacités
Google DocsRemplacements de texte chirurgicaux, réponses à des commentaires spécifiques
Google SheetsLecture multi-feuilles croisées, mise à jour d’une cellule précise, duplication d’onglets
Google SlidesÉdition de présentations existantes (titre d’une diapositive, mise à jour de chronologie)
Google DriveRéorganisation de dossiers

La mise à jour est gratuite et rétrocompatible.

🔗 Tweet Manus · 🔗 Blog Manus


GitHub : /fleet pour la maintenance en masse et 12,5 M$ pour l’open source

Copilot /fleet : maintenance sur toute la flotte de dépôts

15 mars — GitHub fait la démonstration de la commande /fleet dans GitHub Copilot. En une instruction, les développeurs qui gèrent plusieurs dépôts peuvent déléguer les tâches de maintenance répétitives (mises à jour de configuration, corrections de dépendances) à l’agent sur l’ensemble de leur flotte, plutôt que dépôt par dépôt.

🔗 Tweet GitHub

12,5 M$ pour la sécurité open source

17 mars — GitHub, Anthropic, AWS, Google et OpenAI s’unissent dans un engagement collectif de 12,5 millions de dollars en faveur d’Alpha-Omega, le programme de la Linux Foundation dédié à la sécurisation de l’écosystème open source.

Points clés côté GitHub : 280 000+ mainteneurs sur des centaines de millions de dépôts publics seront éligibles à un accès gratuit à GitHub Copilot Pro. GitHub injecte également 5,5 M$ en crédits Azure pour la formation. Le GitHub Secure Open Source Fund, qui a déjà soutenu 138 projets, ouvre sa quatrième session fin avril 2026.

Le contexte est significatif : l’IA a considérablement accéléré la découverte de vulnérabilités, ce qui alourdit la charge des mainteneurs. L’objectif affiché est que l’IA réduise cette charge plutôt que de l’augmenter.

🔗 Article GitHub Blog 🔗 Annonce Linux Foundation


Z.ai GLM-5-Turbo : haute-vitesse pour les environnements agents

15 mars — Z.ai lance GLM-5-Turbo, une variante haute-vitesse de GLM-5 optimisée pour les environnements agents (notamment OpenClaw). Le même jour, les limites d’utilisation sont triplées pour les abonnés GLM Coding Plan. Disponible sur OpenRouter et via l’API directe.

🔗 Annonce Z.ai sur X


Kimi publie un paper sur les Attention Residuals

16-17 mars — Moonshot AI publie un paper de recherche sur les Attention Residuals sur arXiv : une nouvelle approche d’agrégation en profondeur qui remplace les connexions résiduelles standard par une récurrence inspirée de la dualité temps/profondeur (depth-wise aggregation). L’analyse montre que cette approche atténue naturellement les problèmes de croissance de magnitude des états cachés. Elon Musk a répondu “Impressive work from Kimi” sur le tweet d’annonce (4,5 millions de vues).

🔗 Tweet Kimi · 🔗 arXiv 2603.15031


ElevenLabs × Deloitte : agents omnicanaux pour l’entreprise

14 mars — ElevenLabs et Deloitte annoncent un partenariat stratégique combinant la plateforme ElevenLabs Agents avec l’expertise sectorielle de Deloitte, pour aider les grandes entreprises à déployer des agents conversationnels omnicanaux. Le partenariat cible les entreprises régulées (finance, santé, service public). Deloitte apporte l’intégration métier, ElevenLabs fournit l’infrastructure audio IA (voix, transcription, agents).

🔗 Blog ElevenLabs


Brèves

Tongyi Fun-CineForge (Alibaba, 16 mars) — Tongyi Lab open-source Fun-CineForge, un système de doublage cinématographique IA approchant la qualité du cinéma professionnel. Disponible sur GitHub, HuggingFace et ModelScope. 🔗 Annonce sur X


Ce que ça signifie

La NVIDIA GTC 2026 cristallise une dynamique importante : plusieurs labs IA de premier plan (Mistral, Perplexity, Cohere) s’alignent autour de l’infrastructure NVIDIA pour co-développer des modèles frontier ouverts ou des déploiements souverains. Cette convergence autour d’une coalition ouverte tranche avec la période récente de fragmentation — et signale que le pré-entraînement à grande échelle est devenu trop coûteux pour être traité en silo.

GPT-5.4 mini confirme une tendance lourde : les modèles “petit format” ne sont plus des versions dégradées mais des alternatives compétitives. Avec 54,4 % sur SWE-Bench Pro contre 57,7 % pour le modèle complet, et un coût 19x inférieur, GPT-5.4 mini redéfinit le rapport performance/prix pour les workflows de codage.

La journée du 17 mars illustre aussi la montée en puissance des agents locaux et bureau : Manus “My Computer” sort du cloud pour accéder à la machine locale, Perplexity Computer prend le contrôle de Comet sans MCP, et Claude Code double sa fenêtre de génération par défaut pour Opus 4.6. L’ère de l’agent qui se contente de suggérer laisse place à celle de l’agent qui exécute.


Sources

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator