12 marca 2026 jest naznaczony trzema ważnymi ogłoszeniami produktowymi: Claude robi krok naprzód, generując interaktywne wizualizacje bezpośrednio w rozmowie; OpenAI udostępnia programistom Video API napędzane przez Sora 2; a Google Maps integruje Gemini w ramach najgłębszego odświeżenia od ponad dekady. Równocześnie Claude Code otrzymuje dwie aktualizacje (v2.1.73 i v2.1.74), Perplexity rozszerza Computer dla subskrybentów Pro, a ElevenLabs wprowadza Flows i Music Finetunes w swojej platformie kreatywnej.
Claude generuje interaktywne wizualizacje w rozmowie
12 marca — Claude potrafi teraz tworzyć interaktywne wykresy, diagramy i wizualizacje bezpośrednio w rozmowie, bez konieczności pisania kodu. Funkcja jest dostępna w becie dla wszystkich planów, w tym darmowego.
Wywodząca się z zapowiedzi “Imagine with Claude” z zeszłej jesieni, ta funkcja zmienia sposób interakcji z asystentem: wizualizacje pojawiają się inline w odpowiedziach, zamiast w oddzielnym panelu bocznym. Są tymczasowe — ewoluują lub znikają wraz z przebiegiem rozmowy — w przeciwieństwie do Artifacts, które są trwałymi dokumentami przeznaczonymi do udostępniania lub pobrania.
Przykłady zastosowań: poproszenie o wyjaśnienie działania odsetek składanych generuje interaktywny wykres do manipulacji; wywołanie tablicy okresowej tworzy klikalną wizualizację z danymi o każdym pierwiastku. Można wywołać wizualizację za pomocą poleceń takich jak “draw this as a diagram” lub “visualize how this might change over time”. Claude sam decyduje, kiedy utworzyć wizualizację, lub użytkownik może tego zażądać eksplicytnie.
Funkcja wpisuje się w serię niedawnych ulepszeń odpowiedzi Claude: dedykowane formaty dla przepisów, wizualna pogoda oraz bezpośrednie integracje z Figma, Canva i Slack.
“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”
🇵🇱 Claude może teraz tworzyć interaktywne wykresy i diagramy bezpośrednio w rozmowie. Dostępne już dziś w becie we wszystkich planach, w tym w darmowym. — @claudeai na X
🔗 Claude teraz tworzy interaktywne wykresy, diagramy i wizualizacje
Claude Code v2.1.74 : zarządzanie kontekstem i poprawki wieloplatformowe
12 marca — Wersja 2.1.74 Claude Code wprowadza ulepszenia zarządzania kontekstem i naprawia szereg błędów na Windows i macOS.
Nowe funkcje:
| Funkcjonalność | Opis |
|---|---|
/context poprawiony | Akcjonowalne sugestie: identyfikuje ciężkie narzędzia w kontekście, narastanie zużycia pamięci i ostrzeżenia o przepustowości wraz z poradami optymalizacyjnymi |
autoMemoryDirectory | Nowy parametr do skonfigurowania niestandardowego katalogu do automatycznego przechowywania pamięci |
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MS | Nowy parametr do ustawienia timeoutu hooków SessionEnd (wcześniej stałe 1,5 s) |
Wśród istotnych poprawek: wyciek pamięci w buforach odpowiedzi API w trybie strumieniowym, który powodował niekontrolowany wzrost RSS na Node.js; zarządzane polityki MCP ask nie mogły być pomijane przez reguły użytkownika allow; pełne identyfikatory modeli (np. claude-opus-4-5) wcześniej cicho ignorowane we frontmatter model: agentów są teraz prawidłowo akceptowane. Poprawki OAuth MCP obejmują blokadę na callback porcie już używanym i brak ponownej autoryzacji po wygaśnięciu refresh token dla konektorów takich jak Slack. Na macOS natywny binarny plik zawiera teraz entitlement audio-input, aby macOS poprawnie wyświetlał żądanie uprawnień do mikrofonu w trybie głosowym.
Claude Code v2.1.73 : stabilność, ARNs Bedrock i OAuth SSL
11 marca — Wersja 2.1.73 naprawia kilka istotnych problemów stabilności, w tym zablokowania CPU i deadlocki związane ze skills.
Nowe funkcje:
| Funkcjonalność | Opis |
|---|---|
modelOverrides | Nowy parametr do mapowania wpisów selektora modelu na identyfikatory modeli dostawców (np. profile inferencyjne Bedrock ARNs) |
| Guidance OAuth SSL | Akcjonowalne wytyczne, gdy połączenie OAuth lub kontrole łączności nie powiodą się z powodu błędów certyfikatu SSL (proksy korporacyjne, NODE_EXTRA_CA_CERTS) |
Główne poprawki: zablokowania i pętle CPU przy 100% wywoływane przez prośby o uprawnienia w złożonych poleceniach bash; blokada mogąca zawiesić Claude Code, gdy wiele plików skill zmienia się jednocześnie (np. git pull w repozytorium z dużym katalogiem .claude/skills/); pod-agenty z model: opus / sonnet / haiku były cicho degradowane do starszych wersji na Bedrock, Vertex i Microsoft Foundry.
Ramp AI Index : Anthropic staje się domyślnym wyborem firm
11 marca — Według najnowszego raportu Ramp AI Index, Anthropic stał się preferowanym dostawcą AI przez firmy przy ich pierwszym zakupie. Wykres udostępniony przez Arę Kharaziana (głównego ekonomistę Ramp Economics Lab) pokazuje, że udział rynkowy Anthropic wśród nowych klientów korporacyjnych osiągnął ~70% na początku 2026, wobec ~25% dla OpenAI — znaczące odwrócenie w stosunku do 2025 roku.
Dane pochodzą z ponad 50 000 firm korzystających z platformy Ramp (karty kredytowe i płatności korporacyjne), co czyni je wiarygodnym barometrem rzeczywistych wydatków na AI w przedsiębiorstwach. Wzrost Anthropic jest napędzany między innymi przez adopcję Claude w środowiskach biznesowych (API, Claude for Work, integracje enterprise).
OpenAI Video API : Sora 2 dostępna dla deweloperów
12 marca — OpenAI uruchamia Video API dla deweloperów, programistyczny interfejs umożliwiający tworzenie, rozszerzanie, modyfikowanie i zarządzanie materiałami wideo. Możliwość tę napędza Sora 2, model generowania wideo drugiej generacji od OpenAI.
Video API udostępnia dwie warianty: sora-2, zaprojektowany pod kątem szybkości i eksploracji (szybkie iteracje, treści na social media, prototypy), oraz sora-2-pro, ukierunkowany na jakość produkcyjną (materiały kinowe, zasoby marketingowe, rozdzielczości do 1920×1080). Obie wersje obsługują generacje trwające 16–20 sekund, z możliwością wydłużenia do łącznie 120 sekund.
Główne funkcje dostępne przez endpoint POST /videos obejmują: generowanie z prompta tekstowego, sterowanie za pomocą obrazu referencyjnego (które warunkuje pierwszą klatkę), spójność postaci nieludzkich możliwych do ponownego użycia między generacjami (POST /v1/videos/characters), oraz edycję ukierunkowaną przez POST /v1/videos/edits. Przetwarzanie jest asynchroniczne, z obsługą webhooków do powiadomień o zakończeniu renderu. Dostępne jest też przetwarzanie wsadowe przez Batch API dla kolejek renderów offline.
Stosowane są ograniczenia treści: brak przedstawiania rzeczywistych osób, brak postaci objętych prawami autorskimi, brak treści dla dorosłych (to ograniczenie może ulec zmianie w przyszłości).
Google Maps : Ask Maps i Immersive Navigation
12 marca — Google Maps otrzymuje największą aktualizację nawigacji od ponad dekady, napędzaną modelami Gemini. Ogłoszono równocześnie dwa nowe doświadczenia.
Ask Maps to nowe doświadczenie konwersacyjne pozwalające zadawać złożone pytania o rzeczywiste miejsca. Można zapytać na przykład “Telefon mi się rozładowuje — gdzie mogę go naładować bez stania w kolejce do kawiarni?” lub “Czy dziś wieczorem jest dostępne boisko tenisowe z oświetleniem?” Funkcja opiera się na danych z ponad 300 milionów miejsc i opiniach ponad 500 milionów współtwórców. Odpowiedzi są personalizowane na podstawie zapisanych lokalizacji lub wcześniejszych wyszukiwań. Ask Maps zaczyna pojawiać się w USA i Indiach na Androidzie i iOS, a wkrótce trafi też na komputery.
Immersive Navigation przekształca doświadczenie jazdy, oferując widok 3D odzwierciedlający okoliczne budynki, mosty i ukształtowanie terenu. Gemini analizuje obrazy Street View oraz zdjęcia lotnicze, aby wyświetlać krytyczne detale: pasy ruchu, przejścia dla pieszych, sygnalizację świetlną, znaki STOP. Funkcja proponuje także naturalny przewodnik głosowy (np. “Zjedź tą zjazdem, a następnie weź następny, aby jechać w kierunku Illinois 43 South”), informacje o kompromisach między alternatywnymi trasami (opłaty vs ruch) oraz alerty w czasie rzeczywistym o zakłóceniach. Immersive Navigation wdrażana jest już dziś w USA na obsługiwanych urządzeniach iOS i Android, CarPlay, Android Auto oraz samochodach z wbudowanym Google.
🔗 Ask Maps and Immersive Navigation: New AI features in Google Maps
GitHub Copilot : automatyczny wybór modelu GA w JetBrains
12 marca — GitHub ogłosił dostępność ogólną (Generally Available) automatycznego wyboru modelu dla GitHub Copilot we wszystkich środowiskach JetBrains (IntelliJ IDEA, PyCharm, WebStorm itp.), dla wszystkich subskrypcji Copilot.
Tryb “Auto” dynamicznie wybiera model najbardziej odpowiedni do zadania, uwzględniając ograniczenia przepustowości. Deweloperzy zachowują pełną przejrzystość: po najechaniu kursorem na odpowiedź widzą, jaki model został użyty i mogą w każdej chwili przełączyć się na konkretny model. Fakturacja podąża za faktycznie wybranym modelem, z mnożnikami obecnie mieszczącymi się między 0x a 1x.
GitHub zapowiada, że automatyczny wybór stopniowo stanie się inteligentniejszy, zdolny dobierać model w zależności od kontekstu zadania (generowanie kodu, przegląd, chat itp.). Funkcja była już wcześniej dostępna jako preview w JetBrains i w GA w VS Code.
🔗 Copilot auto model selection GA w JetBrains IDEs
GitHub Copilot CLI : historia sesji w SQLite
11 marca — GitHub Copilot CLI integruje teraz lokalną bazę danych SQLite do zapisywania historii sesji terminala. W praktyce oznacza to, że jeśli rozwiązałeś problem kilka dni temu w wierszu poleceń, Copilot CLI może przypomnieć Ci rozwiązanie — bez konieczności przeszukiwania historii shellem czy notatek. Funkcja jest częścią fazy 2 udostępniania ogólnego GitHub Copilot CLI, dostępna przez gh copilot.
Perplexity Computer otwarty dla subskrybentów Pro
12 marca — Perplexity Computer, agent zdolny wykonywać wieloetapowe workflowy w sieci, na plikach i podłączonych narzędziach, jest teraz dostępny dla subskrybentów Pro.
Dotychczas zarezerwowany dla subskrybentów Max i klientów Enterprise, Perplexity Computer daje dostęp do ponad 20 zaawansowanych modeli, predefiniowanych i konfigurowalnych skills oraz setek konektorów. Subskrybenci Max zachowują przewagę w postaci wyższych kredytów miesięcznych i wyższych limitów wydatków.
Perplexity Computer for Enterprise : 1,6 mln $ oszczędności w cztery tygodnie
12 marca — Perplexity opublikowało artykuł opisujący wdrożenie Perplexity Computer for Enterprise, dostępne już teraz dla klientów Enterprise.
Computer for Enterprise integruje się z narzędziami już używanymi w firmach: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub oraz ponad 400 innymi przez konektory. Kieruje każde zadanie do najbardziej odpowiedniego modelu spośród około dwudziestu i pozwala zespołom definiować skills dopasowane do wewnętrznych procesów.
| Zespół | Przypadek użycia |
|---|---|
| Finanse | Monitorowanie due diligence przy fuzjach i przejęciach, analiza dokumentów i sygnalizowanie ryzyk |
| Prawny | Przegląd umów dostawcy, porównywanie wersji, redlining umów |
| Marketing | Tworzenie kampanii (kreacje, posty społecznościowe, strony docelowe) + dashboard wydajności |
Perplexity udostępniło dane z wewnętrznego badania obejmującego ponad 16 000 zapytań: Computer pozwolił zaoszczędzić 1,6 miliona dolarów kosztów pracy i zrealizował ekwiwalent 3,25 lat pracy w ciągu czterech tygodni. Rozwiązanie posiada certyfikat SOC 2 Type II, obsługę SAML SSO i izolowane wykonywanie dla każdego zadania.
🔗 Perplexity Computer for Enterprise
ElevenLabs Flows : płótno do łączenia obrazu, wideo i audio
11 marca — ElevenLabs wprowadziło Flows, edytor węzłowy (node-based) zintegrowany w ElevenCreative. Na jednym płótnie twórcy mogą łączyć i sekwencjonować generowanie obrazów, wideo, syntezę mowy (Text to Speech), lip-sync, muzykę i efekty dźwiękowe.
Podejście przypomina workflowy z ComfyUI, ale zastosowane w multimodalnym ekosystemie ElevenLabs, z dostępem do wszystkich modeli audio i wideo studia w jednym miejscu.
🔗 Przedstawiamy Flows w ElevenCreative
ElevenLabs Music Finetunes : spójność stylistyczna w generacji muzyki
12 marca — ElevenLabs uruchomiło Music Finetunes w ElevenCreative. Funkcja pozwala twórcom generować indywidualne głosy, instrumenty lub pełne ścieżki muzyczne przy zachowaniu spójności stylistycznej, dzięki dopracowanej (fine-tuned) wersji modelu muzycznego ElevenLabs.
🔗 Przedstawiamy Music Finetunes w ElevenCreative
BFL FLUX.2 [klein] 9B : edycja obrazów 2× szybsza
12 marca — Black Forest Labs (BFL) ogłosiło istotną aktualizację modelu FLUX.2 [klein] 9B: edycja obrazów jest teraz 2× szybsza, zwłaszcza przy użyciu wielu obrazów referencyjnych.
| Szczegół | Wartość |
|---|---|
| Model | FLUX.2 [klein] 9B |
| Ulepszenie | 2× szybsza edycja |
| Wzmocniony przypadek użycia | Wielokrotne referencje |
| Cena | Bez zmian |
| Waga | HuggingFace (black-forest-labs/FLUX.2-klein-9b-kv) |
Aktualizacja jest automatyczna i bezpłatna dla istniejących użytkowników FLUX.2 [klein] 9B poprzez API. Użytkownicy modelu [klein] 4B mogą uzyskać dostęp do ulepszonej wersji 9B przez nowe endpoint w wersji zapoznawczej.
Mistral AI Now Summit: Paryż, 28 maja 2026
12 marca — Mistral AI ogłasza swoje pierwsze flagowe wydarzenie: “AI Now Summit”, dzień poświęcony transformacji AI w firmach, zaplanowany na 28 maja 2026 w Paryżu.
| Temat | Opis |
|---|---|
| Open source d’entreprise | Open source jako podstawa dla kompleksowych transformacji AI |
| Mise en production | Przejście od pilotów do wdrożeń na dużą skalę |
| Infrastructure IA | Budowanie infrastruktury na poziomie przedsiębiorstwa |
| Innovations 2026 | Robotyka, modele vision-language (VLMs), AI multimodalna |
Wydarzenie zgromadzi liderów z całego świata. Rejestracja nie jest jeszcze otwarta; dostępna jest lista oczekujących na ainowsummit.com.
Co to oznacza
Dzień 12 marca ilustruje dwie zbieżne tendencje. Z jednej strony, asystenci AI ogólnego przeznaczenia — Claude, Perplexity, Google Maps — zyskują funkcje zmniejszające tarcie między pytaniem a użyteczną odpowiedzią: nie trzeba już pisać kodu, żeby zobaczyć wykres, nie trzeba przeformułowywać zapytania, żeby znaleźć restaurację. Z drugiej strony, deweloperzy otrzymują nowe komponenty programistyczne: Video API OpenAI otwiera generowanie wideo dla zautomatyzowanych workflowów, a Claude Code nadal się dopracowuje dla środowisk enterprise (Bedrock, proxy SSL, wieloplatformowe Windows/macOS).
Raport Ramp AI Index potwierdza, że ten ruch przekłada się na rzeczywiste zakupy: przy ~70% udziału w rynku wśród nowych firm, Anthropic nie jest już tylko alternatywą dla OpenAI — stał się domyślnym punktem wejścia. Rywalizacja toczy się teraz o jakość integracji i niezawodność w produkcji, a nie jedynie o moc modeli.
Źródła
- Claude teraz tworzy interaktywne wykresy, diagramy i wizualizacje
- @claudeai na X
- CHANGELOG Claude Code
- Ramp AI Index — @arakharazian na X
- Dokumentacja Video API OpenAI
- @OpenAIDevs na X
- Ask Maps i Immersive Navigation — blog Google Maps
- Copilot: automatyczny dobór modelu (GA) w IDE JetBrains
- @github na X — Copilot CLI SQLite
- @perplexity_ai na X — Computer for Pro
- Perplexity Computer for Enterprise
- Przedstawiamy Flows w ElevenCreative
- Przedstawiamy Music Finetunes w ElevenCreative
- @bfl_ml na X — FLUX.2 klein 9B
- AI Now Summit Mistral — @MistralAI na X
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator