Szukaj

Claude tworzy interaktywne wizualizacje, OpenAI uruchamia Video API Sora 2, Google Maps odświeża się dzięki Gemini

Claude tworzy interaktywne wizualizacje, OpenAI uruchamia Video API Sora 2, Google Maps odświeża się dzięki Gemini

12 marca 2026 jest naznaczony trzema ważnymi ogłoszeniami produktowymi: Claude robi krok naprzód, generując interaktywne wizualizacje bezpośrednio w rozmowie; OpenAI udostępnia programistom Video API napędzane przez Sora 2; a Google Maps integruje Gemini w ramach najgłębszego odświeżenia od ponad dekady. Równocześnie Claude Code otrzymuje dwie aktualizacje (v2.1.73 i v2.1.74), Perplexity rozszerza Computer dla subskrybentów Pro, a ElevenLabs wprowadza Flows i Music Finetunes w swojej platformie kreatywnej.


Claude generuje interaktywne wizualizacje w rozmowie

12 marca — Claude potrafi teraz tworzyć interaktywne wykresy, diagramy i wizualizacje bezpośrednio w rozmowie, bez konieczności pisania kodu. Funkcja jest dostępna w becie dla wszystkich planów, w tym darmowego.

Wywodząca się z zapowiedzi “Imagine with Claude” z zeszłej jesieni, ta funkcja zmienia sposób interakcji z asystentem: wizualizacje pojawiają się inline w odpowiedziach, zamiast w oddzielnym panelu bocznym. Są tymczasowe — ewoluują lub znikają wraz z przebiegiem rozmowy — w przeciwieństwie do Artifacts, które są trwałymi dokumentami przeznaczonymi do udostępniania lub pobrania.

Przykłady zastosowań: poproszenie o wyjaśnienie działania odsetek składanych generuje interaktywny wykres do manipulacji; wywołanie tablicy okresowej tworzy klikalną wizualizację z danymi o każdym pierwiastku. Można wywołać wizualizację za pomocą poleceń takich jak “draw this as a diagram” lub “visualize how this might change over time”. Claude sam decyduje, kiedy utworzyć wizualizację, lub użytkownik może tego zażądać eksplicytnie.

Funkcja wpisuje się w serię niedawnych ulepszeń odpowiedzi Claude: dedykowane formaty dla przepisów, wizualna pogoda oraz bezpośrednie integracje z Figma, Canva i Slack.

“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”

🇵🇱 Claude może teraz tworzyć interaktywne wykresy i diagramy bezpośrednio w rozmowie. Dostępne już dziś w becie we wszystkich planach, w tym w darmowym.@claudeai na X

🔗 Claude teraz tworzy interaktywne wykresy, diagramy i wizualizacje


Claude Code v2.1.74 : zarządzanie kontekstem i poprawki wieloplatformowe

12 marca — Wersja 2.1.74 Claude Code wprowadza ulepszenia zarządzania kontekstem i naprawia szereg błędów na Windows i macOS.

Nowe funkcje:

FunkcjonalnośćOpis
/context poprawionyAkcjonowalne sugestie: identyfikuje ciężkie narzędzia w kontekście, narastanie zużycia pamięci i ostrzeżenia o przepustowości wraz z poradami optymalizacyjnymi
autoMemoryDirectoryNowy parametr do skonfigurowania niestandardowego katalogu do automatycznego przechowywania pamięci
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MSNowy parametr do ustawienia timeoutu hooków SessionEnd (wcześniej stałe 1,5 s)

Wśród istotnych poprawek: wyciek pamięci w buforach odpowiedzi API w trybie strumieniowym, który powodował niekontrolowany wzrost RSS na Node.js; zarządzane polityki MCP ask nie mogły być pomijane przez reguły użytkownika allow; pełne identyfikatory modeli (np. claude-opus-4-5) wcześniej cicho ignorowane we frontmatter model: agentów są teraz prawidłowo akceptowane. Poprawki OAuth MCP obejmują blokadę na callback porcie już używanym i brak ponownej autoryzacji po wygaśnięciu refresh token dla konektorów takich jak Slack. Na macOS natywny binarny plik zawiera teraz entitlement audio-input, aby macOS poprawnie wyświetlał żądanie uprawnień do mikrofonu w trybie głosowym.

🔗 CHANGELOG Claude Code


Claude Code v2.1.73 : stabilność, ARNs Bedrock i OAuth SSL

11 marca — Wersja 2.1.73 naprawia kilka istotnych problemów stabilności, w tym zablokowania CPU i deadlocki związane ze skills.

Nowe funkcje:

FunkcjonalnośćOpis
modelOverridesNowy parametr do mapowania wpisów selektora modelu na identyfikatory modeli dostawców (np. profile inferencyjne Bedrock ARNs)
Guidance OAuth SSLAkcjonowalne wytyczne, gdy połączenie OAuth lub kontrole łączności nie powiodą się z powodu błędów certyfikatu SSL (proksy korporacyjne, NODE_EXTRA_CA_CERTS)

Główne poprawki: zablokowania i pętle CPU przy 100% wywoływane przez prośby o uprawnienia w złożonych poleceniach bash; blokada mogąca zawiesić Claude Code, gdy wiele plików skill zmienia się jednocześnie (np. git pull w repozytorium z dużym katalogiem .claude/skills/); pod-agenty z model: opus / sonnet / haiku były cicho degradowane do starszych wersji na Bedrock, Vertex i Microsoft Foundry.

🔗 CHANGELOG Claude Code


Ramp AI Index : Anthropic staje się domyślnym wyborem firm

11 marca — Według najnowszego raportu Ramp AI Index, Anthropic stał się preferowanym dostawcą AI przez firmy przy ich pierwszym zakupie. Wykres udostępniony przez Arę Kharaziana (głównego ekonomistę Ramp Economics Lab) pokazuje, że udział rynkowy Anthropic wśród nowych klientów korporacyjnych osiągnął ~70% na początku 2026, wobec ~25% dla OpenAI — znaczące odwrócenie w stosunku do 2025 roku.

Dane pochodzą z ponad 50 000 firm korzystających z platformy Ramp (karty kredytowe i płatności korporacyjne), co czyni je wiarygodnym barometrem rzeczywistych wydatków na AI w przedsiębiorstwach. Wzrost Anthropic jest napędzany między innymi przez adopcję Claude w środowiskach biznesowych (API, Claude for Work, integracje enterprise).

🔗 Ramp AI Index na X


OpenAI Video API : Sora 2 dostępna dla deweloperów

12 marca — OpenAI uruchamia Video API dla deweloperów, programistyczny interfejs umożliwiający tworzenie, rozszerzanie, modyfikowanie i zarządzanie materiałami wideo. Możliwość tę napędza Sora 2, model generowania wideo drugiej generacji od OpenAI.

Video API udostępnia dwie warianty: sora-2, zaprojektowany pod kątem szybkości i eksploracji (szybkie iteracje, treści na social media, prototypy), oraz sora-2-pro, ukierunkowany na jakość produkcyjną (materiały kinowe, zasoby marketingowe, rozdzielczości do 1920×1080). Obie wersje obsługują generacje trwające 16–20 sekund, z możliwością wydłużenia do łącznie 120 sekund.

Główne funkcje dostępne przez endpoint POST /videos obejmują: generowanie z prompta tekstowego, sterowanie za pomocą obrazu referencyjnego (które warunkuje pierwszą klatkę), spójność postaci nieludzkich możliwych do ponownego użycia między generacjami (POST /v1/videos/characters), oraz edycję ukierunkowaną przez POST /v1/videos/edits. Przetwarzanie jest asynchroniczne, z obsługą webhooków do powiadomień o zakończeniu renderu. Dostępne jest też przetwarzanie wsadowe przez Batch API dla kolejek renderów offline.

Stosowane są ograniczenia treści: brak przedstawiania rzeczywistych osób, brak postaci objętych prawami autorskimi, brak treści dla dorosłych (to ograniczenie może ulec zmianie w przyszłości).

🔗 Dokumentacja Video API


Google Maps : Ask Maps i Immersive Navigation

12 marca — Google Maps otrzymuje największą aktualizację nawigacji od ponad dekady, napędzaną modelami Gemini. Ogłoszono równocześnie dwa nowe doświadczenia.

Ask Maps to nowe doświadczenie konwersacyjne pozwalające zadawać złożone pytania o rzeczywiste miejsca. Można zapytać na przykład “Telefon mi się rozładowuje — gdzie mogę go naładować bez stania w kolejce do kawiarni?” lub “Czy dziś wieczorem jest dostępne boisko tenisowe z oświetleniem?” Funkcja opiera się na danych z ponad 300 milionów miejsc i opiniach ponad 500 milionów współtwórców. Odpowiedzi są personalizowane na podstawie zapisanych lokalizacji lub wcześniejszych wyszukiwań. Ask Maps zaczyna pojawiać się w USA i Indiach na Androidzie i iOS, a wkrótce trafi też na komputery.

Immersive Navigation przekształca doświadczenie jazdy, oferując widok 3D odzwierciedlający okoliczne budynki, mosty i ukształtowanie terenu. Gemini analizuje obrazy Street View oraz zdjęcia lotnicze, aby wyświetlać krytyczne detale: pasy ruchu, przejścia dla pieszych, sygnalizację świetlną, znaki STOP. Funkcja proponuje także naturalny przewodnik głosowy (np. “Zjedź tą zjazdem, a następnie weź następny, aby jechać w kierunku Illinois 43 South”), informacje o kompromisach między alternatywnymi trasami (opłaty vs ruch) oraz alerty w czasie rzeczywistym o zakłóceniach. Immersive Navigation wdrażana jest już dziś w USA na obsługiwanych urządzeniach iOS i Android, CarPlay, Android Auto oraz samochodach z wbudowanym Google.

🔗 Ask Maps and Immersive Navigation: New AI features in Google Maps


GitHub Copilot : automatyczny wybór modelu GA w JetBrains

12 marca — GitHub ogłosił dostępność ogólną (Generally Available) automatycznego wyboru modelu dla GitHub Copilot we wszystkich środowiskach JetBrains (IntelliJ IDEA, PyCharm, WebStorm itp.), dla wszystkich subskrypcji Copilot.

Tryb “Auto” dynamicznie wybiera model najbardziej odpowiedni do zadania, uwzględniając ograniczenia przepustowości. Deweloperzy zachowują pełną przejrzystość: po najechaniu kursorem na odpowiedź widzą, jaki model został użyty i mogą w każdej chwili przełączyć się na konkretny model. Fakturacja podąża za faktycznie wybranym modelem, z mnożnikami obecnie mieszczącymi się między 0x a 1x.

GitHub zapowiada, że automatyczny wybór stopniowo stanie się inteligentniejszy, zdolny dobierać model w zależności od kontekstu zadania (generowanie kodu, przegląd, chat itp.). Funkcja była już wcześniej dostępna jako preview w JetBrains i w GA w VS Code.

🔗 Copilot auto model selection GA w JetBrains IDEs


GitHub Copilot CLI : historia sesji w SQLite

11 marca — GitHub Copilot CLI integruje teraz lokalną bazę danych SQLite do zapisywania historii sesji terminala. W praktyce oznacza to, że jeśli rozwiązałeś problem kilka dni temu w wierszu poleceń, Copilot CLI może przypomnieć Ci rozwiązanie — bez konieczności przeszukiwania historii shellem czy notatek. Funkcja jest częścią fazy 2 udostępniania ogólnego GitHub Copilot CLI, dostępna przez gh copilot.

🔗 GitHub Copilot CLI


Perplexity Computer otwarty dla subskrybentów Pro

12 marca — Perplexity Computer, agent zdolny wykonywać wieloetapowe workflowy w sieci, na plikach i podłączonych narzędziach, jest teraz dostępny dla subskrybentów Pro.

Dotychczas zarezerwowany dla subskrybentów Max i klientów Enterprise, Perplexity Computer daje dostęp do ponad 20 zaawansowanych modeli, predefiniowanych i konfigurowalnych skills oraz setek konektorów. Subskrybenci Max zachowują przewagę w postaci wyższych kredytów miesięcznych i wyższych limitów wydatków.

🔗 Perplexity Computer


Perplexity Computer for Enterprise : 1,6 mln $ oszczędności w cztery tygodnie

12 marca — Perplexity opublikowało artykuł opisujący wdrożenie Perplexity Computer for Enterprise, dostępne już teraz dla klientów Enterprise.

Computer for Enterprise integruje się z narzędziami już używanymi w firmach: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub oraz ponad 400 innymi przez konektory. Kieruje każde zadanie do najbardziej odpowiedniego modelu spośród około dwudziestu i pozwala zespołom definiować skills dopasowane do wewnętrznych procesów.

ZespółPrzypadek użycia
FinanseMonitorowanie due diligence przy fuzjach i przejęciach, analiza dokumentów i sygnalizowanie ryzyk
PrawnyPrzegląd umów dostawcy, porównywanie wersji, redlining umów
MarketingTworzenie kampanii (kreacje, posty społecznościowe, strony docelowe) + dashboard wydajności

Perplexity udostępniło dane z wewnętrznego badania obejmującego ponad 16 000 zapytań: Computer pozwolił zaoszczędzić 1,6 miliona dolarów kosztów pracy i zrealizował ekwiwalent 3,25 lat pracy w ciągu czterech tygodni. Rozwiązanie posiada certyfikat SOC 2 Type II, obsługę SAML SSO i izolowane wykonywanie dla każdego zadania.

🔗 Perplexity Computer for Enterprise


ElevenLabs Flows : płótno do łączenia obrazu, wideo i audio

11 marca — ElevenLabs wprowadziło Flows, edytor węzłowy (node-based) zintegrowany w ElevenCreative. Na jednym płótnie twórcy mogą łączyć i sekwencjonować generowanie obrazów, wideo, syntezę mowy (Text to Speech), lip-sync, muzykę i efekty dźwiękowe.

Podejście przypomina workflowy z ComfyUI, ale zastosowane w multimodalnym ekosystemie ElevenLabs, z dostępem do wszystkich modeli audio i wideo studia w jednym miejscu.

🔗 Przedstawiamy Flows w ElevenCreative


ElevenLabs Music Finetunes : spójność stylistyczna w generacji muzyki

12 marca — ElevenLabs uruchomiło Music Finetunes w ElevenCreative. Funkcja pozwala twórcom generować indywidualne głosy, instrumenty lub pełne ścieżki muzyczne przy zachowaniu spójności stylistycznej, dzięki dopracowanej (fine-tuned) wersji modelu muzycznego ElevenLabs.

🔗 Przedstawiamy Music Finetunes w ElevenCreative


BFL FLUX.2 [klein] 9B : edycja obrazów 2× szybsza

12 marca — Black Forest Labs (BFL) ogłosiło istotną aktualizację modelu FLUX.2 [klein] 9B: edycja obrazów jest teraz 2× szybsza, zwłaszcza przy użyciu wielu obrazów referencyjnych.

SzczegółWartość
ModelFLUX.2 [klein] 9B
Ulepszenie2× szybsza edycja
Wzmocniony przypadek użyciaWielokrotne referencje
CenaBez zmian
WagaHuggingFace (black-forest-labs/FLUX.2-klein-9b-kv)

Aktualizacja jest automatyczna i bezpłatna dla istniejących użytkowników FLUX.2 [klein] 9B poprzez API. Użytkownicy modelu [klein] 4B mogą uzyskać dostęp do ulepszonej wersji 9B przez nowe endpoint w wersji zapoznawczej.

🔗 Ogłoszenie BFL na X


Mistral AI Now Summit: Paryż, 28 maja 2026

12 marca — Mistral AI ogłasza swoje pierwsze flagowe wydarzenie: “AI Now Summit”, dzień poświęcony transformacji AI w firmach, zaplanowany na 28 maja 2026 w Paryżu.

TematOpis
Open source d’entrepriseOpen source jako podstawa dla kompleksowych transformacji AI
Mise en productionPrzejście od pilotów do wdrożeń na dużą skalę
Infrastructure IABudowanie infrastruktury na poziomie przedsiębiorstwa
Innovations 2026Robotyka, modele vision-language (VLMs), AI multimodalna

Wydarzenie zgromadzi liderów z całego świata. Rejestracja nie jest jeszcze otwarta; dostępna jest lista oczekujących na ainowsummit.com.

🔗 AI Now Summit na X


Co to oznacza

Dzień 12 marca ilustruje dwie zbieżne tendencje. Z jednej strony, asystenci AI ogólnego przeznaczenia — Claude, Perplexity, Google Maps — zyskują funkcje zmniejszające tarcie między pytaniem a użyteczną odpowiedzią: nie trzeba już pisać kodu, żeby zobaczyć wykres, nie trzeba przeformułowywać zapytania, żeby znaleźć restaurację. Z drugiej strony, deweloperzy otrzymują nowe komponenty programistyczne: Video API OpenAI otwiera generowanie wideo dla zautomatyzowanych workflowów, a Claude Code nadal się dopracowuje dla środowisk enterprise (Bedrock, proxy SSL, wieloplatformowe Windows/macOS).

Raport Ramp AI Index potwierdza, że ten ruch przekłada się na rzeczywiste zakupy: przy ~70% udziału w rynku wśród nowych firm, Anthropic nie jest już tylko alternatywą dla OpenAI — stał się domyślnym punktem wejścia. Rywalizacja toczy się teraz o jakość integracji i niezawodność w produkcji, a nie jedynie o moc modeli.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator