3 marca 2026 to intensywny dzień: Claude Code aktywuje Voice Mode w stopniowym wdrożeniu, OpenAI udostępnia GPT-5.3 Instant wszystkim użytkownikom ChatGPT z istotnym spadkiem halucynacji, a Google uruchamia Gemini 3.1 Flash-Lite w podglądzie — najtańszy model z serii Gemini 3. Równolegle OpenAI zapowiada już GPT-5.4, FLUX.2 [pro] podwaja prędkość bez utraty jakości, a Anthropic przyznaje się do bezprecedensowego wzrostu, który obciążył jego systemy.
Voice Mode w Claude Code — push-to-talk, wdrożenie ~5%
3 marca 2026 — Thariq (@trq212, zespół Claude Code w Anthropic) ogłasza stopniowe wdrażanie Voice Mode w Claude Code. Funkcja była długo oczekiwana przez społeczność developerów.
Jak to działa:
| Aspekt | Szczegół |
|---|---|
| Aktywacja | Komenda /voice do włączania/wyłączania |
| Push-to-talk | Przytrzymaj spację, aby mówić, puść, aby wysłać |
| Transkrypcja | Wyświetla się w czasie rzeczywistym w terminalu |
| Ekran powitalny | Widoczny na ekranie powitalnym przy aktywacji |
| Tokens | Tokens transkrypcji głosowej nie liczą się do limitów rate |
Boris Cherny (@bcherny, lead Claude Code) potwierdza, że używa tego trybu na co dzień: mówi, że napisał “la majeure partie de [son] code CLI cette semaine” korzystając z Voice Mode. Jego uwagi sugerują, że funkcja jest gotowa do rzeczywistych sesji pracy, nie tylko testów.
Dostępność: Aktywne dla około 5% użytkowników na 3 marca. Wdrożenie będzie kontynuowane w kolejnych tygodniach. Bezpłatność transkrypcji (tokens poza kwotą) to istotna decyzja, która usuwa typową barierę przy tego typu funkcjach.
Społeczność już prosi o wersję dwukierunkową — odczytywanie odpowiedzi na głos — oraz o ogólną dostępność /remote-control. Oba punkty pozostają na roadmapie.
🔗 Tweet @trq212 — wdrażanie Voice Mode 🔗 Tweet @bcherny — Opinia z użytkowania
GPT-5.3 Instant dostępny dla wszystkich — -26,8% halucynacji
3 marca 2026 — OpenAI udostępnia GPT-5.3 Instant wszystkim użytkownikom ChatGPT. Ten model zastępuje GPT-5.2 Instant jako domyślny model ChatGPT, stawiając na codzienną jakość zamiast samych benchmarków akademickich.
Najbardziej konkretny efekt tej aktualizacji: redukcja halucynacji.
| Scenariusz | Redukcja halucynacji |
|---|---|
| Z dostępem do sieci (obszary krytyczne: medycyna, prawo) | -26,8% |
| Bez dostępu do sieci | -19,7% |
| Zgłoszenia od użytkowników (raporty o błędach) | -22,5% (z siecią), -9,6% (bez) |
Inne udokumentowane ulepszenia w blogu OpenAI :
- Mniej niepotrzebnych odmów: redukcja defensywnych/moralizujących wstępów z GPT-5.2 — model odpowiada bez zbędnych ostrzeżeń
- Wyszukiwanie w sieci: lepsza równowaga między wynikami webowymi a wiedzą wewnętrzną; mniej list linków, bardziej trafne syntezy
- Płynniejszy ton: mniej domysłów na temat stanu emocjonalnego użytkownika
- Twórcze pisanie: bardziej sugestywna i wciągająca proza
“GPT-5.3 Instant in ChatGPT is now rolling out to everyone. More accurate, less cringe.”
🇵🇱 “GPT-5.3 Instant w ChatGPT jest teraz udostępniany wszystkim. Bardziej precyzyjny, mniej żenujący.” — @OpenAI na X
Dostępność w API: identyfikator gpt-5.3-chat-latest. GPT-5.2 Instant pozostanie dostępny w “Starych modelach” przez 3 miesiące, po czym zostanie wycofany 3 czerwca 2026. Aktualizacje Thinking i Pro są zapowiedziane jako “w przygotowaniu”.
Znane ograniczenie: ton w języku japońskim i koreańskim bywa czasem sztywny — prace w toku.
🔗 Ogłoszenie GPT-5.3 Instant 🔗 System Card GPT-5.3 Instant
Gemini 3.1 Flash-Lite — podgląd, 2,5× szybciej, $0,25/1M tokens
3 marca 2026 — Google wprowadza Gemini 3.1 Flash-Lite w podglądzie przez API Gemini w Google AI Studio i Vertex AI. To najtańszy model z serii Gemini 3, zaprojektowany pod wysokowolumenowe obciążenia deweloperskie.
Cennik i wydajność
| Aspekt | Wartość |
|---|---|
| Cena input | $0,25 / 1M tokens |
| Cena output | $1,50 / 1M tokens |
| Prędkość (TTFAT) | 2,5× szybciej vs Gemini 2.5 Flash |
| Prędkość output | +45% vs Gemini 2.5 Flash (Artificial Analysis) |
| Wynik Elo (Arena.ai) | 1432 |
| GPQA Diamond | 86,9% |
| MMMU Pro | 76,8% |
Te benchmarki stawiają Flash-Lite powyżej kilku większych wcześniejszych modeli Gemini — co potwierdza podejście efektywnościowe serii 3.1.
Adaptacyjne poziomy myślenia (thinking levels)
Cechą wartą uwagi są wbudowane natywnie thinking levels (adaptacyjne poziomy rozumowania) w AI Studio i Vertex AI. Deweloperzy mogą dynamicznie dostosowywać głębokość rozumowania w zależności od złożoności zadania — przydatne do mieszania prostych, tanich zadań i skomplikowanych analiz w tym samym pipeline, bez zmiany modelu.
Udokumentowane przypadki użycia
Masowa tłumaczenie wielojęzyczne, moderacja treści, generowanie interfejsów e-commerce, dynamiczne pulpity, wieloetapowe agenty SaaS. Firmy takie jak Latitude, Cartwheel i Whering już mają early access.
🔗 Ogłoszenie Gemini 3.1 Flash-Lite 🔗 Tweet @GoogleAI
Zapowiedź GPT-5.4 — “5.4 sooner than you Think.”
3 marca 2026 — Godzinę po ogłoszeniu GPT-5.3 Instant, OpenAI publikuje lakoniczny tweet: “5.4 sooner than you Think.” 800k wyświetleń, 13k polubień.
Niekonwencjonalne kapitalizowanie słowa “Think” zostało zauważone przez społeczność — możliwa aluzja do ulepszonego trybu rozumowania w GPT-5.4. Brak dalszych szczegółów na tym etapie.
Skalowalność Claude — ruch bezprecedensowy, #1 w App Store
3 marca 2026 — Pod koniec dnia Thariq (@trq212) publikuje wpis przyznający się do problemów ze skalowalnością:
“We’ve seen unprecedented growth in Claude and Claude Code traffic this week that was genuinely hard to forecast. We appreciate you bearing with us as we scale.”
🇵🇱 “Zaobserwowaliśmy w tym tygodniu bezprecedensowy wzrost ruchu Claude i Claude Code, którego naprawdę trudno było przewidzieć. Dziękujemy za cierpliwość, podczas gdy dostosowujemy naszą infrastrukturę.” — @trq212 na X
Kontekst: Claude awansował na #1 w App Store 1 marca (potwierdzone przez Mike’a Kriegiera, CPO @mikeyk), a uruchomienie Voice Mode wygenerowało dodatkowy skok ruchu. Pakiet npm @anthropic-ai/claude-code notuje 9,5 miliona pobrań tygodniowo.
🔗 Tweet @trq212 — Skalowalność 🔗 Tweet @mikeyk — Claude #1 App Store
BFL FLUX.2 [pro] — 2× szybciej, ta sama cena, ta sama jakość
3 marca 2026 — Black Forest Labs ogłasza dużą aktualizację FLUX.2 [pro]: model jest teraz 2× szybszy bez utraty jakości i bez podwyżki ceny.
FLUX.2 [pro] obejmuje trzy tryby: text-to-image, edycję obrazu oraz multi-reference. Tweet BFL opisuje pozycjonowanie: “sweet spot of high quality + reasonable speed + broad capabilities” — szczególnie dobre dla fotorealizmu (zdjęcia produktów, graphic design) i spójności renderowania postaci.
🔗 Tweet @bfl_ml — Aktualizacja FLUX.2 [pro] 🔗 Dokumentacja FLUX.2
ElevenLabs na MWC — asystent głosowy w sieci i partnerstwo z Deloitte
2 marca 2026 — ElevenLabs ogłasza dwa partnerstwa podczas Mobile World Congress Barcelona.
ElevenLabs × Deutsche Telekom — Magenta AI Call Assistant
Deutsche Telekom prezentuje Magenta AI Call Assistant — opisany jako pierwszy asystent głosowy AI zintegrowany bezpośrednio z siecią telekomunikacyjną. Napędzany przez platformę ElevenAgents od ElevenLabs, działa bez potrzeby instalacji aplikacji, na dowolnym urządzeniu mogącym wykonywać połączenie (smartfony i telefony stacjonarne).
Funkcje zapowiedziane: tłumaczenie na 50 języków, inteligentne streszczenia połączeń, autonomiczne działanie w workflowach.
ElevenLabs × Deloitte — omnichannelowi agenci dla enterprise
ElevenLabs i Deloitte ogłaszają swoje pierwsze partnerstwo. Celem jest połączenie platformy ElevenLabs Agents z ekspertyzą konsultingową Deloitte, aby pomóc firmom wdrażać omnichannelowych agentów głosowych — customer experience, sprzedaż, operacje wewnętrzne — zintegrowanych z istniejącymi systemami enterprise. To pierwsze partnerstwo ElevenLabs z firmą z Big Four.
🔗 Tweet @elevenlabsio — Deutsche Telekom MWC 🔗 Blog ElevenLabs × Deloitte
Krótkie informacje
Claude Code v2.1.64 (pre-release “next”)
Wydana została wersja 2.1.64 Claude Code w tagu next na npm — jeszcze nie promowana w latest (która pozostaje 2.1.63) i nieobecna w oficjalnych GitHub Releases. Changelog nie jest jeszcze dostępny; prawdopodobnie to pre-release zawierający Voice Mode.
🔗 npm @anthropic-ai/claude-code
Qwen 3.5 GPTQ-Int4 — kwantyzacja, vLLM i SGLang
3 marca — Alibaba/Qwen publikuje wagi GPTQ-Int4 z serii Qwen 3.5 z natywnym wsparciem vLLM i SGLang. Skutek: mniejsze zapotrzebowanie na VRAM, szybsza inferencja, łatwiejsze wdrożenia lokalne na ograniczonych konfiguracjach GPU.
🔗 Tweet @Alibaba_Qwen — GPTQ-Int4
Qwen 3.5 Small na LM Studio, Ollama i MLX
2–3 marca — Modele Qwen 3.5 Small (0.8B–9B) są już dostępne na trzech głównych platformach inferencji lokalnej: LM Studio (~7 GB VRAM dla 9B), Ollama i MLX. Lokalny deployment jest więc możliwy już dzień po premierze.
Z.ai Startup Program — kredyty API i early access do GLM-5
2 marca — Z.ai otwiera Startup Program: darmowe kredyty API, priorytetowe rate limits, wczesny dostęp do API i dedykowana społeczność. Cel: startupy AI-native, twórcy agentów, założyciele SaaS. Aktywny model na platformie to GLM-5.
🔗 Tweet @Zai_org — Startup Program
March Pixel Drop — Gemini w aplikacjach, Circle to Search wieloobiektowe, Scam Detection we Francji
3 marca — March Pixel Drop przynosi kilka funkcji AI na urządzenia Pixel. Gemini może teraz wykonywać zadania bezpośrednio w aplikacjach (rezerwacje, polecenia, zamawianie kawy — w beta). Circle to Search rozpoznaje teraz wszystkie obiekty widoczne na ekranie w jednym wyszukiwaniu, z przyciskiem “Try It On” do wirtualnego przymierzania ubrań. Magic Cue sugeruje restauracje przez Gemini bezpośrednio w rozmowach. W zakresie bezpieczeństwa, Scam Detection trafia do Francji, Włoch, Hiszpanii, Meksyku, Niemiec i Japonii. Pixel Watch zyskuje alerty sejsmiczne i Satellite SOS w Europie i Kanadzie.
🔗 March Pixel Drop — Google Blog
System Card GPT-5.3 Instant
System Card towarzysząca GPT-5.3 Instant została opublikowana równocześnie. Podejście do bezpieczeństwa jest takie samo jak w GPT-5.2 Instant — model jest również odwołany przez gpt-5.3-instant.
Co to oznacza
Voice Mode w Claude Code to najbardziej przełomowa decyzja dnia dla deweloperów. Udostępnienie transkrypcji za darmo (poza kwotą) usuwa główną barierę ekonomiczną dla takiej funkcji — to świadomy wybór mający maksymalizować adopcję, nie drobny detal. Spacja jako push-to-talk w terminalu to minimalistyczny interfejs spójny z narzędziem.
Na froncie modeli, GPT-5.3 Instant i Gemini 3.1 Flash-Lite ilustrują dwie różne strategie: OpenAI poprawia doświadczenie codzienne użytkowników (mniej halucynacji, mniej niepotrzebnych odmów), Google optymalizuje stosunek koszt/wydajność dla deweloperów API z wysokim wolumenem (2,5× szybciej, agresywna cena). Zapowiedź GPT-5.4 godzinę po premierze GPT-5.3 sugeruje nadal szybkie tempo wdrożeń w OpenAI w marcu 2026.
Wzmianka o ruchu bezprecedensowym (unprecedented) w Anthropic, w połączeniu z #1 w App Store, potwierdza, że Claude Code i aplikacja Claude wychodzą z fazy niszowej, trafiając do znacznie szerszej publiczności. Problemy ze skalowalnością są oznaką adopcji przekraczającej prognozy, nie awarii technicznej.
Źródła - Tweet @trq212 — Wdrażanie Voice Mode
- Tweet @bcherny — Relacja z doświadczeń Voice Mode
- Tweet @trq212 — Skalowalność Claude
- Tweet @mikeyk — Claude #1 w App Store
- npm @anthropic-ai/claude-code — v2.1.64 next
- Ogłoszenie GPT-5.3 Instant — OpenAI
- Karta systemowa GPT-5.3 Instant
- Tweet @OpenAI — GPT-5.3 Instant
- Zwiastun GPT-5.4 — @OpenAI
- Ogłoszenie Gemini 3.1 Flash-Lite — Blog Google
- Tweet @GoogleAI — Gemini 3.1 Flash-Lite
- Tweet @bfl_ml — FLUX.2 [pro] 2× szybszy
- Tweet @elevenlabsio — Deutsche Telekom na MWC
- Wpis na blogu ElevenLabs × Deloitte
- Tweet @Alibaba_Qwen — GPTQ-Int4
- Tweet @Alibaba_Qwen — LM Studio
- Tweet @Alibaba_Qwen — Ollama
- Tweet @Alibaba_Qwen — MLX
- Tweet @Zai_org — Program Z.ai dla startupów
- Pixel Drop z marca — Blog Google
Niniejszy dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator