Szukaj

Voice Mode w Claude Code, GPT-5.3 Instant dla wszystkich, Gemini 3.1 Flash-Lite w podglądzie

Voice Mode w Claude Code, GPT-5.3 Instant dla wszystkich, Gemini 3.1 Flash-Lite w podglądzie

3 marca 2026 to intensywny dzień: Claude Code aktywuje Voice Mode w stopniowym wdrożeniu, OpenAI udostępnia GPT-5.3 Instant wszystkim użytkownikom ChatGPT z istotnym spadkiem halucynacji, a Google uruchamia Gemini 3.1 Flash-Lite w podglądzie — najtańszy model z serii Gemini 3. Równolegle OpenAI zapowiada już GPT-5.4, FLUX.2 [pro] podwaja prędkość bez utraty jakości, a Anthropic przyznaje się do bezprecedensowego wzrostu, który obciążył jego systemy.


Voice Mode w Claude Code — push-to-talk, wdrożenie ~5%

3 marca 2026 — Thariq (@trq212, zespół Claude Code w Anthropic) ogłasza stopniowe wdrażanie Voice Mode w Claude Code. Funkcja była długo oczekiwana przez społeczność developerów.

Jak to działa:

AspektSzczegół
AktywacjaKomenda /voice do włączania/wyłączania
Push-to-talkPrzytrzymaj spację, aby mówić, puść, aby wysłać
TranskrypcjaWyświetla się w czasie rzeczywistym w terminalu
Ekran powitalnyWidoczny na ekranie powitalnym przy aktywacji
TokensTokens transkrypcji głosowej nie liczą się do limitów rate

Boris Cherny (@bcherny, lead Claude Code) potwierdza, że używa tego trybu na co dzień: mówi, że napisał “la majeure partie de [son] code CLI cette semaine” korzystając z Voice Mode. Jego uwagi sugerują, że funkcja jest gotowa do rzeczywistych sesji pracy, nie tylko testów.

Dostępność: Aktywne dla około 5% użytkowników na 3 marca. Wdrożenie będzie kontynuowane w kolejnych tygodniach. Bezpłatność transkrypcji (tokens poza kwotą) to istotna decyzja, która usuwa typową barierę przy tego typu funkcjach.

Społeczność już prosi o wersję dwukierunkową — odczytywanie odpowiedzi na głos — oraz o ogólną dostępność /remote-control. Oba punkty pozostają na roadmapie.

🔗 Tweet @trq212 — wdrażanie Voice Mode 🔗 Tweet @bcherny — Opinia z użytkowania


GPT-5.3 Instant dostępny dla wszystkich — -26,8% halucynacji

3 marca 2026 — OpenAI udostępnia GPT-5.3 Instant wszystkim użytkownikom ChatGPT. Ten model zastępuje GPT-5.2 Instant jako domyślny model ChatGPT, stawiając na codzienną jakość zamiast samych benchmarków akademickich.

Najbardziej konkretny efekt tej aktualizacji: redukcja halucynacji.

ScenariuszRedukcja halucynacji
Z dostępem do sieci (obszary krytyczne: medycyna, prawo)-26,8%
Bez dostępu do sieci-19,7%
Zgłoszenia od użytkowników (raporty o błędach)-22,5% (z siecią), -9,6% (bez)

Inne udokumentowane ulepszenia w blogu OpenAI :

  • Mniej niepotrzebnych odmów: redukcja defensywnych/moralizujących wstępów z GPT-5.2 — model odpowiada bez zbędnych ostrzeżeń
  • Wyszukiwanie w sieci: lepsza równowaga między wynikami webowymi a wiedzą wewnętrzną; mniej list linków, bardziej trafne syntezy
  • Płynniejszy ton: mniej domysłów na temat stanu emocjonalnego użytkownika
  • Twórcze pisanie: bardziej sugestywna i wciągająca proza

“GPT-5.3 Instant in ChatGPT is now rolling out to everyone. More accurate, less cringe.”

🇵🇱 “GPT-5.3 Instant w ChatGPT jest teraz udostępniany wszystkim. Bardziej precyzyjny, mniej żenujący.”@OpenAI na X

Dostępność w API: identyfikator gpt-5.3-chat-latest. GPT-5.2 Instant pozostanie dostępny w “Starych modelach” przez 3 miesiące, po czym zostanie wycofany 3 czerwca 2026. Aktualizacje Thinking i Pro są zapowiedziane jako “w przygotowaniu”.

Znane ograniczenie: ton w języku japońskim i koreańskim bywa czasem sztywny — prace w toku.

🔗 Ogłoszenie GPT-5.3 Instant 🔗 System Card GPT-5.3 Instant


Gemini 3.1 Flash-Lite — podgląd, 2,5× szybciej, $0,25/1M tokens

3 marca 2026 — Google wprowadza Gemini 3.1 Flash-Lite w podglądzie przez API Gemini w Google AI Studio i Vertex AI. To najtańszy model z serii Gemini 3, zaprojektowany pod wysokowolumenowe obciążenia deweloperskie.

Cennik i wydajność

AspektWartość
Cena input$0,25 / 1M tokens
Cena output$1,50 / 1M tokens
Prędkość (TTFAT)2,5× szybciej vs Gemini 2.5 Flash
Prędkość output+45% vs Gemini 2.5 Flash (Artificial Analysis)
Wynik Elo (Arena.ai)1432
GPQA Diamond86,9%
MMMU Pro76,8%

Te benchmarki stawiają Flash-Lite powyżej kilku większych wcześniejszych modeli Gemini — co potwierdza podejście efektywnościowe serii 3.1.

Adaptacyjne poziomy myślenia (thinking levels)

Cechą wartą uwagi są wbudowane natywnie thinking levels (adaptacyjne poziomy rozumowania) w AI Studio i Vertex AI. Deweloperzy mogą dynamicznie dostosowywać głębokość rozumowania w zależności od złożoności zadania — przydatne do mieszania prostych, tanich zadań i skomplikowanych analiz w tym samym pipeline, bez zmiany modelu.

Udokumentowane przypadki użycia

Masowa tłumaczenie wielojęzyczne, moderacja treści, generowanie interfejsów e-commerce, dynamiczne pulpity, wieloetapowe agenty SaaS. Firmy takie jak Latitude, Cartwheel i Whering już mają early access.

🔗 Ogłoszenie Gemini 3.1 Flash-Lite 🔗 Tweet @GoogleAI


Zapowiedź GPT-5.4 — “5.4 sooner than you Think.”

3 marca 2026 — Godzinę po ogłoszeniu GPT-5.3 Instant, OpenAI publikuje lakoniczny tweet: “5.4 sooner than you Think.” 800k wyświetleń, 13k polubień.

Niekonwencjonalne kapitalizowanie słowa “Think” zostało zauważone przez społeczność — możliwa aluzja do ulepszonego trybu rozumowania w GPT-5.4. Brak dalszych szczegółów na tym etapie.

🔗 Zapowiedź GPT-5.4 — @OpenAI


Skalowalność Claude — ruch bezprecedensowy, #1 w App Store

3 marca 2026 — Pod koniec dnia Thariq (@trq212) publikuje wpis przyznający się do problemów ze skalowalnością:

“We’ve seen unprecedented growth in Claude and Claude Code traffic this week that was genuinely hard to forecast. We appreciate you bearing with us as we scale.”

🇵🇱 “Zaobserwowaliśmy w tym tygodniu bezprecedensowy wzrost ruchu Claude i Claude Code, którego naprawdę trudno było przewidzieć. Dziękujemy za cierpliwość, podczas gdy dostosowujemy naszą infrastrukturę.”@trq212 na X

Kontekst: Claude awansował na #1 w App Store 1 marca (potwierdzone przez Mike’a Kriegiera, CPO @mikeyk), a uruchomienie Voice Mode wygenerowało dodatkowy skok ruchu. Pakiet npm @anthropic-ai/claude-code notuje 9,5 miliona pobrań tygodniowo.

🔗 Tweet @trq212 — Skalowalność 🔗 Tweet @mikeyk — Claude #1 App Store


BFL FLUX.2 [pro] — 2× szybciej, ta sama cena, ta sama jakość

3 marca 2026 — Black Forest Labs ogłasza dużą aktualizację FLUX.2 [pro]: model jest teraz 2× szybszy bez utraty jakości i bez podwyżki ceny.

FLUX.2 [pro] obejmuje trzy tryby: text-to-image, edycję obrazu oraz multi-reference. Tweet BFL opisuje pozycjonowanie: “sweet spot of high quality + reasonable speed + broad capabilities” — szczególnie dobre dla fotorealizmu (zdjęcia produktów, graphic design) i spójności renderowania postaci.

🔗 Tweet @bfl_ml — Aktualizacja FLUX.2 [pro] 🔗 Dokumentacja FLUX.2


ElevenLabs na MWC — asystent głosowy w sieci i partnerstwo z Deloitte

2 marca 2026 — ElevenLabs ogłasza dwa partnerstwa podczas Mobile World Congress Barcelona.

ElevenLabs × Deutsche Telekom — Magenta AI Call Assistant

Deutsche Telekom prezentuje Magenta AI Call Assistant — opisany jako pierwszy asystent głosowy AI zintegrowany bezpośrednio z siecią telekomunikacyjną. Napędzany przez platformę ElevenAgents od ElevenLabs, działa bez potrzeby instalacji aplikacji, na dowolnym urządzeniu mogącym wykonywać połączenie (smartfony i telefony stacjonarne).

Funkcje zapowiedziane: tłumaczenie na 50 języków, inteligentne streszczenia połączeń, autonomiczne działanie w workflowach.

ElevenLabs × Deloitte — omnichannelowi agenci dla enterprise

ElevenLabs i Deloitte ogłaszają swoje pierwsze partnerstwo. Celem jest połączenie platformy ElevenLabs Agents z ekspertyzą konsultingową Deloitte, aby pomóc firmom wdrażać omnichannelowych agentów głosowych — customer experience, sprzedaż, operacje wewnętrzne — zintegrowanych z istniejącymi systemami enterprise. To pierwsze partnerstwo ElevenLabs z firmą z Big Four.

🔗 Tweet @elevenlabsio — Deutsche Telekom MWC 🔗 Blog ElevenLabs × Deloitte


Krótkie informacje

Claude Code v2.1.64 (pre-release “next”)

Wydana została wersja 2.1.64 Claude Code w tagu next na npm — jeszcze nie promowana w latest (która pozostaje 2.1.63) i nieobecna w oficjalnych GitHub Releases. Changelog nie jest jeszcze dostępny; prawdopodobnie to pre-release zawierający Voice Mode.

🔗 npm @anthropic-ai/claude-code

Qwen 3.5 GPTQ-Int4 — kwantyzacja, vLLM i SGLang

3 marca — Alibaba/Qwen publikuje wagi GPTQ-Int4 z serii Qwen 3.5 z natywnym wsparciem vLLM i SGLang. Skutek: mniejsze zapotrzebowanie na VRAM, szybsza inferencja, łatwiejsze wdrożenia lokalne na ograniczonych konfiguracjach GPU.

🔗 Tweet @Alibaba_Qwen — GPTQ-Int4

Qwen 3.5 Small na LM Studio, Ollama i MLX

2–3 marca — Modele Qwen 3.5 Small (0.8B–9B) są już dostępne na trzech głównych platformach inferencji lokalnej: LM Studio (~7 GB VRAM dla 9B), Ollama i MLX. Lokalny deployment jest więc możliwy już dzień po premierze.

🔗 LM Studio · Ollama · MLX

Z.ai Startup Program — kredyty API i early access do GLM-5

2 marca — Z.ai otwiera Startup Program: darmowe kredyty API, priorytetowe rate limits, wczesny dostęp do API i dedykowana społeczność. Cel: startupy AI-native, twórcy agentów, założyciele SaaS. Aktywny model na platformie to GLM-5.

🔗 Tweet @Zai_org — Startup Program

March Pixel Drop — Gemini w aplikacjach, Circle to Search wieloobiektowe, Scam Detection we Francji

3 marca — March Pixel Drop przynosi kilka funkcji AI na urządzenia Pixel. Gemini może teraz wykonywać zadania bezpośrednio w aplikacjach (rezerwacje, polecenia, zamawianie kawy — w beta). Circle to Search rozpoznaje teraz wszystkie obiekty widoczne na ekranie w jednym wyszukiwaniu, z przyciskiem “Try It On” do wirtualnego przymierzania ubrań. Magic Cue sugeruje restauracje przez Gemini bezpośrednio w rozmowach. W zakresie bezpieczeństwa, Scam Detection trafia do Francji, Włoch, Hiszpanii, Meksyku, Niemiec i Japonii. Pixel Watch zyskuje alerty sejsmiczne i Satellite SOS w Europie i Kanadzie.

🔗 March Pixel Drop — Google Blog

System Card GPT-5.3 Instant

System Card towarzysząca GPT-5.3 Instant została opublikowana równocześnie. Podejście do bezpieczeństwa jest takie samo jak w GPT-5.2 Instant — model jest również odwołany przez gpt-5.3-instant.

🔗 System Card GPT-5.3 Instant


Co to oznacza

Voice Mode w Claude Code to najbardziej przełomowa decyzja dnia dla deweloperów. Udostępnienie transkrypcji za darmo (poza kwotą) usuwa główną barierę ekonomiczną dla takiej funkcji — to świadomy wybór mający maksymalizować adopcję, nie drobny detal. Spacja jako push-to-talk w terminalu to minimalistyczny interfejs spójny z narzędziem.

Na froncie modeli, GPT-5.3 Instant i Gemini 3.1 Flash-Lite ilustrują dwie różne strategie: OpenAI poprawia doświadczenie codzienne użytkowników (mniej halucynacji, mniej niepotrzebnych odmów), Google optymalizuje stosunek koszt/wydajność dla deweloperów API z wysokim wolumenem (2,5× szybciej, agresywna cena). Zapowiedź GPT-5.4 godzinę po premierze GPT-5.3 sugeruje nadal szybkie tempo wdrożeń w OpenAI w marcu 2026.

Wzmianka o ruchu bezprecedensowym (unprecedented) w Anthropic, w połączeniu z #1 w App Store, potwierdza, że Claude Code i aplikacja Claude wychodzą z fazy niszowej, trafiając do znacznie szerszej publiczności. Problemy ze skalowalnością są oznaką adopcji przekraczającej prognozy, nie awarii technicznej.


Źródła - Tweet @trq212 — Wdrażanie Voice Mode

Niniejszy dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator