Szukaj

OpenAI uruchamia GPT-5.5, Anthropic otwiera pamięć dla Managed Agents, Kimi K2.6 Agent Swarm

OpenAI uruchamia GPT-5.5, Anthropic otwiera pamięć dla Managed Agents, Kimi K2.6 Agent Swarm

23 kwietnia 2026 r. to intensywny dzień: OpenAI uruchamia GPT-5.5 z wynikiem 85% w ARC-AGI-2 i stawką API $5/M tokens za wejście, podczas gdy Anthropic udostępnia persistent memory w becie dla swoich Managed Agents i publikuje post-mortem dotyczący Claude Code. Równolegle GitHub Copilot wypuszcza siedem aktualizacji w trzy dni, Kimi K2.6 wdraża rój (swarm) 300 subagentów, a SpaceX zawiera partnerstwo kodujące z Cursor.


GPT-5.5 : model frontier OpenAI

23 kwietnia — OpenAI uruchamia GPT-5.5, swój najpotężniejszy model do tej pory, zaprojektowany do pracy w realnym świecie i dla agentów. Znacząco usprawnia kodowanie agentowe, użycie komputera (computer use), pracę opartą na wiedzy oraz badania naukowe, zachowując jednocześnie latencję GPT-5.4.

Dostępność i ceny

GPT-5.5 jest natychmiast dostępny dla subskrybentów ChatGPT Plus, Pro, Business i Enterprise, a także w Codex. Dostęp API pojawi się „bardzo wkrótce”.

OfertaDostęp APIWejścieWyjście
GPT-5.5 standardWkrótce$5 / M tokens$30 / M tokens
GPT-5.5 ProWkrótce$30 / M tokens$180 / M tokens

Okno kontekstu w Codex osiąga 400K tokens. Dostępny jest tryb Fast — 1,5× szybciej, 2,5× koszt.

Benchmarks

OcenaGPT-5.5GPT-5.4Claude Opus 4.7Gemini 3.1 Pro
Terminal-Bench 2.082.7%75.1%69.4%68.5%
Expert-SWE (wewnętrzny)73.1%68.5%
SWE-Bench Pro58.6%57.7%64.3%54.2%
GDPval84.9%83.0%80.3%67.3%
OSWorld-Verified78.7%75.0%78.0%
ARC-AGI-285.0%73.3%75.8%77.1%
FrontierMath Tier 435.4%27.1%22.9%16.7%
CyberGym81.8%79.0%73.1%
BixBench (bioinformatyka)80.5%74.0%

GPT-5.5 prowadzi w większości benchmarków, z jednym istotnym wyjątkiem: SWE-Bench Pro, gdzie Claude Opus 4.7 utrzymuje przewagę (64.3% vs 58.6%).

Infrastruktura i bezpieczeństwo

Model został współzaprojektowany z NVIDIA GB200/GB300 NVL72. Codex użył GPT-5.5 do optymalizacji własnej infrastruktury, zyskując +20% szybkości generowania tokenów. Po stronie cyberbezpieczeństwa GPT-5.5 jest sklasyfikowany jako High w Preparedness Framework OpenAI (nie Critical); program Trusted Access Cyber został na niego rozszerzony.

Badania naukowe

Poza kodem GPT-5.5 pomógł udowodnić nowe twierdzenie o liczbach Ramseya (kombinatoryka), formalnie zweryfikowane w Lean. Przeanalizował też zbiór danych genomowych obejmujący 62 próbki i 28 000 genów w kilka minut — zadanie, które dla zespołu badaczy zajęłoby miesiące.

« GPT-5.5 is noticeably smarter and more persistent than GPT-5.4, with stronger coding performance and more reliable tool use. »

🇫🇷 GPT-5.5 jest wyraźnie mądrzejszy i bardziej wytrwały niż GPT-5.4, oferując lepsze wyniki w kodowaniu i bardziej niezawodne korzystanie z narzędzi. — Michael Truell, współzałożyciel i CEO Cursor

🔗 Annonce GPT-5.5


Fala persistent agents

Trzy główne zapowiedzi zbiegają się 23 kwietnia wokół persistent agent, zdolnego działać autonomicznie przez długi czas i zachowywać kontekst między sesjami.

OpenAI Workspace Agents w ChatGPT

22 kwietnia — OpenAI prezentuje Workspace Agents: współdzielone agentów, które zespół tworzy raz, używa wspólnie w ChatGPT lub Slacku i stopniowo ulepsza. Napędzane przez Codex w chmurze, mogą wykonywać złożone zadania nawet wtedy, gdy użytkownik jest rozłączony. Workspace Agents stopniowo zastępują GPT, które pozostają dostępne w okresie przejściowym.

Typ agentaFunkcja
Weryfikator oprogramowaniaAnalizuje zgłoszenia, porównuje polityki, tworzy ticket IT
Router feedbacku produktowegoMonitoruje Slack/support/forumy → priorytetyzowane ticket y
Generator raportówPobiera dane w piątek, tworzy wykresy, podsumowanie
Agent prospectinguSzuka leadów, ocenia je, pisze maile, aktualizuje CRM
Odpowiedzialny za ryzyka stron trzecichOcenia dostawców, produkuje ustrukturyzowany raport

Dostępne w research preview dla Business, Enterprise, Edu i Teachers; darmowe do 6 maja 2026, potem rozliczane w kredytach.

Według Ankur Bhatt (AI Engineering, Rippling), to, co wcześniej zajmowało handlowcom 5 do 6 godzin tygodniowo, teraz wykonuje się automatycznie w tle dla każdej okazji.

🔗 Workspace Agents


Anthropic — Pamięć dla Claude Managed Agents

23 kwietnia — Pamięć dla Claude Managed Agents jest dostępna w publicznej becie na Claude Platform. Agenci mogą teraz uczyć się z sesji na sesję dzięki warstwie pamięci zamontowanej bezpośrednio na systemie plików: agenci korzystają z tych samych możliwości bash i wykonywania kodu, które już wykorzystują do zadań agentowych.

FunkcjonalnośćSzczegóły
Współdzielone magazynyWielu agentów, różne zakresy dostępu (tylko odczyt / odczyt-zapis)
Jednoczesny dostępBez nadpisywania między równoległymi sesjami
Dziennik audytuKtóra sesja, który agent, która pamięć
CofanieDo dowolnej wcześniejszej wersji
EksportowalnośćPamięci zarządzalne przez API

Wyniki klientów pokazują namacalny wpływ:

KlientWynik
Rakuten-97% błędów przy pierwszym przejściu, -27% kosztów, -34% latencji
Wisedocs+30% szybkości weryfikacji dokumentów
NetflixCiągłość kontekstu między sesjami bez ręcznych aktualizacji
AndoPamięć platformowa bez dedykowanej infrastruktury

Memory in Claude Managed Agents lets us put continuous learning into production at scale. Our agents distill lessons from every session, delivering 97% fewer first-pass errors at 27% lower cost and 34% lower latency.

🇫🇷 Pamięć w Claude Managed Agents pozwala nam wdrażać ciągłe uczenie się do produkcji na dużą skalę. Nasi agenci wyciągają wnioski z każdej sesji, dostarczając o 97 % mniej błędów przy pierwszym przejściu, przy 27 % niższym koszcie i 34 % niższej latencji. — Yusuke Kaji, General Manager AI for Business, Rakuten

🔗 Mémoire Managed Agents


Claude Code : post-mortem jakości i dwie nowe wersje

Post-mortem i reset limitów

23 kwietnia — Zespół Claude Code opublikował post-mortem dotyczący trzech problemów jakości zgłoszonych w ciągu ostatniego miesiąca. Wszystkie zostały naprawione w v2.1.116+. Limity użycia zostały zresetowane dla wszystkich subskrybentów.

Over the past month, some of you reported Claude Code’s quality had slipped. We investigated, and published a post-mortem on the three issues we found. All are fixed in v2.1.116+ and we’ve reset usage limits for all subscribers.

🇫🇷 W ciągu ostatniego miesiąca niektórzy z was zgłosili pogorszenie jakości Claude Code. Przeprowadziliśmy dochodzenie i opublikowaliśmy post-mortem dotyczący trzech znalezionych problemów. Wszystkie są naprawione w v2.1.116+ i zresetowaliśmy limity użycia dla wszystkich subskrybentów.@ClaudeDevs

v2.1.117 i v2.1.118

WersjaGłówne funkcje
v2.1.118Wizualny tryb Vim (v/V) z zaznaczaniem i operatorami; ujednolicony /usage (łączy /cost i /stats); własne motywy w /theme; hooki wywołujące narzędzia MCP przez type: "mcp_tool"; ścisły DISABLE_UPDATES; dziedziczenie managed settings Windows przez WSL
v2.1.117Domyślny effort ustawiony na high dla Pro/Max na Opus 4.6 i Sonnet 4.6 (wcześniej medium); forkowanie subagentów aktywowane na zewnętrznych buildach; glob/Grep zastąpione przez wbudowane bfs/ugrep dla szybszych wyszukiwań; naprawa sesji Opus 4.7 (kontekst 1M liczony poprawnie); naprawa Bedrock+Opus 4.7 z wyłączonym thinking

🔗 CHANGELOG Claude Code


Nowe konektory Claude do życia codziennego

23 kwietnia — Anthropic rozszerza swoje katalog konektorów o aplikacje konsumenckie. Od lipca 2025 roku dostępnych było ponad 200 konektorów do narzędzi zawodowych; ta aktualizacja dodaje 15 usług codziennego użytku.

AplikacjaKategoria
AllTrailsWędrówki
AudibleAudiobooki
Booking.comPodróże
InstacartZakupy online
Intuit Credit KarmaFinanse
Intuit TurboTaxPodatki
ResyRezerwacje restauracji
SpotifyMuzyka
StubHubSprzedaż biletów
TaskrabbitUsługi domowe
ThumbtackLokalni specjaliści
TripAdvisorPodróże
UberTransport
Uber EatsDostawa jedzenia
ViatorAtrakcje turystyczne

Claude teraz automatycznie sugeruje odpowiednie konektory zależnie od kontekstu rozmowy. Dostępne we wszystkich planach (w tym darmowym), w web, desktop i mobile (mobile w becie). Bez płatnych miejsc ani sponsorowanych odpowiedzi; dane z aplikacji nie są używane do trenowania modeli.

🔗 Connecteurs vie quotidienne


GitHub Copilot — Siedem aktualizacji w trzy dni

GitHub Copilot opublikował siedem wpisów w changelogu między 22 a 23 kwietnia.

Chat dla pull requestów (3 nowe możliwości)

23 kwietnia — Copilot Chat integruje teraz trzy możliwości dla pull requestów, dostępne przez github.com/copilot lub przycisk Copilot na diffach (publiczna preview):

  • Zrozumienie PR (pull request understanding) : komentarze, zmiany, commity i recenzje włączone jako kontekst
  • Rewizja PR : ustrukturyzowana recenzja na żądanie
  • Podsumowanie PR : zwięzłe podsumowanie zmian

🔗 Copilot Chat PR improvements

Sesje agenta sterowalne z issues i projektów

23 kwietnia — cloud agent można teraz kontrolować bezpośrednio z issues i tablic projektów GitHub: wskaźnik sesji w nagłówku issue, panel boczny postępu, sesje aktywowane domyślnie we wszystkich widokach projektów.

🔗 Agent sessions depuis issues

Ustrukturyzowane debugowanie stack traces w sieci

23 kwietnia — Copilot Chat na github.com prowadzi teraz analizę stack traces w sześciu ustrukturyzowanych krokach: co zawiodło, dlaczego, przyczyna źródłowa, dowody z kodu, poziom pewności i kolejne weryfikacje.

🔗 Débogage stack traces

BYOK VS Code dostępne (GA)

22 kwietnia — Bring Your Own Key (przynieś swój własny klucz API) jest w ogólnej dostępności dla użytkowników Copilot Business i Enterprise w VS Code. Obsługiwane są Anthropic, Gemini, OpenAI, OpenRouter, Azure, a także modele lokalne przez Ollama i Foundry Local. Rozliczenie odbywa się bezpośrednio przez wybranego dostawcę, poza limitami Copilot.

🔗 BYOK VS Code GA

C++ Language Server w publicznej becie dla Copilot CLI

22 kwietnia — Microsoft C++ Language Server (silnik IntelliSense Visual Studio/VS Code) jest dostępny w publicznej becie dla Copilot CLI. Dostarcza precyzyjne dane semantyczne (definicje symboli, odwołania, hierarchie wywołań, typy) zamiast iteracyjnego wyszukiwania grep. Wymagania: uwierzytelnienie Copilot CLI + compile_commands.json.

🔗 C++ Language Server

Nowe samodzielne rejestracje Business wstrzymane

22 kwietnia — GitHub wstrzymuje nowe samodzielne rejestracje dla Copilot Business na planach GitHub Free i GitHub Team. Obecni klienci nie są dotknięci zmianą.

🔗 Pause Business self-serve

Pole used_copilot_cloud_agent w metrykach API

23 kwietnia — W związku z rebrandingiem „coding agent” → „cloud agent”, API metryk dodaje pole used_copilot_cloud_agent w raportach użytkowników (1 dzień i 28 dni kroczących). Stare pole used_copilot_coding_agent jest utrzymywane do 1 sierpnia 2026.

🔗 Métriques cloud agent


Gemini CLI v0.39.0 i Deep Think dla wszystkich Ultra

Gemini CLI v0.39.0

23 kwietnia — Google publikuje Gemini CLI v0.39.0, stabilną wersję oznaczoną jako „Latest”. Najważniejsza nowość to nowe polecenie /memory inbox do przeglądu i zatwierdzania skills automatycznie wyodrębnionych przez CLI podczas sesji pracy.

FunkcjonalnośćOpis
/memory inboxPrzegląd automatycznie wyodrębnionych skills
Ujednolicony invoke_subagentPrzeprojektowane narzędzie subagenta w jedną interfejs
Kompaktowe formatowanieLepsza czytelność w trybie kompaktowym
Plan Mode — confirmationsWymagana weryfikacja przed aktywacją skills
Lżejszy startLekki proces nadrzędny dla szybszego uruchamiania
Migracja JSONL streamingZapisywanie sesji chat w JSONL

Dodane skróty klawiaturowe: Ctrl+Backspace do usuwania słowa po słowie (Windows Terminal), Ctrl+Shift+G.

🔗 Gemini CLI v0.39.0

Deep Think otwarty dla wszystkich subskrybentów Ultra

22 kwietnia — Google otwiera tryb Deep Think (głębokie rozumowanie, extended thinking) dla wszystkich subskrybentów Gemini Ultra. Tryb ten był wcześniej dostępny w ograniczonym dostępie; teraz jest dostępny bezpośrednio z menu narzędzi aplikacji Gemini (web i mobile).

🔗 Tweet @GeminiApp


Kimi K2.6 : rój 300 subagentów i open-weights benchmarks

Agent Swarm — 300 równoległych subagentów

23 kwietnia — Moonshot AI uruchamia Kimi K2.6 Agent Swarm: system zdolny do wdrożenia 300 równoległych subagentów w 4 000 krokach na wykonanie, wobec 100 agentów i 1 500 kroków w K2.5.

MożliwośćK2.5K2.6
Równoległe subagenty100300
Kroki na wykonanie1 5004 000
Typy outputówTekst czatu100+ rzeczywistych plików, recenzje 100 000 słów, datasety 20 000 linii

Subagenci łączą zróżnicowane umiejętności: wyszukiwanie w sieci, analizę danych, kodowanie, pisanie długich form i generowanie wizualne. Dostępne na kimi.com/agent-swarm.

🔗 Tweet @Kimi_Moonshot

Benchmarks : numer 1 open-weights

23 kwietnia — Kimi K2.6 zajmuje pierwsze miejsce wśród modeli open-weights na dwóch benchmarkach: - Design Arena : ta sama klasa wydajności co Claude Opus 4.7

  • MathArena open (tryb Think) : przed GLM 5.1

🔗 Design Arena


SpaceXAI × Cursor i Grok Imagine

Partnerstwo SpaceXAI × Cursor

22 kwietnia — SpaceXAI (podmiot powstały z połączenia xAI/SpaceX) i Cursor ogłaszają partnerstwo mające na celu stworzenie „najwydajniejszej na świecie IA do kodowania i pracy wiedzy”. SpaceX wnosi superkomputer Colossus (odpowiednik miliona H100); Cursor przyznaje mu prawo do przejęcia firmy później w 2026 roku za 60 miliardów dolarów lub do zapłacenia 10 miliardów dolarów wyłącznie za współpracę.

🔗 Tweet @SpaceX

Grok Imagine — udostępniane, niestandardowe szablony

22 kwietnia — Subskrybenci SuperGrok i Premium+ mogą od teraz tworzyć niestandardowe szablony w Grok Imagine i udostępniać je publicznie.

🔗 Tweet @imagine


NVIDIA × Google Cloud Next

22 kwietnia — Podczas Google Cloud Next (Las Vegas) NVIDIA i Google Cloud ogłaszają kilka ważnych postępów związanych z infrastrukturą agentic IA.

OgłoszenieSzczegóły
Instancje A5X (Vera Rubin NVL72)Do 960 000 GPU Rubin w klastrze multi-site, 10× niższy koszt na token, 10× większa przepustowość na megawat
Gemini na Google Distributed CloudPreview z GPU Blackwell i Blackwell Ultra — suwerenność danych
Confidential VMs BlackwellPierwsza oferta poufnego obliczania (confidential computing) Blackwell w publicznej chmurze
Nemotron 3 SuperDostępny na Gemini Enterprise Agent Platform
NeMo RL APIZarządzane uczenie ze wzmocnieniem (Reinforcement Learning) na dużą skalę

🔗 Blog NVIDIA × Google Cloud


Kling AI Video 3.0 — natywny tryb 4K

23 kwietnia — Kling AI uruchamia natywny tryb 4K w swojej serii Video 3.0. Generowanie 4K odbywa się jednym kliknięciem, bez dodatkowego etapu upscalingu. Spójność wizualna (postacie, teksty, style, oświetlenie) jest zapewniona w natywnej rozdzielczości dla produkcji premium. Dostępne również przez fal.ai dla firm.

Kling AI równocześnie organizuje 4K Short Film Creative Contest, globalny konkurs zachęcający twórców do przesyłania krótkich filmów zrealizowanych z użyciem nowego trybu.

🔗 Tweet @Kling_ai


ChatGPT for Clinicians i OpenAI Privacy Filter

ChatGPT for Clinicians + HealthBench Professional

22 kwietnia — OpenAI uruchamia ChatGPT for Clinicians, darmową wersję dla zweryfikowanych pracowników ochrony zdrowia w USA (lekarzy, pielęgniarek praktyków, asystentów medycznych, farmaceutów). Usługa obejmuje dostęp do frontier modeli do złożonych pytań klinicznych, skills do powtarzalnych workflow (listy polecające, uprzednie autoryzacje), badania kliniczne z cytowaniami w czasie rzeczywistym oraz automatyczne generowanie punktów CME. Obsługa HIPAA jest dostępna opcjonalnie na podstawie umowy.

OpenAI publikuje również HealthBench Professional, otwarty benchmark oceniający IA w rzeczywistych zadaniach klinicznych (ponad 700 000 odpowiedzi ocenionych przez lekarzy). GPT-5.4 w ChatGPT for Clinicians przewyższa ludzi-lekarzy na tym benchmarku w warunkach bez ograniczenia czasu z dostępem do sieci.

🔗 ChatGPT for Clinicians

OpenAI Privacy Filter

22 kwietnia — OpenAI publikuje Privacy Filter, model open-weight (Apache 2.0) do wykrywania i maskowania informacji umożliwiających identyfikację osób (Personally Identifiable Information, PII) w tekście. Model działa lokalnie (żadne dane nie są wysyłane na serwer), obsługuje 128K tokenów kontekstu i osiąga wynik F1 na poziomie 97,43% na benchmarku PII-Masking-300k.

CechaWartość
ArchitekturaDwukierunkowy klasyfikator tokenów (ograniczone dekodowanie Viterbiego)
Rozmiar1,5 mld parametrów łącznie, 50 mln aktywnych
Kontekst128 000 tokenów
LicencjaApache 2.0 (Hugging Face + GitHub)
F197,43% na poprawionym PII-Masking-300k

Kategorie PII objęte ochroną: private_person, private_address, private_email, private_phone, private_url, private_date, account_number, secret (hasła i klucze API).

🔗 OpenAI Privacy Filter


Perplexity i Cohere

Perplexity integruje Kimi K2.6

23 kwietnia — Kimi K2.6 od Moonshot AI jest teraz dostępny dla wszystkich subskrybentów Pro i Max w Perplexity.

🔗 Tweet @perplexity_ai

Cohere — W4A8 gotowe do produkcji w vLLM

22 kwietnia — Cohere ogłasza integrację swojego wnioskowania W4A8 (kwantyzacja 4-bitowa dla wag, 8-bitowa dla aktywacji) w vLLM. Wyniki na GPU Hopper względem W4A16: +58% w czasie do pierwszego tokenu (Time To First Token) i +45% w czasie na wyjściowy token (Time Per Output Token). Integracja jest priorytetowo kierowana na duże modele MoE Command A w produkcji.

🔗 Blog Cohere W4A8


Krótkie wiadomości

Suno numer 1 w App Store muzyka

21 kwietnia — Suno, platforma do generowania muzyki z IA, osiąga pierwsze miejsce w App Store w kategorii muzyka. CEO Mikey Shulman ogłasza: „Przyszłość muzyki to taka, w której każdy czerpie radość z tworzenia”.

🔗 Tweet @suno

Anthropic Economic Index Survey

22 kwietnia — Anthropic uruchamia Anthropic Economic Index Survey, miesięczne badanie prowadzone za pośrednictwem Anthropic Interviewer na losowej próbie użytkowników Claude. Celem jest zbieranie danych jakościowych dotyczących ekonomicznego wpływu IA: delegowanych zadań, wzrostu produktywności, zmian ról. Wyniki będą zasilać przyszłe raporty Anthropic Economic Index.

🔗 Ogłoszenie badania

Anthropic — agenci MCP w produkcji: liczby

22 kwietnia — Artykuł techniczny Anthropic dokumentuje korzyści MCP dla agentów produkcyjnych: SDK MCP przekraczają 300 milionów pobrań miesięcznie, tool search zmniejsza liczbę tokenów definicji narzędzi o 85%, a programmatic tool calling redukuje użycie tokenów o 37% w złożonych wieloetapowych workflow.

🔗 Blog MCP production agents

OpenAI — WebSockets w API Responses: 40% mniej opóźnień

22 kwietnia — Artykuł retrospektywny OpenAI wyjaśnia, jak tryb WebSocket w API Responses zmniejsza opóźnienie pętli agentów o 40%. Utrzymujące się połączenie zachowuje w pamięci podręcznej stan poprzednich odpowiedzi, unikając ponownego przetwarzania całej historii przy każdym wywołaniu. Już w produkcji: Codex, Vercel AI SDK, Cline (+39%), Cursor (+30%).

🔗 Artykuł WebSockets

Perplexity Research — Trenowanie modeli wyszukiwania wzbogaconego

22 kwietnia — Perplexity publikuje badania dotyczące swojego pipeline SFT + RL (Supervised Fine-Tuning + Reinforcement Learning) w celu poprawy jakości odpowiedzi wyszukiwania. Kluczowy wynik: modele Qwen po dalszym trenowaniu osiągają factuality modeli GPT przy niższym koszcie.

🔗 Research Perplexity


Co to oznacza

23 kwietnia 2026 rysuje dwa zbieżne trendy. Z jednej strony GPT-5.5 potwierdza, że OpenAI odzyskało prowadzenie w benchmarkach agenticznych (Terminal-Bench, ARC-AGI-2, OSWorld) po kilku miesiącach dominacji Claude Opus 4.7. Przewaga pozostaje niewielka w SWE-Bench Pro, gdzie Anthropic utrzymuje przewagę — znak, że oba laboratoria skupiają się na tych samych priorytetowych przypadkach użycia.

Z drugiej strony dzień ten oznacza wejście w erę persistent agents z pamięcią: OpenAI Workspace Agents, Anthropic Managed Agents Memory i Kimi K2.6 Agent Swarm pojawiają się równocześnie z różnymi podejściami (integracja Slack, filesystem-based, rój podagentów), ale z tym samym celem — aby agent pamiętał, uczył się i działał bez stałego nadzoru. Liczby Rakuten (-97% błędów, -27% kosztów) dają pierwszą przemysłową miarę wpływu.

GitHub Copilot kontynuuje strategię głębokiej integracji z GitHub.com (chat w PR, sesje agentów z issues, ustrukturyzowane stack traces), jednocześnie otwierając się na zewnątrz przez BYOK. BYOK VS Code GA sygnalizuje, że Copilot pozycjonuje się zarówno jako interfejs, jak i model.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator