Szukaj

Mistral Medium 3.5 i Vibe Remote Agents, Google TPU 8. generacji, Claude for Creative Work

Ten tydzień oznacza przyspieszenie na trzech równoległych frontach: modeli otwartych (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), infrastruktury sprzętowej (Google TPU 8. generacji) oraz ekosystemów agentów (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs również osiąga kolejny etap, przekształcając swój silnik muzyczny AI w platformę dla szerokiej publiczności z monetyzacją.


Mistral Medium 3.5, Vibe Remote Agents i Le Chat Work Mode

29 kwietnia — Mistral AI jednocześnie publikuje trzy ważne ogłoszenia: model Mistral Medium 3.5, zdalnych agentów (remote agents) Vibe oraz tryb Pracy (Work Mode) w Le Chat.

Mistral Medium 3.5 w publicznej wersji zapoznawczej

Medium 3.5 to gęsty model o 128 miliardach parametrów, który łączy wykonywanie instrukcji, rozumowanie i kod w jednym zestawie wag, z oknem kontekstowym 256 000 tokenów. Może działać lokalnie na zaledwie czterech GPU.

CechaWartość
ArchitekturaDense 128B
Kontekst256 000 tokenów
SWE-Bench Verified77,6%
τ³-Telecom91,4
LicencjaZmodyfikowana MIT (open weights)
API — tokeny wejściowe$1,50 / milion
API — tokeny wyjściowe$7,50 / milion
Self-hosting (min. GPU)4 GPU

Model przewyższa Devstral 2 i Qwen3.5-397B-A17B w benchmarku SWE-Bench Verified, co pozycjonuje go jako punkt odniesienia wśród modeli kodu open weights w momencie premiery. Jest dostępny przez API Mistral, Le Chat, Vibe, terminale NVIDIA (build.nvidia.com) oraz mikroserwis NVIDIA NIM.

Zdalni agenci (remote agents) w Vibe

Sesje kodowania Vibe mogą teraz działać w chmurze bez konieczności pozostawania otwartymi lokalnie. Wiele sesji działa równolegle, podczas gdy deweloper zajmuje się czymś innym. Lokalną sesję można „teleportować” do chmury wraz z jej historią i pełnym stanem. Po zakończeniu zadania agent automatycznie otwiera pull request na GitHubie i powiadamia dewelopera.

Vibe natywnie integruje się z GitHubem (kod + PR), Linear i Jira (zgłoszenia), Sentry (incydenty), Slackiem i Teams (powiadomienia). Każda sesja działa w odizolowanym środowisku.

Tryb Pracy (Work Mode) w Le Chat (wersja zapoznawcza)

Nowy tryb agentowy do złożonych zadań w Le Chat: wyszukiwanie wieloźródłowe, synteza dokumentów, sortowanie skrzynki mailowej, tworzenie zgłoszeń Jira, wysyłanie podsumowań na Slacku. Konektory są domyślnie aktywowane w trybie Pracy. Każde widoczne działanie wymaga wyraźnej zgody na operacje wrażliwe.

🔗 Ogłoszenie Mistral na X


Google TPU 8. generacji — TPU 8t i TPU 8i

29 kwietnia — Google ujawnia ósmą generację swoich układów TPU (Tensor Processing Unit), ogłoszoną podczas Google Cloud Next ‘26 w poprzednim tygodniu. Na tę generację składają się dwa odrębne układy, z których każdy został zoptymalizowany pod inną fazę cyklu AI.

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇵🇱 Dekada przygotowań dobiegła końca — układy dla ery agentowej są już tutaj. Podczas wydarzenia Next ‘26 organizowanego przez @GoogleCloud w zeszłym tygodniu zaprezentowaliśmy nasze TPU ósmej generacji. TPU 8t: 3 razy większa moc niż w poprzedniej generacji, 10 razy szybszy transfer danych, 97% produktywnego wykorzystania zasobów, skrócenie czasu trenowania z miesięcy do tygodni. TPU 8i: trzykrotnie większa pamięć wewnętrzna, o 80% lepsza wydajność na dolara, 5-krotna redukcja opóźnień.@GoogleAI na X

TPU 8t — trenowanie modeli

UlepszenieSzczegół
Surowa moc3× większa niż w poprzedniej generacji
Przepustowość danych10× szybsza (pamięć masowa → układy)
Produktywne wykorzystanie97% zasobów (automatyczne wykrywanie i przekierowywanie awarii)
WpływSkrócenie czasu trenowania z wielu miesięcy do kilku tygodni

TPU 8i — inferencja dla agentów AI

UlepszenieSzczegół
Pamięć wewnętrznaPotrojona, aby obsługiwać złożone wieloetapowe rozumowanie
Efektywność kosztowa+80% wydajności na wydanego dolara
OpóźnienieZmniejszone 5× dzięki nowemu zintegrowanemu silnikowi

Układy te są zaprojektowane z myślą o erze agentowej: TPU 8t przyspiesza tworzenie modeli, a TPU 8i pozwala tym modelom działać (rezerwować lot, zarządzać kalendarzem) niemal w czasie rzeczywistym. Google pozycjonuje tę podwójną architekturę jako technologiczny fundament nadchodzącej dekady.


Claude for Creative Work — Blender, Autodesk Fusion, Adobe i 5 innych konektorów MCP

28 kwietnia — Anthropic uruchamia serię oficjalnych konektorów MCP (Model Context Protocol) przeznaczonych dla profesjonalistów z branż kreatywnych, we współpracy z Blenderem, Autodesk, Adobe, Ableton i Splice.

NarzędzieZastosowanie
BlenderDebugowanie scen 3D, tworzenie narzędzi, zbiorcze modyfikacje wszystkich obiektów
Autodesk FusionTworzenie i modyfikowanie modeli 3D za pomocą języka naturalnego
Adobe Creative CloudUrzeczywistnianie obrazów, wideo i projektów za pomocą ponad 50 narzędzi CC
Ableton Live i PushEksploracja oficjalnej dokumentacji produktu
SpliceWyszukiwanie próbek bez tantiem bezpośrednio z poziomu Claude
Canva AffinityAutomatyzacja powtarzalnych zadań produkcyjnych
SketchUpPunkt wyjścia do modelowania 3D na podstawie opisu tekstowego
Resolume / TouchdesignerSterowanie w czasie rzeczywistym za pomocą języka naturalnego dla VJ-ów i artystów wizualnych

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇵🇱 Claude łączy się teraz z narzędziami, z których profesjonaliści kreatywni już korzystają. Dzięki nowemu konektorowi Blender możesz debugować scenę, tworzyć nowe narzędzia lub stosować zbiorcze modyfikacje do wszystkich obiektów bezpośrednio z poziomu Claude.@claudeai na X

Anthropic dołączył również do Blender Development Fund jako patron-darczyńca, wspierając rozwój wolnego oprogramowania. Główny tweet wygenerował ponad 10 milionów wyświetleń w mniej niż 24 godziny (tweet Autodesk Fusion osiągnął 11 milionów), co czyni to jedną z najbardziej wiralowych zapowiedzi Anthropic od wielu miesięcy.

Wyróżnione przypadki użycia: nauka złożonych programów, rozszerzanie narzędzi za pomocą kodu (skrypty, pluginy, systemy generatywne przez Claude Code), most między narzędziami w pipeline, automatyzacja powtarzalnych zadań (przetwarzanie wsadowe, scaffolding).

🔗 Artykuł Anthropic


NVIDIA Nemotron 3 Nano Omni — omnimodalny model open source 30B

28 kwietnia — NVIDIA uruchamia Nemotron 3 Nano Omni, omnimodalny model open source, który łączy wizję, audio i język w jednej architekturze.

ParametrWartość
ArchitekturaHybrydowe MoE 30B-A3B (30B łącznie, 3B aktywne)
Kontekst256K tokenów
Modalności (wejście)Tekst, obrazy, audio, wideo, dokumenty, wykresy, interfejsy
Modalności (wyjście)Tekst
Efektywność9× większa przepustowość niż inne otwarte modele omnimodalne
DostępnośćHugging Face, OpenRouter, build.nvidia.com, ponad 25 platform partnerskich

Model wyróżnia się w trzech przypadkach użycia: computer use (nawigacja po interfejsach graficznych w natywnej rozdzielczości 1920×1080), inteligencja dokumentowa (interpretacja PDF-ów, tabel, wykresów, zrzutów ekranu) oraz utrzymywanie kontekstu audio-wideo w jednym strumieniu rozumowania.

Organizacje takie jak Aible, H Company, Palantir, Foxconn i Oracle oceniają model już od momentu premiery. H Company integruje go ze swoim agentem computer use.

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇵🇱 Aby budować użytecznych agentów, nie można czekać całymi sekundami, aż model zinterpretuje ekran. Dzięki oparciu się na Nemotron 3 Nano Omni nasi agenci mogą szybko interpretować nagrania ekranu w full HD — coś, co wcześniej nie było praktyczne. — Gautier Cloix, CEO H Company

Rodzina Nemotron osiągnęła ponadto 50 milionów łącznych pobrań wszystkich wariantów Nano/Super/Ultra w ciągu jednego roku.

🔗 Blog NVIDIA


ElevenMusic — muzyczna platforma AI (odkrywanie, remix, tworzenie, monetyzacja)

29 kwietnia — ElevenLabs uruchamia ElevenMusic, muzyczną platformę AI, która łączy słuchanie, remix i oryginalne tworzenie w jednym systemie, z bezpośrednią monetyzacją dla artystów.

FunkcjaOpis
OdkrywaniePonad 4 000 niezależnych artystów, kuratorowany katalog
RemixZmiana gatunku, tempa, reinterpretacja utworu
TworzenieNa podstawie tekstu, melodii lub nastroju
PublikacjaDystrybucja + monetyzacja poprzez zaangażowanie fanów

Model ekonomiczny inspiruje się Voice Library od ElevenLabs, która wypłaciła już $11 milionów swoim twórcom. Artyści publikują i zarabiają zależnie od zaangażowania słuchaczy, bez pośrednictwa wytwórni.

ElevenMusic startuje z Eleven Album Vol. 2, kompilacją obejmującą Danger Twins i Justina Love’a, zaprojektowaną tak, by można było jej doświadczać i ją remixować na platformie. Kevin Jonas Sr. (Jonas Group Entertainment) i Amy Stroup (Danger Twins) należą do artystycznych partnerów startowych.

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇵🇱 Fani chcą czuć, że są częścią muzyki, autorów piosenek i artystów. ElevenMusic daje im do tego dostęp, zamieniając utwór w coś, do czego można wejść, a nie tylko tego słuchać. — Kevin Jonas Sr., Założyciel i Prezes Jonas Group Entertainment

Platforma jest dostępna w aplikacji mobilnej i w wersji webowej od 29 kwietnia 2026 roku.

🔗 Ogłoszenie @ElevenLabs na X — 🔗 Blog ElevenLabs


GitHub Copilot code review — podwójne naliczanie opłat od 1 czerwca 2026

27 kwietnia — GitHub ogłasza, że od 1 czerwca 2026 roku każda automatyczna recenzja kodu wykonana przez GitHub Copilot będzie zużywać minuty GitHub Actions oprócz kredytów AI przewidzianych już przez nowy model rozliczeń za użycie.

Do tej pory recenzje kodu Copilot zużywały wyłącznie jednostki premium request (premium request units, PRU). Od 1 czerwca dwa liczniki będą aktywować się jednocześnie dla prywatnych repozytoriów:

LicznikSzczegół
IA CreditsKażde użycie Copilot (w tym code review) rozliczane w kredytach AI, zgodnie z modelem opłat za użycie
Minutes GitHub ActionsZużywane z puli planu przy każdej recenzji prywatnego repozytorium; dodatkowe minuty rozliczane według standardowych stawek Actions

To podwójne naliczanie wynika z agentowej architektury Copilot code review: narzędzie opiera się na runnerach GitHub-hosted, aby analizować szerszy kontekst repozytorium i generować bardziej trafne uwagi.

Objęte plany: Copilot Pro, Pro+, Business, Enterprise — w tym recenzje inicjowane przez użytkowników bez licencji poprzez bezpośrednie rozliczenie z organizacją.

Repozytoria publiczne: bez zmian, minuty Actions pozostają darmowe.

Jak przygotować się przed 1 czerwca:

  • Sprawdzić bieżące zużycie Actions w ustawieniach rozliczeń
  • W razie potrzeby dostosować limity wydatków (spending limits) Actions
  • Poinformować osoby odpowiedzialne za rozliczenia w organizacji

🔗 Changelog GitHub


OpenAI DevDay 2026 — San Francisco, 29 września

29 kwietnia — OpenAI ogłasza powrót swojego corocznego wydarzenia dla deweloperów: OpenAI DevDay 2026 odbędzie się 29 września w San Francisco. Oficjalna rejestracja nie została jeszcze otwarta.

Aby zachęcić do wcześniejszego zainteresowania, OpenAI uruchamia konkurs: deweloperzy, którzy zbudują coś z użyciem GPT-5.5 i generowania obrazów, mogą spróbować zdobyć wcześniejsze zaproszenie. Procedura: przesłać link do projektu wraz z notatką wyjaśniającą, jak został zbudowany, z oficjalnym hashtagiem #OpenAIDevDay2026.

SzczegółWartość
Data29 września 2026
MiejsceSan Francisco
Oficjalny hashtag#OpenAIDevDay2026
Wyświetlenia tweeta (pierwsze godziny)239 000+

Ogłoszenie zostało opublikowane z pięciomiesięcznym wyprzedzeniem, co jest nietypowo wcześnie jak na DevDay. Poprzednie edycje były miejscem premier najważniejszych produktów OpenAI dla społeczności deweloperów: w 2023 roku zaprezentowano tam GPT-4 Turbo i Assistants API. Przy obecnym przyspieszeniu tempa premier — GPT-5.5, generowanie obrazów, Codex CLI — DevDay 2026 zapowiada się jako ważny punkt w kalendarzu dla zespołów technicznych integrujących modele OpenAI w środowiskach produkcyjnych.

Osobny thread zachęca deweloperów do dzielenia się swoimi projektami już teraz. Konto @OpenAIDevs udostępniło ogłoszenie w ciągu kilku minut od głównej publikacji.

🔗 Ogłoszenie OpenAI na X


Ekosystem agentów i nowe integracje

Claude Code CLI v2.1.120–2.1.123 — 50+ poprawek

28 kwietnia — Zespół Claude Code opisuje poprawki wprowadzone w czterech ostatnich wersjach CLI (v2.1.120 do v2.1.123): ponad 50 ulepszeń stabilności i wydajności.

MetrykaWartość
Wersje objęte zmianamiv2.1.120, v2.1.121, v2.1.122, v2.1.123
Liczba poprawek50+
Wzrost wydajności /resumeNawet do 67% szybciej
Wyświetlenia threadu @ClaudeDevs493 tys.

Pięć głównych obszarów: przyspieszone długie sesje (/resume nawet do 67% szybciej), ustabilizowane uwierzytelnianie w macOS (kilkanaście poprawek keychain), mniejsze zużycie pamięci w Linuxie, WebFetch bez zawieszania się na dużych stronach, kopiowanie i wklejanie zachowujące podziały wierszy z Windows i Xcode.

🔗 Thread @ClaudeDevs

OpenAI × AWS — Codex i Managed Agents na Amazon Bedrock

28 kwietnia — OpenAI i AWS rozszerzają strategiczne partnerstwo w trzech obszarach: dostęp do modeli OpenAI w środowiskach AWS, Codex na Bedrock (ograniczony podgląd dla organizacji chcących przechowywać dane w infrastrukturze Amazon) oraz Bedrock Managed Agents napędzane przez OpenAI (dostępne od razu). Codex ma ponad 4 miliony użytkowników tygodniowo.

🔗 Ogłoszenie OpenAI

Copilot cloud agent uruchamia się o 20% szybciej

27 kwietnia — GitHub Copilot cloud agent uruchamia się teraz o ponad 20% szybciej dzięki wstępnie skonfigurowanym środowiskom runnerów przez custom images GitHub Actions. To ulepszenie dołącza do redukcji o 50%, dostarczonej już w marcu 2026.

🔗 Changelog GitHub

Gemini — generowanie plików do pobrania

29 kwietnia — Gemini może teraz tworzyć pliki do pobrania bezpośrednio z czatu: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF i Markdown. Dostępne natychmiast dla wszystkich użytkowników web i mobile.

🔗 Blog Google

Mistral Workflows w publicznym podglądzie

27 kwietnia — Mistral AI uruchamia Workflows w publicznym podglądzie, czyli warstwę orkiestracji dla przedsiębiorstw zbudowaną na durable execution engine od Temporal (tej samej infrastrukturze co Netflix, Stripe i Salesforce). Przepływy tworzy się w Pythonie przez SDK Mistral v3.0, a następnie uruchamia z poziomu Le Chat przez zespoły biznesowe. Korzystają z tego już organizacje ASML, France Travail i La Banque Postale.

🔗 Ogłoszenie Mistral

Qwen FlashQLA — jądra uwagi liniowej

29 kwietnia — Qwen publikuje FlashQLA, bibliotekę wysokowydajnych jąder (kernels) uwagi liniowej zbudowaną na TileLang, zaprojektowaną z myślą o agentycznej AI na urządzeniach osobistych: zyski 2–3× w przebiegu do przodu (forward) i 2× w przebiegu wstecz (backward). Opublikowano jako open source na GitHubie.

🔗 GitHub QwenLM/FlashQLA

GPT Image 2 zintegrowany z Manus Slides

29 kwietnia — Manus integruje GPT Image 2 z Manus Slides: edycja wizualiów metodą point-and-click, podmiana przez prompt, generowanie notatek do prezentacji, eksport do Google Slides, PowerPoint, PDF, Google Drive i OneDrive.

🔗 Ogłoszenie Manus

Salesforce połączony z Genspark

29 kwietnia — Genspark integruje Salesforce ze swoim ekosystemem agentów: połączenie przez Genspark Claw (instalacja CLI przez polecenie) lub Super Agent (połączenie bezpośrednie). Przykłady użycia: automatyczne przetwarzanie zgłoszeń klientów, kwartalne dashboardy, zautomatyzowane zarządzanie pipeline’em sprzedażowym.

🔗 Ogłoszenie Genspark

GPT-5.5 i ChatGPT Images 2.0 w Genspark

28 kwietnia — Genspark integruje GPT-5.5 ze swoim czatem AI oraz ChatGPT Images 2.0 (GPT Image 2) z generatorem obrazów, dostępne odpowiednio na genspark.ai/agents i genspark.ai/ai_image.

🔗 Ogłoszenie Genspark

Pika Agents — kreatywny interfejs konwersacyjny

28 kwietnia — Pika uruchamia Pika Agents: interfejs do tworzenia wideo, który zastępuje pole promptu spersonalizowanym agentem AI (głos, twarz, osobowość konfigurowane przez użytkownika). Agent rozumie intencje kreatywne wyrażone językiem naturalnym i składa, dopracowuje oraz produkuje wszystko w jednej rozmowie.

🔗 Ogłoszenie Pika

Miejsca Codex za $0 dla ChatGPT Business do końca czerwca

29 kwietnia — OpenAI umożliwia uprawnionym subskrybentom ChatGPT Business dodawanie miejsc Codex bez opłaty za miejsce do końca czerwca 2026 roku, wspierając ekspansję Codex na AWS.

🔗 Ogłoszenie @OpenAIDevs

60-letni problem Erdősa rozwiązany z pomocą GPT-5.5

28 kwietnia — OpenAI publikuje odcinek podcastu, w którym Sébastien Bubeck i Ernest Ryu wracają do rozwiązania problemu matematycznego otwartego od 60 lat, przypisywanego Paulowi Erdősowi, z pomocą GPT-5.5. Tweet przekroczył 399 000 wyświetleń.

🔗 Tweet OpenAI


W skrócie

  • DeepSeek-V4-Pro: promocja -75% przedłużona — Obniżka 75% na API DeepSeek-V4-Pro została przedłużona do 31 maja 2026. Ceny promocyjne: $0,003625/M tokenów wejściowych (cache hit), $0,435 (cache miss), $0,87 na wyjściu. 🔗 Tweet DeepSeek

  • Google DeepMind — Experience AI w Ameryce Łacińskiej — Program edukacyjny Experience AI (Raspberry Pi Foundation) rozszerza się na Amerykę Łacińską z celem przeszkolenia 24 000 nauczycieli i dotarcia do 1,25 miliona uczniów do 2028 roku, finansowany kwotą $4,6 miliona przez Google.org. 🔗 Tweet Google DeepMind

  • GPT-5.3-Codex usunięty z selektora Copilot Student — Od 27 kwietnia 2026 GPT-5.3-Codex nie jest już ręcznie wybieralny w planie Copilot Student; pozostaje dostępny przez automatyczny wybór. 🔗 Changelog GitHub

  • Responses API — zablokowane domeny dla wyszukiwania web — Responses API od OpenAI pozwala teraz blokować konkretne domeny przy zachowaniu włączonego wyszukiwania web, aby wykluczać określone źródła z wyników. 🔗 Tweet @charlierguo

  • OpenAI — zobowiązanie do bezpieczeństwa społeczności — OpenAI publikuje artykuł opisujący praktyki bezpieczeństwa w ChatGPT: ograniczanie ryzyka w modelu, zautomatyzowany monitoring, łączenie z zasobami pomocowymi i zgłaszanie władzom w poważnych przypadkach. Publikacja transparentności bez nowej funkcji. 🔗 Ogłoszenie OpenAI


Co to oznacza

Wyścig modeli otwartych się zaostrza. Mistral Medium 3.5 (128B, SWE-Bench 77,6%) i NVIDIA Nemotron 3 Nano Omni (30B, 9× bardziej efektywny niż inne otwarte modele omnimodalne) pojawiają się jednocześnie z permisywnymi licencjami. Oba modele pozycjonują się jako wiarygodne alternatywy wobec zamkniętych granic: Mistral w kodzie i rozumowaniu, Nemotron w agentycznej multimodalności. Ta presja utrzymuje coraz mniejszą różnicę między modelami własnościowymi a open weights.

Infrastruktura sprzętowa pozostaje strategicznym wąskim gardłem. TPU 8. generacji od Google (3× w trenowaniu, 5× mniejsze opóźnienie w inferencji) pokazują, że wyścig AI rozgrywa się także na poziomie krzemu. Ogłoszenie Google Cloud Next ‘26 pozycjonuje infrastrukturę Google jako trwałą przewagę konkurencyjną wobec GPU NVIDIA — nawet jeśli oba współistnieją w realnych wdrożeniach.

Ekosystem agentyczny fragmentuje się na pionowe specjalizacje. W tym tygodniu agenci AI trafiają do narzędzi kreatywnych (Claude for Creative Work z ponad 8 konektorami MCP), rozwoju oprogramowania (Vibe Remote Agents, Copilot cloud agent 20% szybszy), muzyki (ElevenMusic), wideo (Pika Agents), CRM-ów (Salesforce w Genspark) i workflowów przedsiębiorstw (Mistral Workflows). Pytanie nie brzmi już „czy AI potrafi to zrobić?”, lecz „w jakim wyspecjalizowanym narzędziu i według jakiego modelu rozliczeń?”.

Rozliczanie za użycie zmienia modele ekonomiczne deweloperów. Przejście GitHub Copilot code review na podwójne naliczanie (kredyty AI + minuty Actions) od 1 czerwca, połączone z ofertą miejsc Codex za $0 dla ChatGPT Business, pokazuje pewną dynamikę: dostawcy subsydiują adopcję (tymczasowa darmowość, promocja -75% DeepSeek), aby wyrobić nawyki, zanim znormalizują rozliczanie za użycie. Zespoły techniczne powinny przeprowadzić audyt swoich wydatków na AI przed czerwcem.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator