25 kwietnia 2026 r. skupia najważniejsze ogłoszenia dotyczące modeli granicznych i narzędzi dla deweloperów. DeepSeek-V4 zostaje wydany jako open-source i udostępniony bezpłatnie na NVIDIA Blackwell. GPT-5.5 trafia do powszechnej dostępności w GitHub Copilot i w API OpenAI. Fuzja Cohere + Aleph Alpha, wspierana kwotą 600 milionów dolarów od Schwarz Group, tworzy fundamenty transatlantyckiej suwerennej AI. Po stronie narzędzi Claude Code v2.1.119 i tryb Auto-review w Codex rozszerzają autonomię agentów programistycznych.
DeepSeek-V4 dostępny wszędzie
Premiera i open-source
24 kwietnia — DeepSeek jednocześnie ogłasza DeepSeek-V4-Pro i DeepSeek-V4-Flash. V4-Pro to model mixture-of-experts z 1,6 biliona parametrów (49 miliardów aktywnych), z oknem kontekstu wynoszącym milion tokenów i deklarowaną wydajnością porównywalną z najlepszymi zamkniętymi modelami. V4-Flash, bardziej kompaktowy (284B/13B aktywnych), jest przeznaczony do zastosowań wymagających niskich opóźnień. Oba modele są open-source od pierwszego dnia, z natychmiastowo dostępnym API i demem, a raport techniczny opublikowano na Hugging Face.
Promocja API i integracje
25 kwietnia — DeepSeek ogłasza promocję -75 % na API V4-Pro do 5 maja 2026 r. (15:59 UTC). Integracje Claude Code, OpenCode i OpenClaw zostały zaktualizowane tak, aby obsługiwać nowy model.
🔗 Promocja API DeepSeek-V4-Pro
DeepSeek-V4-Pro na NVIDIA Blackwell, za darmo
24 kwietnia — NVIDIA udostępnia DeepSeek-V4-Pro bezpłatnie przez interfejs NVIDIA NIM API na Blackwell, na build.nvidia.com. Ogłoszenie wygenerowało 160 000 wyświetleń. NVIDIA publikuje również pierwsze krzywe wydajności (Pareto frontier) DeepSeek-V4-Pro na Blackwell Ultra z vLLM — wczesny punkt odniesienia dla wdrożeń wysokiej wydajności.
25 kwietnia — NVIDIA równolegle podkreśla ograniczenia klasycznej inferencji dla agentów programistycznych: “Traditional inference wasn’t built for agentic coding”, odnosząc się do setek wywołań API generowanych przez nowoczesne narzędzia agentowe.
🔗 DeepSeek-V4-Pro na NVIDIA NIM 🔗 Blackwell Ultra Day 0
GPT-5.5 wychodzi z przedpremiery
Powszechna dostępność w GitHub Copilot
24 kwietnia — GPT-5.5 jest stopniowo wdrażany w GitHub Copilot dla planów Pro+, Business i Enterprise. Dostępność obejmuje VS Code, Visual Studio, CLI Copilot, agenta cloud, github.com, aplikację mobilną (iOS i Android), IDE JetBrains, Xcode i Eclipse. Współczynnik promocyjny ustalono na 7,5×. Administratorzy Enterprise i Business muszą aktywować politykę w ustawieniach, aby z niej skorzystać.
🔗 Changelog GitHub Copilot — GPT-5.5 GA
Dostęp do API dla deweloperów
24 kwietnia — Dzień po premierze dla szerokiej publiczności OpenAI otwiera dostęp do GPT-5.5 w API. Model jest dostępny przez API Responses i API Chat Completions, z oknem kontekstu wynoszącym milion tokenów. Wariant GPT-5.5-Pro, przeznaczony do zadań wymagających wysokiej precyzji, jest dostępny wyłącznie przez API Responses.
“GPT-5.5 is available in the Responses and Chat Completions APIs with a 1M context window. GPT-5.5-pro is also available in the Responses API for higher-accuracy work.”
🇵🇱 “GPT-5.5 jest dostępny w API Responses i Chat Completions z oknem kontekstu wynoszącym milion tokenów. GPT-5.5-Pro jest również dostępny w API Responses do prac wymagających wysokiej precyzji.” — @OpenAIDevs
GPT-5.5 w Perplexity Max i Personal Computer
24 kwietnia — GPT-5.5 jest dostępny dla subskrybentów Max w Perplexity i wdrożony jako domyślny model orkiestracji w Personal Computer dla planów Pro i Max.
Bio Bug Bounty — program bezpieczeństwa biosafety
23 kwietnia — OpenAI uruchamia program bug bounty poświęcony biosafety GPT-5.5. Badacze specjalizujący się w bezpieczeństwie AI lub biosafety są zaproszeni do znalezienia uniwersalnego jailbreaku omijającego biologiczne zabezpieczenia modelu. Główna nagroda wynosi 25 000 USD za pierwszy sukces. Zgłoszenia są otwarte do 22 czerwca 2026 r.; testy odbędą się od 28 kwietnia do 27 lipca 2026 r., wyłącznie na GPT-5.5 w Codex Desktop, na zaproszenie z umową o poufności.
Narzędzia dla deweloperów: autonomia w rozszerzeniu
Claude Code v2.1.119
25 kwietnia — Anthropic publikuje Claude Code v2.1.119, znaczącą aktualizację CLI z ponad czterdziestoma zmianami.
| Obszar | Zmiana |
|---|---|
| Konfiguracja | /config trwałe w ~/.claude/settings.json |
| PR | --from-pr obsługuje GitLab, Bitbucket, GitHub Enterprise |
| Hooks | PostToolUse + pole duration_ms |
| PowerShell | Automatyczna akceptacja w trybie uprawnień |
| MCP | Połączenie z serwerami subagentów równolegle |
| Naprawione błędy | 40+ |
Trwałość ustawień /config to najbardziej widoczna zmiana: preferencje motywu, trybu edytora czy poziomu verbose przetrwają ponowne uruchomienia. Parametr --from-pr akceptuje teraz adresy URL GitLab merge-request, Bitbucket pull-request i GitHub Enterprise, co rozszerza workflow na zespoły, które nie korzystają z GitHub.com. Hooks PostToolUse i PostToolUseFailure otrzymują teraz pole duration_ms, przydatne do monitoringu w CI/CD. Połączenie serwerów MCP odbywa się teraz równolegle, co skraca czasy startu workflow z wieloma serwerami.
Codex Auto-review — wydłużona autonomia z zabezpieczeniem
24 kwietnia — OpenAI ogłasza Auto-review, nowy tryb działania dla Codex. Tryb ten pozwala Codexowi realizować długie zadania bez proszenia o zatwierdzenie na każdym etapie. Osobny agent ocenia kroki o wysokim ryzyku przed ich wykonaniem, co pozwala usprawnić workflow testów, kompilacji i długich automations bez utraty bezpieczeństwa.
Copilot dla JetBrains: Inline Agent Mode w podglądzie
24 kwietnia — Aktualizacja pluginu Copilot dla JetBrains IDE przynosi kilka funkcji: tryb inline agent w publicznym podglądzie (skrót Shift+Ctrl+I lub Shift+Cmd+I), ulepszone Next Edit Suggestions (NES) z podglądami w formie znaków wodnych i zdalnymi zmianami oraz globalną auto-akceptację dla wywołań narzędzi agenta.
NVIDIA Dynamo — inferencja zaprojektowana na nowo dla agentów
25 kwietnia — NVIDIA prezentuje Dynamo, przebudowę stacku inferencji mającą odpowiadać profilom obciążenia narzędzi agentowych. Agenci tacy jak Claude Code, Codex czy Copilot wykonują setki wywołań API na sesję, z rekonstruowanym kontekstem na każdym etapie, tworząc wąskie gardła, które podnoszą koszt na token. Dynamo łączy cztery komponenty: routing uwzględniający cache KV, scheduling zaprojektowany z myślą o agentach, wielopoziomowe cache’owanie oraz ujednoliconą orkiestrację. NVIDIA zapowiada nawet 7× większą przepustowość dzięki wyższym wskaźnikom cache i niższym opóźnieniom.
🔗 NVIDIA Dynamo — inferencja agentowa
Suwerenność i partnerstwa enterprise
Cohere + Aleph Alpha: transatlantyczna fuzja z 600 milionami USD od Schwarz Group
24 kwietnia — Cohere (Kanada) i Aleph Alpha (Niemcy) ogłaszają projekt fuzji. Schwarz Group — grupa właścicielska Lidl i Kaufland — inwestuje 600 milionów USD (około 500 milionów euro) w finansowanie strukturyzowane dla Series E Cohere. Połączona platforma będzie hostowana na STACKIT, suwerennym cloudzie Schwarz Digits.
“Sovereign AI for the world. Cohere & Aleph Alpha form transatlantic AI powerhouse anchored in Canada & Germany!”
🇵🇱 “Suwerenna AI dla świata. Cohere i Aleph Alpha tworzą transatlantycką potęgę AI zakorzenioną w Kanadzie i Niemczech!” — @cohere on X
Umowa celuje w sektory regulowane, rządy i rynek suwerennej AI szacowany na około 600 miliardów USD. Pozostaje warunkowa do zatwierdzenia przez akcjonariuszy Aleph Alpha.
Anthropic i NEC: pierwsze globalne partnerstwo w Japonii
24 kwietnia — Anthropic ogłasza strategiczne partnerstwo z NEC Corporation, która staje się pierwszym globalnym japońskim partnerem Anthropic. NEC wdroży Claude’a u około 30 000 pracowników grupy na całym świecie.
| Aspekt | Szczegół |
|---|---|
| Dotknięci pracownicy | ~30 000 (globalna grupa NEC) |
| Wdrożone produkty | Claude, Claude Opus 4.7, Claude Code, Claude Cowork |
| Docelowe sektory | Finanse, manufacturing, cyberbezpieczeństwo, samorząd |
| Program | NEC BluStellar Scenario |
Wewnątrz NEC tworzy Center of Excellence, aby przeszkolić zespół inżynierii AI na dużą skalę w ramach inicjatywy “Client Zero”. Dla swoich klientów NEC i Anthropic wspólnie opracują rozwiązania dla sektora finansowego, manufacturingu oraz japońskich jednostek samorządowych.
Meta łączy siły z AWS dla agentowej AI dla miliardów użytkowników
24 kwietnia — Meta ogłasza umowę z AWS, aby zintegrować dziesiątki milionów rdzeni Graviton5 w swojej infrastrukturze. Celem jest obsługa CPU-intensywnych workloadów agentowej AI przeznaczonej dla miliardów użytkowników.
Gemini: aktualizacje produktu i badania
Gemini Drops kwiecień 2026 — Lyria 3 Pro, Gemini Live v3.1
24 kwietnia — Google publikuje 10. edycję Gemini Drops. Lyria 3 Pro pozwala tworzyć utwory muzyczne do 3 minut bezpośrednio w Gemini, dostępne dla subskrybentów Plus, Pro i Ultra. Gemini Live v3.1 jest o 20 % szybszy i oferuje dwa razy więcej zapamiętanego kontekstu. Personal Intelligence rozszerza się na rynki międzynarodowe (z wyłączeniem Europejskiego Obszaru Gospodarczego, Szwajcarii, Wielkiej Brytanii, Korei Południowej, Australii i Nigerii). Funkcja rozmów rozgałęzionych (branching) jest wdrażana dla 20 % użytkowników.
Gemini Embedding 2 w powszechnej dostępności
22 kwietnia — Gemini Embedding 2 przechodzi do powszechnej dostępności (GA) w API Gemini i Vertex AI. Model reprezentacji wektorowej jest przeznaczony do wyszukiwania semantycznego, generowania wspomaganego wyszukiwaniem (RAG) i klasyfikacji.
Decoupled DiLoCo — rozproszone uczenie wieloregionalne
23 kwietnia — Google DeepMind publikuje Decoupled DiLoCo, metodę rozproszonego uczenia na sieciach o małej przepustowości. Gemma 12B została wytrenowana w 4 regionach USA z wykorzystaniem mieszanki TPU6e i TPUv5p. Metoda otwiera drogę do zdecentralizowanego trenowania modeli na skalę globalną bez konieczności stosowania zazwyczaj wymaganych połączeń o wysokiej przepustowości.
🔗 Decoupled DiLoCo — Google DeepMind
Modele alternatywne: Qwen i Grok
Qwen3.6-27B — flagowy model dense do coding agentowego
22 kwietnia — Alibaba publikuje Qwen3.6-27B, model dense o 27 miliardach parametrów w open source na licencji Apache 2.0. Mimo kompaktowych rozmiarów przewyższa Qwen3.5-397B-A17B — model MoE o 397 miliardach parametrów, z czego 17 miliardów jest aktywowanych — w głównych benchmarkach coding agentowego, osiągając wynik SWE-Bench Verified 77,2 % wobec 76,2 % u poprzednika. W ogłoszeniu wyróżniono trzy aspekty: agentic coding, który przewyższa poprzednią generację we wszystkich kluczowych benchmarkach, solidne rozumowanie tekstowe i multimodalne oraz wdrożenie dense bez złożoności MoE.
Model obsługuje tryby thinking i non-thinking w jednym checkpoint. Jest dostępny na Hugging Face (Qwen/Qwen3.6-27B, w tym wariant FP8) oraz ModelScope, z dedykowanym blogiem technicznym i GitHubem. Ogłoszenie wygenerowało 3,5 miliona wyświetleń na X.
Qwen-Image-2.0-Pro — #9 na świecie w Text-to-Image
25 kwietnia — Alibaba Qwen publikuje Qwen-Image-2.0-Pro, który zajmuje 9. miejsce na świecie w rankingu Text-to-Image Arena i 6. miejsce w portrecie. Model jest dostępny przez API Alibaba Cloud i ModelScope.
Grok Voice Think Fast 1.0 — #1 w Tau Voice Bench
23 kwietnia — xAI uruchamia model grok-voice-think-fast-1.0 przez API xAI Console. Model twierdzi, że zajmuje pierwsze miejsce w Tau Voice Bench, z wbudowanym rozumowaniem bez dodatkowych opóźnień. Jest już wdrożony produkcyjnie w Starlink do obsługi klienta. Architektura jest ujednolicona i odrębna od ogłoszonych w kwietniu API Grok STT/TTS.
Grok Imagine — ulepszenie synchronizacji ruchu warg
25 kwietnia — Grok Imagine ogłasza poprawę synchronizacji ruchu warg (lip sync) oraz jakości audio dla wszystkich generacji image-to-video.
Generowanie mediów i agenci głosowi
Kling AI 4K — natywne upscaling z niskiej rozdzielczości
24 kwietnia — Kling AI uruchamia Kling 4K, funkcję natywnego powiększania obrazu do 4K z materiałów źródłowych w niskiej rozdzielczości. Ogłoszenie podsumowane hasłem “Blurry in. 4K out.” wygenerowało 5,82 miliona wyświetleń. Funkcja ta jest odrębna od Kling Video 3.0.
Runway integruje GPT Image 2
24 kwietnia — Runway integruje GPT Image 2 od OpenAI ze swoją platformą do tworzenia wideo.
ElevenLabs × Customers Bank — bankowi agenci głosowi
24 kwietnia — ElevenLabs ogłasza wdrożenie ElevenAgents w Customers Bank (aktywa o wartości 25 miliardów USD). Trzy agenty są wdrożone: obsługa klienta 24/7, onboarding nowych klientów oraz coaching w czasie rzeczywistym dla doradców.
ElevenLabs — Program Ambasadorski
23 kwietnia — ElevenLabs otwiera nabór do programu ambasadorskiego, który obejmuje dwa poziomy: Community Builders i Ambasadorzy, z kredytami, gadżetami i wcześniejszym dostępem do nowych funkcji. Ogłoszenie wygenerowało 116 000 wyświetleń.
🔗 Program Ambasadorski ElevenLabs
Badania Anthropic: bezpieczeństwo i agenty
Środki ochrony wyborczej — wyniki ocen
24 kwietnia — W obliczu amerykańskich midterms 2026 Anthropic publikuje podsumowanie swoich środków ochrony wyborczej. Claude Opus 4.7 i Sonnet 4.6 uzyskują odpowiednio 95% i 96% w ocenach mierzących równowagę odpowiedzi politycznych.
| Model | Zgodność polityczna | Odmowa operacji wpływu | Wyszukiwanie w sieci włączone |
|---|---|---|---|
| Opus 4.7 | 100% | 94% | 92% |
| Sonnet 4.6 | 99,8% | 90% | 95% |
Baner TurboVote (bezpartyjne źródło Democracy Works) będzie wyświetlany na Claude.ai, aby kierować użytkowników do wiarygodnych informacji o głosowaniu w midterms 2026.
🔗 Aktualizacja środków ochrony wyborczej — Anthropic
Project Deal — agenty Claude jako negocjatorzy
24 kwietnia — Anthropic publikuje wyniki Project Deal, wewnętrznego eksperymentu dotyczącego agentów AI na rynku w stylu Craigslist. Przez tydzień agenty Claude reprezentowały pracowników biura w San Francisco, kupując i sprzedając przedmioty między współpracownikami. Łącznie zawarto 186 transakcji przy czterech równoległych konfiguracjach modeli.
| Metryka | Wartość |
|---|---|
| Czas trwania | 1 tydzień |
| Konfiguracje | 4 (same Opus 4.7, same Haiku, 2 mieszanki) |
| Zawarte transakcje | 186 |
| Przewaga Opus vs Haiku | +2 transakcje średnio, wyższe ceny |
| Efekt agresywnych instrukcji | Statystycznie nieistotny |
“New Anthropic research: Project Deal. We created a marketplace for employees in our San Francisco office—like Craigslist—where Claude agents negotiated deals on their behalf.”
🇵🇱 “Nowe badania Anthropic: Project Deal. Stworzyliśmy marketplace dla pracowników naszego biura w San Francisco — jak Craigslist — gdzie agenty Claude negocjowały transakcje w ich imieniu.” — @AnthropicAI na X
Najbardziej godne uwagi odkrycie: agresywne instrukcje (“negocjuj twardo”) nie miały żadnego statystycznie istotnego wpływu na wyniki — nie z powodu słabego przestrzegania instrukcji, ale z powodu ograniczeń samego rynku.
Co to oznacza
Dzień 25 kwietnia pokazuje szybkie zacieśnianie wokół kilku głównych trendów. W przypadku modeli granicznych DeepSeek-V4 i GPT-5.5 ustanawiają nową dolną granicę dostępnych publicznie możliwości: milion tokenów kontekstu przestaje być premiumowym wyróżnikiem. Pojawienie się darmowego DeepSeek-V4-Pro na NVIDIA Blackwell, połączone z promocją API -75%, sygnalizuje bezpośrednią konkurencję cenową z modelami zamkniętymi.
Po stronie narzędzi dla deweloperów rozszerzanie autonomii agentów materializuje się równolegle na kilku frontach — Claude Code v2.1.119, Codex Auto-review, Inline Agent Mode w JetBrains. Te aktualizacje zmierzają do jednego celu: ograniczyć ludzkie przerwy w długich pipeline’ach, przy jednoczesnym utrzymaniu punktów kontrolnych dla operacji ryzykownych. Pytanie o ramy prawne dla agentów działających w naszym imieniu, podniesione przez Project Deal, nabiera w tym kontekście szczególnego znaczenia.
Fuzja Cohere + Aleph Alpha z 600 milionami USD od Schwarz Group jest najbardziej strukturotwórczym sygnałem dla europejskiej suwerennej AI. Tworzy ona aktora transatlantyckiego pozycjonującego się wobec rządów i sektorów regulowanych, z dedykowaną infrastrukturą chmurową (STACKIT), na rynku szacowanym na 600 miliardów USD. Równoległe partnerstwo Anthropic + NEC pokazuje, że ta sama logika suwerenności rozszerza się na Azję.
Źródła
- CHANGELOG Claude Code v2.1.119
- Anthropic i NEC
- Środki ochrony wyborczej — Anthropic
- Project Deal — Anthropic
- GPT-5.5 API OpenAI
- Codex Auto-review
- GPT-5.5 Bio Bug Bounty
- Gemini Drops avril 2026
- Gemini Embedding 2 GA
- Decoupled DiLoCo — Google DeepMind
- DeepSeek-V4 lancement
- Promocja API DeepSeek-V4-Pro
- Meta × AWS Graviton5
- Qwen-Image-2.0-Pro
- Grok Voice Think Fast 1.0
- Grok Imagine lip sync
- Qwen3.6-27B
- GPT-5.5 GA GitHub Copilot
- Copilot JetBrains Inline Agent Mode
- GPT-5.5 na Perplexity Max
- Cohere × Aleph Alpha
- DeepSeek-V4-Pro na NVIDIA NIM
- NVIDIA Blackwell Ultra Day 0
- NVIDIA Dynamo — inferencja agentowa
- Runway × GPT Image 2
- Kling AI 4K
- ElevenLabs × Customers Bank
- Program Ambasadorski ElevenLabs
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator