20 kwietnia 2026 przynosi kilka istotnych ogłoszeń: Anthropic i Amazon rozszerzają swoje partnerstwo o 5 GW mocy obliczeniowej oraz inwestycję $5B, GitHub zawiesza nowe zapisy do indywidualnych planów Copilot, jednocześnie zaostrzając limity użycia, a dwa nowe modele podnoszą poprzeczkę w benchmarkach coding — Kimi K2.6 w open-source i Qwen3.6-Max-Preview w modelu własnościowym. OpenAI uruchamia ponadto Codex Chronicle, pamięć kontekstową opartą na zrzutach ekranu.
Anthropic i Amazon — 5 GW compute, inwestycja $5B
20 kwietnia — Anthropic i Amazon podpisali nową umowę infrastrukturalną, która zabezpiecza do 5 gigawatów (GW) mocy obliczeniowej do trenowania i wdrażania Claude. Znacząca część Trainium2 pojawi się już w drugim kwartale 2026, a łączna moc Trainium2 i Trainium3 ma sięgnąć niemal 1 GW do końca 2026.
Porozumienie składa się z trzech elementów:
| Volet | Détail |
|---|---|
| Infrastructure | Zobowiązanie ponad 100 miliardów USD na 10 lat wobec AWS, obejmujące Graviton i Trainium2 aż po Trainium4 |
| Claude Platform sur AWS | Pełna Claude Platform zintegrowana bezpośrednio w AWS — to samo konto, to samo rozliczanie, bez osobnych umów |
| Investissement | Amazon inwestuje dziś $5 miliardów USD w Anthropic, z możliwością dodatkowych $20 miliardów USD w przyszłości |
Anthropic ujawnia, że jego przychody annualizowane przekraczają teraz 30 miliardów USD, wobec około 9 miliardów pod koniec 2025. Ten szybki wzrost wywarł presję na istniejącą infrastrukturę, wpływając na niezawodność dla użytkowników darmowych, Pro, Max i Team w godzinach szczytu.
Ponad 100 000 klientów już uruchamia Claude na Amazon Bedrock, a Anthropic korzysta z ponad miliona układów Trainium2. Pełna Claude Platform jest teraz dostępna bezpośrednio z konta AWS bez konieczności zawierania osobnych umów — to konkretna zmiana dla deweloperów i firm już obecnych w AWS.
Claude pozostaje też jedynym czołowym modelem AI dostępnym na trzech głównych globalnych platformach chmurowych: AWS (Bedrock), Google Cloud (Vertex AI) i Microsoft Azure (Foundry).
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇵🇱 „Nasi użytkownicy mówią nam, że Claude staje się coraz bardziej niezbędny w ich sposobie pracy, a my musimy budować infrastrukturę, by nadążyć za szybko rosnącym popytem.” — Dario Amodei, via @AnthropicAI na X
🔗 Oficjalne ogłoszenie Anthropic
GitHub Copilot — Zawieszenie zapisów Pro/Pro+ i zaostrzenie limitów
20 kwietnia — GitHub publikuje istotne zmiany w indywidualnych planach Copilot. Nowe zapisy do planów Pro, Pro+ i Student są natychmiast zawieszone. Plan Copilot Free pozostaje natomiast otwarty.
Szczegóły zmian:
| Changement | Détail |
|---|---|
| Pause inscriptions | Pro, Pro+, Student — zamknięte dla nowych użytkowników. Copilot Free pozostaje otwarty |
| Limites d’usage | Pro+ oferuje 5× limity Pro. Ostrzeżenia w VS Code i Copilot CLI przy zbliżaniu się do limitu |
| Modèles Opus | Opus usunięty z Copilot Pro. Opus 4.7 pozostaje dostępny wyłącznie w Pro+. Opus 4.5 i 4.6 zostaną również usunięte z Pro+ w późniejszym czasie |
| Remboursement | Możliwość anulowania i otrzymania zwrotu za kwiecień po skontaktowaniu się z pomocą techniczną między 20 kwietnia a 20 maja 2026 |
Dla już subskrybujących użytkowników istniejące plany pozostają aktywne. Konkretna konsekwencja: użytkownicy Pro, którzy mieli dostęp do modeli Opus, tracą ten dostęp, podczas gdy Pro+ staje się de facto tierem pośrednim z limitem 5× większym. Okno zwrotu do 20 maja daje miesiąc na decyzję.
🔗 GitHub Changelog — Zmiany planów indywidualnych
Kimi K2.6 — SOTA open-source w coding i agentach
20 kwietnia — Moonshot AI uruchamia Kimi K2.6, nowy model open-source, który ustanawia kilka rekordów (state of the art) w benchmarkach coding i agentów. Ogłoszenie wygenerowało ponad 1,5 miliona wyświetleń w kilka godzin.
Benchmarks open-source :
| Benchmark | Score K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
Ulepszenia względem K2.5 są znaczące. W długodystansowym codingu (long-horizon coding) K2.6 wykonuje do 4 000 wywołań narzędzi w jednej sesji i może działać nieprzerwanie ponad 12 godzin, z wielojęzyczną generalizacją (Rust, Go, Python) oraz wielozadaniowością (frontend, DevOps, optymalizacja wydajności).
Architektura wieloagentowa również się rozwinęła: 300 równoległych subagentów × 4 000 kroków na uruchomienie, wobec 100 subagentów × 1 500 kroków w K2.5. K2.6 natywnie obsługuje zaawansowane interfejsy frontend — wideo w sekcjach hero, shadery WebGL, animacje GSAP + Framer Motion, renderowanie 3D Three.js.
Wagi są dostępne open-source na HuggingFace. API jest dostępne na platform.moonshot.ai, a model działa w trybie chat i w trybie agent na kimi.com.
🔗 Ogłoszenie Kimi K2.6 na X — 🔗 Blog Kimi K2.6 — 🔗 Wagi na HuggingFace
Qwen3.6-Max-Preview — Przedpremiera kolejnego flagowego modelu
20 kwietnia — Alibaba Qwen uruchamia Qwen3.6-Max-Preview, przedpremierową wersję swojego kolejnego flagowego modelu własnościowego, następcy Qwen3.6-Plus.
Zyski w benchmarkach względem Qwen3.6-Plus :
| Benchmark | Gain |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
Model plasuje się na czele w 6 kluczowych benchmarkach coding: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench i SciCode. Jest dostępny już dziś we wczesnym dostępie przez chat.qwen.ai oraz przez API Alibaba Cloud Model Studio pod identyfikatorem qwen3.6-max-preview. Jest zgodny ze specyfikacjami OpenAI i Anthropic oraz obsługuje tryb preserve_thinking dla zadań agentowych.
To wersja nadal aktywnie rozwijana — przed finalnym wydaniem zapowiedziano kolejne iteracje.
🔗 Ogłoszenie Qwen na X — 🔗 Blog Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Pamięć kontekstowa przez zrzuty ekranu
20 kwietnia — OpenAI uruchamia Codex Chronicle w Research Preview, nową funkcję pamięci kontekstowej dla Codex. Chronicle uruchamia agentów w tle, aby budować pamięci na podstawie ostatnich zrzutów ekranu, umożliwiając Codex wznowienie sesji pracy bez konieczności ręcznego aktualizowania kontekstu przez użytkownika.
Działanie: agenci okresowo przechwytują ekran, wyodrębniają kontekst pracy i zapisują pamięci lokalnie na urządzeniu. Użytkownik może te pamięci przeglądać i modyfikować. OpenAI ostrzega, że inne aplikacje mogą potencjalnie uzyskać dostęp do plików ze zrzutami.
Ograniczona dostępność przy starcie: tylko dla użytkowników Pro na macOS, wyłączone z krajów UE, Wielkiej Brytanii i Szwajcarii podczas fazy uczenia.
🔗 Ogłoszenie Codex Chronicle na X
Grok — Spójne rozszerzenia wideo
20 kwietnia — Grok Imagine ogłasza ulepszone rozszerzenia wideo (Smarter Video Extensions). Grok widzi teraz oryginalny prompt i źródłowy klip, aby generować rozszerzenia spójne pod względem treści i dźwięku. Ciągłość audio jest utrzymywana przez cały czas trwania rozszerzenia. Dostępne w aplikacji Grok i w sieci.
NotebookLM — Niestandardowe okładki dla notebooków
16 kwietnia — NotebookLM umożliwia teraz dodanie własnej ilustracji okładki i opisu do dowolnego notebooka. Funkcja ma na celu personalizację widoku siatki przed udostępnieniem notebooka. Zalecany format: obraz 16:9.
W skrócie
TeenAegis AI Danger Index (18 kwi.) — W swoim pierwszym indeksie niebezpieczeństwa AI (AI Danger Index), TeenAegis przyznał OpenAI najniższy wynik ryzyka spośród ocenianych dostawców. Indeks ocenia ochronę młodych użytkowników: kontrolę dostosowaną do wieku, nadzór, zgłaszanie i środki ochrony. 🔗 Tweet OpenAI Newsroom
OpenAI Academy — 3M+ użytkowników (19 kwi.) — Platforma szkoleniowa AI OpenAI przekracza 3 miliony użytkowników, a w tym tygodniu organizowane są wydarzenia stacjonarne od Warszawy po Abilene (Teksas), w tym w Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom
Co to oznacza
Porozumienie Anthropic-Amazon jest strukturalne pod kilkoma względami: formalizuje wzajemną zależność (Anthropic potrzebuje compute, Amazon potrzebuje Claude, by Bedrock był konkurencyjny), a ujednolicone rozliczanie AWS usuwa realną barierę dla zespołów już działających w ekosystemie Amazona. Wartość run-rate na poziomie $30B annualizowanych przychodów, ponad trzykrotnie wyższa w kilka miesięcy, wyjaśnia, dlaczego infrastruktura jest pod presją i dlaczego to porozumienie było pilne.
Po stronie modeli dzień 20 kwietnia pokazuje dynamikę szybkiego zawężania różnic: Kimi K2.6 w open-source osiąga wyniki porównywalne z modelami własnościowymi wypuszczonymi zaledwie kilka tygodni temu, a Qwen3.6-Max-Preview ustawia Alibaba na czele benchmarków coding jeszcze przed finalną wersją. Restrukturyzacja planów Copilot w GitHub sygnalizuje napięcie między szeroką adopcją (Free) a trwałą monetyzacją (Pro+), z doświadczeniem użytkownika, które fragmentuje się zależnie od tieru.
Źródła
- Oficjalne ogłoszenie Anthropic + Amazon
- @AnthropicAI na X — główny tweet
- @AnthropicAI na X — szczegóły $5B/$20B
- GitHub Changelog — Zmiany planów Copilot indywidualnych
- @Kimi_Moonshot na X — Kimi K2.6
- Blog Kimi K2.6
- Kimi K2.6 na HuggingFace
- @Alibaba_Qwen na X — Qwen3.6-Max-Preview
- Blog Qwen3.6-Max-Preview
- @OpenAIDevs na X — Codex Chronicle
- @grok na X — Smarter Video Extensions
- @NotebookLM na X — Niestandardowe okładki
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3M+
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator