Szukaj

Anthropic + Amazon 5 GW $5B, restrukturyzacja planów GitHub Copilot, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, restrukturyzacja planów GitHub Copilot, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

20 kwietnia 2026 przynosi kilka istotnych ogłoszeń: Anthropic i Amazon rozszerzają swoje partnerstwo o 5 GW mocy obliczeniowej oraz inwestycję $5B, GitHub zawiesza nowe zapisy do indywidualnych planów Copilot, jednocześnie zaostrzając limity użycia, a dwa nowe modele podnoszą poprzeczkę w benchmarkach coding — Kimi K2.6 w open-source i Qwen3.6-Max-Preview w modelu własnościowym. OpenAI uruchamia ponadto Codex Chronicle, pamięć kontekstową opartą na zrzutach ekranu.


Anthropic i Amazon — 5 GW compute, inwestycja $5B

20 kwietnia — Anthropic i Amazon podpisali nową umowę infrastrukturalną, która zabezpiecza do 5 gigawatów (GW) mocy obliczeniowej do trenowania i wdrażania Claude. Znacząca część Trainium2 pojawi się już w drugim kwartale 2026, a łączna moc Trainium2 i Trainium3 ma sięgnąć niemal 1 GW do końca 2026.

Porozumienie składa się z trzech elementów:

VoletDétail
InfrastructureZobowiązanie ponad 100 miliardów USD na 10 lat wobec AWS, obejmujące Graviton i Trainium2 aż po Trainium4
Claude Platform sur AWSPełna Claude Platform zintegrowana bezpośrednio w AWS — to samo konto, to samo rozliczanie, bez osobnych umów
InvestissementAmazon inwestuje dziś $5 miliardów USD w Anthropic, z możliwością dodatkowych $20 miliardów USD w przyszłości

Anthropic ujawnia, że jego przychody annualizowane przekraczają teraz 30 miliardów USD, wobec około 9 miliardów pod koniec 2025. Ten szybki wzrost wywarł presję na istniejącą infrastrukturę, wpływając na niezawodność dla użytkowników darmowych, Pro, Max i Team w godzinach szczytu.

Ponad 100 000 klientów już uruchamia Claude na Amazon Bedrock, a Anthropic korzysta z ponad miliona układów Trainium2. Pełna Claude Platform jest teraz dostępna bezpośrednio z konta AWS bez konieczności zawierania osobnych umów — to konkretna zmiana dla deweloperów i firm już obecnych w AWS.

Claude pozostaje też jedynym czołowym modelem AI dostępnym na trzech głównych globalnych platformach chmurowych: AWS (Bedrock), Google Cloud (Vertex AI) i Microsoft Azure (Foundry).

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇵🇱 „Nasi użytkownicy mówią nam, że Claude staje się coraz bardziej niezbędny w ich sposobie pracy, a my musimy budować infrastrukturę, by nadążyć za szybko rosnącym popytem.”Dario Amodei, via @AnthropicAI na X

🔗 Oficjalne ogłoszenie Anthropic


GitHub Copilot — Zawieszenie zapisów Pro/Pro+ i zaostrzenie limitów

20 kwietnia — GitHub publikuje istotne zmiany w indywidualnych planach Copilot. Nowe zapisy do planów Pro, Pro+ i Student są natychmiast zawieszone. Plan Copilot Free pozostaje natomiast otwarty.

Szczegóły zmian:

ChangementDétail
Pause inscriptionsPro, Pro+, Student — zamknięte dla nowych użytkowników. Copilot Free pozostaje otwarty
Limites d’usagePro+ oferuje 5× limity Pro. Ostrzeżenia w VS Code i Copilot CLI przy zbliżaniu się do limitu
Modèles OpusOpus usunięty z Copilot Pro. Opus 4.7 pozostaje dostępny wyłącznie w Pro+. Opus 4.5 i 4.6 zostaną również usunięte z Pro+ w późniejszym czasie
RemboursementMożliwość anulowania i otrzymania zwrotu za kwiecień po skontaktowaniu się z pomocą techniczną między 20 kwietnia a 20 maja 2026

Dla już subskrybujących użytkowników istniejące plany pozostają aktywne. Konkretna konsekwencja: użytkownicy Pro, którzy mieli dostęp do modeli Opus, tracą ten dostęp, podczas gdy Pro+ staje się de facto tierem pośrednim z limitem 5× większym. Okno zwrotu do 20 maja daje miesiąc na decyzję.

🔗 GitHub Changelog — Zmiany planów indywidualnych


Kimi K2.6 — SOTA open-source w coding i agentach

20 kwietnia — Moonshot AI uruchamia Kimi K2.6, nowy model open-source, który ustanawia kilka rekordów (state of the art) w benchmarkach coding i agentów. Ogłoszenie wygenerowało ponad 1,5 miliona wyświetleń w kilka godzin.

Benchmarks open-source :

BenchmarkScore K2.6
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

Ulepszenia względem K2.5 są znaczące. W długodystansowym codingu (long-horizon coding) K2.6 wykonuje do 4 000 wywołań narzędzi w jednej sesji i może działać nieprzerwanie ponad 12 godzin, z wielojęzyczną generalizacją (Rust, Go, Python) oraz wielozadaniowością (frontend, DevOps, optymalizacja wydajności).

Architektura wieloagentowa również się rozwinęła: 300 równoległych subagentów × 4 000 kroków na uruchomienie, wobec 100 subagentów × 1 500 kroków w K2.5. K2.6 natywnie obsługuje zaawansowane interfejsy frontend — wideo w sekcjach hero, shadery WebGL, animacje GSAP + Framer Motion, renderowanie 3D Three.js.

Wagi są dostępne open-source na HuggingFace. API jest dostępne na platform.moonshot.ai, a model działa w trybie chat i w trybie agent na kimi.com.

🔗 Ogłoszenie Kimi K2.6 na X — 🔗 Blog Kimi K2.6 — 🔗 Wagi na HuggingFace


Qwen3.6-Max-Preview — Przedpremiera kolejnego flagowego modelu

20 kwietnia — Alibaba Qwen uruchamia Qwen3.6-Max-Preview, przedpremierową wersję swojego kolejnego flagowego modelu własnościowego, następcy Qwen3.6-Plus.

Zyski w benchmarkach względem Qwen3.6-Plus :

BenchmarkGain
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

Model plasuje się na czele w 6 kluczowych benchmarkach coding: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench i SciCode. Jest dostępny już dziś we wczesnym dostępie przez chat.qwen.ai oraz przez API Alibaba Cloud Model Studio pod identyfikatorem qwen3.6-max-preview. Jest zgodny ze specyfikacjami OpenAI i Anthropic oraz obsługuje tryb preserve_thinking dla zadań agentowych.

To wersja nadal aktywnie rozwijana — przed finalnym wydaniem zapowiedziano kolejne iteracje.

🔗 Ogłoszenie Qwen na X — 🔗 Blog Qwen3.6-Max-Preview


Codex Chronicle (Research Preview) — Pamięć kontekstowa przez zrzuty ekranu

20 kwietnia — OpenAI uruchamia Codex Chronicle w Research Preview, nową funkcję pamięci kontekstowej dla Codex. Chronicle uruchamia agentów w tle, aby budować pamięci na podstawie ostatnich zrzutów ekranu, umożliwiając Codex wznowienie sesji pracy bez konieczności ręcznego aktualizowania kontekstu przez użytkownika.

Działanie: agenci okresowo przechwytują ekran, wyodrębniają kontekst pracy i zapisują pamięci lokalnie na urządzeniu. Użytkownik może te pamięci przeglądać i modyfikować. OpenAI ostrzega, że inne aplikacje mogą potencjalnie uzyskać dostęp do plików ze zrzutami.

Ograniczona dostępność przy starcie: tylko dla użytkowników Pro na macOS, wyłączone z krajów UE, Wielkiej Brytanii i Szwajcarii podczas fazy uczenia.

🔗 Ogłoszenie Codex Chronicle na X


Grok — Spójne rozszerzenia wideo

20 kwietnia — Grok Imagine ogłasza ulepszone rozszerzenia wideo (Smarter Video Extensions). Grok widzi teraz oryginalny prompt i źródłowy klip, aby generować rozszerzenia spójne pod względem treści i dźwięku. Ciągłość audio jest utrzymywana przez cały czas trwania rozszerzenia. Dostępne w aplikacji Grok i w sieci.

🔗 Ogłoszenie Grok na X


NotebookLM — Niestandardowe okładki dla notebooków

16 kwietnia — NotebookLM umożliwia teraz dodanie własnej ilustracji okładki i opisu do dowolnego notebooka. Funkcja ma na celu personalizację widoku siatki przed udostępnieniem notebooka. Zalecany format: obraz 16:9.

🔗 Ogłoszenie NotebookLM na X


W skrócie

TeenAegis AI Danger Index (18 kwi.) — W swoim pierwszym indeksie niebezpieczeństwa AI (AI Danger Index), TeenAegis przyznał OpenAI najniższy wynik ryzyka spośród ocenianych dostawców. Indeks ocenia ochronę młodych użytkowników: kontrolę dostosowaną do wieku, nadzór, zgłaszanie i środki ochrony. 🔗 Tweet OpenAI Newsroom

OpenAI Academy — 3M+ użytkowników (19 kwi.) — Platforma szkoleniowa AI OpenAI przekracza 3 miliony użytkowników, a w tym tygodniu organizowane są wydarzenia stacjonarne od Warszawy po Abilene (Teksas), w tym w Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom


Co to oznacza

Porozumienie Anthropic-Amazon jest strukturalne pod kilkoma względami: formalizuje wzajemną zależność (Anthropic potrzebuje compute, Amazon potrzebuje Claude, by Bedrock był konkurencyjny), a ujednolicone rozliczanie AWS usuwa realną barierę dla zespołów już działających w ekosystemie Amazona. Wartość run-rate na poziomie $30B annualizowanych przychodów, ponad trzykrotnie wyższa w kilka miesięcy, wyjaśnia, dlaczego infrastruktura jest pod presją i dlaczego to porozumienie było pilne.

Po stronie modeli dzień 20 kwietnia pokazuje dynamikę szybkiego zawężania różnic: Kimi K2.6 w open-source osiąga wyniki porównywalne z modelami własnościowymi wypuszczonymi zaledwie kilka tygodni temu, a Qwen3.6-Max-Preview ustawia Alibaba na czele benchmarków coding jeszcze przed finalną wersją. Restrukturyzacja planów Copilot w GitHub sygnalizuje napięcie między szeroką adopcją (Free) a trwałą monetyzacją (Pro+), z doświadczeniem użytkownika, które fragmentuje się zależnie od tieru.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator