Pe 20 aprilie 2026 sunt concentrate mai multe anunțuri importante: Anthropic și Amazon își extind parteneriatul în jurul a 5 GW de capacitate de calcul și a unei investiții de $5B, GitHub suspendă noile înscrieri la planurile Copilot individuale în timp ce înăsprește limitele de utilizare, iar două modele noi ridică standardul în benchmark-urile de coding — Kimi K2.6 în open-source și Qwen3.6-Max-Preview în proprietar. OpenAI lansează, de asemenea, Codex Chronicle, o memorie contextuală bazată pe capturi de ecran.
Anthropic și Amazon — 5 GW de compute, investiție de $5B
20 aprilie — Anthropic și Amazon au semnat un nou acord de infrastructură care asigură până la 5 gigawați (GW) de capacitate de calcul pentru antrenarea și implementarea Claude. O capacitate semnificativă de Trainium2 ajunge chiar din al doilea trimestru al anului 2026, cu aproape 1 GW total de Trainium2 și Trainium3 așteptat până la sfârșitul lui 2026.
Acordul este structurat în trei componente:
| Componentă | Detaliu |
|---|---|
| Infrastructură | Angajament de peste 100 miliarde USD pe 10 ani către AWS, acoperind Graviton și Trainium2 până la Trainium4 |
| Claude Platform pe AWS | Platforma completă Claude integrată direct în AWS — același cont, aceeași facturare, fără contracte separate |
| Investiție | Amazon investește astăzi $5 miliarde USD în Anthropic, cu până la $20 miliarde USD suplimentare în viitor |
Anthropic dezvăluie că veniturile sale anualizate depășesc acum 30 miliarde USD, față de aproximativ 9 miliarde la sfârșitul lui 2025. Această creștere rapidă a pus presiune pe infrastructura existentă, afectând fiabilitatea pentru utilizatorii gratuit, Pro, Max și Team în orele de vârf.
Peste 100 000 de clienți folosesc deja Claude pe Amazon Bedrock, iar Anthropic utilizează peste un milion de cipuri Trainium2. Claude Platform completă este acum accesibilă direct din contul AWS fără a necesita contracte separate — o schimbare concretă pentru dezvoltatorii și companiile deja aflate pe AWS.
Claude rămâne, de asemenea, singurul model de IA de vârf disponibil pe cele trei principale platforme cloud globale: AWS (Bedrock), Google Cloud (Vertex AI) și Microsoft Azure.
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇷🇴 „Utilizatorii noștri ne spun că Claude devine tot mai esențial pentru modul în care lucrează, iar noi trebuie să construim infrastructura pentru a ține pasul cu o cerere în creștere rapidă.” — Dario Amodei, via @AnthropicAI pe X
GitHub Copilot — Suspendarea înscrierilor Pro/Pro+ și înăsprirea limitelor
20 aprilie — GitHub publică schimbări semnificative pentru planurile individuale Copilot. Noile înscrieri la planurile Pro, Pro+ și Student sunt suspendate imediat. Planul Copilot Free rămâne însă deschis.
Schimbările în detaliu:
| Schimbare | Detaliu |
|---|---|
| Pauză înscrieri | Pro, Pro+, Student — închise pentru utilizatorii noi. Copilot Free rămâne deschis |
| Limite de utilizare | Pro+ oferă de 5× limitele Pro. Avertizări în VS Code și Copilot CLI pe măsură ce se apropie limita |
| Modele Opus | Opus retras din Copilot Pro. Opus 4.7 rămâne disponibil doar pe Pro+. Opus 4.5 și 4.6 vor fi, de asemenea, retrase ulterior din Pro+ |
| Rambursare | Posibilitatea de a anula și de a fi rambursat pentru aprilie contactând suportul între 20 aprilie și 20 mai 2026 |
Pentru utilizatorii deja abonați, planurile existente rămân active. Impactul concret: utilizatorii Pro care aveau acces la modelele Opus pierd acest acces, în timp ce Pro+ devine de facto nivelul intermediar cu un quota de 5× mai mare. Fereastra de rambursare până pe 20 mai lasă o lună pentru decizie.
🔗 GitHub Changelog — Modificări pentru planurile individuale
Kimi K2.6 — SOTA open-source în coding și agenți
20 aprilie — Moonshot AI lansează Kimi K2.6, un nou model open-source care stabilește mai multe recorduri (state of the art) pe benchmark-urile de coding și de agenți. Anunțul a generat peste 1,5 milioane de vizualizări în câteva ore.
Benchmark-uri open-source :
| Benchmark | Scor K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
Îmbunătățirile față de K2.5 sunt substanțiale. La coding pe termen lung (long-horizon coding), K2.6 poate efectua până la 4 000 de apeluri de instrumente într-o sesiune și poate rula mai mult de 12 ore continuu, cu generalizare multi-limbaj (Rust, Go, Python) și multi-sarcină (frontend, DevOps, optimizare de performanță).
Arhitectura multi-agent a avansat, de asemenea: 300 de sub-agenți paralele × 4 000 de pași per execuție, față de 100 de sub-agenți × 1 500 de pași pentru K2.5. K2.6 suportă nativ interfețe frontend avansate — videoclipuri în secțiunile hero, shader-e WebGL, animații GSAP + Framer Motion, randări 3D Three.js.
Greutățile sunt disponibile open-source pe HuggingFace. API-ul este accesibil pe platform.moonshot.ai, iar modelul rulează în mod chat și în mod agent pe kimi.com.
🔗 Anunț Kimi K2.6 pe X — 🔗 Blog Kimi K2.6 — 🔗 Greutăți pe HuggingFace
Qwen3.6-Max-Preview — Avanpremiera următorului model emblematic
20 aprilie — Alibaba Qwen lansează Qwen3.6-Max-Preview, o avanpremieră a următorului său model proprietar emblematic, succesor al Qwen3.6-Plus.
Câștiguri pe benchmark-uri față de Qwen3.6-Plus :
| Benchmark | Câștig |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
Modelul se poziționează pe primul loc pe 6 benchmark-uri majore de coding: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench și SciCode. Este disponibil de astăzi în acces anticipat prin chat.qwen.ai și prin API-ul Alibaba Cloud Model Studio sub identificatorul qwen3.6-max-preview. Este compatibil cu specificațiile OpenAI și Anthropic și suportă modul preserve_thinking pentru sarcini agentice.
Este vorba despre o versiune aflată încă în dezvoltare activă — sunt anunțate iterații suplimentare înainte de lansarea finală.
🔗 Anunț Qwen pe X — 🔗 Blog Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Memorie contextuală prin capturi de ecran
20 aprilie — OpenAI lansează Codex Chronicle în Research Preview, o nouă funcționalitate de memorie contextuală pentru Codex. Chronicle rulează agenți în fundal pentru a construi memorii din capturi de ecran recente, permițând lui Codex să reia o sesiune de lucru fără ca utilizatorul să fie nevoit să actualizeze manual contextul.
Cum funcționează: agenții capturează periodic ecranul, extrag contextul de lucru și stochează memorii local pe dispozitiv. Utilizatorul poate inspecta și modifica aceste memorii. OpenAI avertizează că alte aplicații pot potențial accesa fișierele de captură.
Disponibilitate limitată la lansare: rezervat utilizatorilor Pro pe macOS, exclus din țările UE, Marea Britanie și Elveția în timpul fazei de învățare.
Grok — Extensii video coerente
20 aprilie — Grok Imagine anunță extensii video îmbunătățite (Smarter Video Extensions). Grok vede acum promptul original și clipul sursă pentru a genera extensii coerente ca mesaj și audio. Continuitatea audio este menținută pe toată durata extensiei. Disponibil în aplicația Grok și pe web.
NotebookLM — Coperti personalizate pentru notebook-uri
16 aprilie — NotebookLM permite acum adăugarea unei imagini de copertă personalizate și a unei descrieri la orice notebook. Funcționalitatea urmărește personalizarea afișajului în grilă înainte de a partaja un notebook. Format recomandat: imagine 16:9.
Pe scurt
TeenAegis AI Danger Index (18 apr.) — În primul său indice de periculozitate al IA (AI Danger Index), TeenAegis a atribuit OpenAI cel mai mic scor de risc dintre furnizorii evaluați. Indicele evaluează protecția utilizatorilor tineri: controale adaptate vârstei, monitorizare, raportare și măsuri de protecție. 🔗 Tweet OpenAI Newsroom
OpenAI Academy — 3M+ utilizatori (19 apr.) — Platforma de formare în IA a OpenAI depășește 3 milioane de utilizatori, cu evenimente în persoană organizate săptămâna aceasta de la Varșovia la Abilene (Texas), trecând prin Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom
Ce înseamnă asta
Acordul Anthropic-Amazon este structurant sub mai multe aspecte: formalizează o dependență reciprocă (Anthropic are nevoie de compute, Amazon are nevoie de Claude pentru a face Bedrock competitiv), iar facturarea unificată AWS elimină o fricțiune reală pentru echipele deja din ecosistemul Amazon. Cifra de run-rate de $30B anualizat, multiplicată de peste 3 în câteva luni, explică de ce infrastructura este sub presiune și de ce acest acord era urgent.
Pe partea de modele, ziua de 20 aprilie ilustrează o dinamică de comprimare rapidă a diferențelor: Kimi K2.6 în open-source atinge scoruri comparabile cu modele proprietare lansate cu doar câteva săptămâni în urmă, iar Qwen3.6-Max-Preview poziționează Alibaba pe primul loc în benchmark-urile de coding chiar înainte de versiunea finală. Restructurarea planurilor Copilot la GitHub semnalează o tensiune între adoptarea largă (Free) și monetizarea durabilă (Pro+), cu o experiență utilizator care se fragmentează în funcție de nivel.
Surse
- Anunț oficial Anthropic + Amazon
- @AnthropicAI pe X — tweet principal
- @AnthropicAI pe X — detalii $5B/$20B
- GitHub Changelog — Modificări pentru planurile individuale Copilot
- @Kimi_Moonshot pe X — Kimi K2.6
- Blog Kimi K2.6
- Kimi K2.6 pe HuggingFace
- @Alibaba_Qwen pe X — Qwen3.6-Max-Preview
- Blog Qwen3.6-Max-Preview
- @OpenAIDevs pe X — Codex Chronicle
- @grok pe X — Smarter Video Extensions
- @NotebookLM pe X — Coperti personalizate
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3M+
Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5.4-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator