Căutare

Anthropic + Amazon 5 GW $5B, GitHub Copilot își restructurează planurile, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot își restructurează planurile, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Pe 20 aprilie 2026 sunt concentrate mai multe anunțuri importante: Anthropic și Amazon își extind parteneriatul în jurul a 5 GW de capacitate de calcul și a unei investiții de $5B, GitHub suspendă noile înscrieri la planurile Copilot individuale în timp ce înăsprește limitele de utilizare, iar două modele noi ridică standardul în benchmark-urile de coding — Kimi K2.6 în open-source și Qwen3.6-Max-Preview în proprietar. OpenAI lansează, de asemenea, Codex Chronicle, o memorie contextuală bazată pe capturi de ecran.


Anthropic și Amazon — 5 GW de compute, investiție de $5B

20 aprilie — Anthropic și Amazon au semnat un nou acord de infrastructură care asigură până la 5 gigawați (GW) de capacitate de calcul pentru antrenarea și implementarea Claude. O capacitate semnificativă de Trainium2 ajunge chiar din al doilea trimestru al anului 2026, cu aproape 1 GW total de Trainium2 și Trainium3 așteptat până la sfârșitul lui 2026.

Acordul este structurat în trei componente:

ComponentăDetaliu
InfrastructurăAngajament de peste 100 miliarde USD pe 10 ani către AWS, acoperind Graviton și Trainium2 până la Trainium4
Claude Platform pe AWSPlatforma completă Claude integrată direct în AWS — același cont, aceeași facturare, fără contracte separate
InvestițieAmazon investește astăzi $5 miliarde USD în Anthropic, cu până la $20 miliarde USD suplimentare în viitor

Anthropic dezvăluie că veniturile sale anualizate depășesc acum 30 miliarde USD, față de aproximativ 9 miliarde la sfârșitul lui 2025. Această creștere rapidă a pus presiune pe infrastructura existentă, afectând fiabilitatea pentru utilizatorii gratuit, Pro, Max și Team în orele de vârf.

Peste 100 000 de clienți folosesc deja Claude pe Amazon Bedrock, iar Anthropic utilizează peste un milion de cipuri Trainium2. Claude Platform completă este acum accesibilă direct din contul AWS fără a necesita contracte separate — o schimbare concretă pentru dezvoltatorii și companiile deja aflate pe AWS.

Claude rămâne, de asemenea, singurul model de IA de vârf disponibil pe cele trei principale platforme cloud globale: AWS (Bedrock), Google Cloud (Vertex AI) și Microsoft Azure.

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇷🇴 „Utilizatorii noștri ne spun că Claude devine tot mai esențial pentru modul în care lucrează, iar noi trebuie să construim infrastructura pentru a ține pasul cu o cerere în creștere rapidă.”Dario Amodei, via @AnthropicAI pe X

🔗 Anunț oficial Anthropic


GitHub Copilot — Suspendarea înscrierilor Pro/Pro+ și înăsprirea limitelor

20 aprilie — GitHub publică schimbări semnificative pentru planurile individuale Copilot. Noile înscrieri la planurile Pro, Pro+ și Student sunt suspendate imediat. Planul Copilot Free rămâne însă deschis.

Schimbările în detaliu:

SchimbareDetaliu
Pauză înscrieriPro, Pro+, Student — închise pentru utilizatorii noi. Copilot Free rămâne deschis
Limite de utilizarePro+ oferă de 5× limitele Pro. Avertizări în VS Code și Copilot CLI pe măsură ce se apropie limita
Modele OpusOpus retras din Copilot Pro. Opus 4.7 rămâne disponibil doar pe Pro+. Opus 4.5 și 4.6 vor fi, de asemenea, retrase ulterior din Pro+
RambursarePosibilitatea de a anula și de a fi rambursat pentru aprilie contactând suportul între 20 aprilie și 20 mai 2026

Pentru utilizatorii deja abonați, planurile existente rămân active. Impactul concret: utilizatorii Pro care aveau acces la modelele Opus pierd acest acces, în timp ce Pro+ devine de facto nivelul intermediar cu un quota de 5× mai mare. Fereastra de rambursare până pe 20 mai lasă o lună pentru decizie.

🔗 GitHub Changelog — Modificări pentru planurile individuale


Kimi K2.6 — SOTA open-source în coding și agenți

20 aprilie — Moonshot AI lansează Kimi K2.6, un nou model open-source care stabilește mai multe recorduri (state of the art) pe benchmark-urile de coding și de agenți. Anunțul a generat peste 1,5 milioane de vizualizări în câteva ore.

Benchmark-uri open-source :

BenchmarkScor K2.6
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

Îmbunătățirile față de K2.5 sunt substanțiale. La coding pe termen lung (long-horizon coding), K2.6 poate efectua până la 4 000 de apeluri de instrumente într-o sesiune și poate rula mai mult de 12 ore continuu, cu generalizare multi-limbaj (Rust, Go, Python) și multi-sarcină (frontend, DevOps, optimizare de performanță).

Arhitectura multi-agent a avansat, de asemenea: 300 de sub-agenți paralele × 4 000 de pași per execuție, față de 100 de sub-agenți × 1 500 de pași pentru K2.5. K2.6 suportă nativ interfețe frontend avansate — videoclipuri în secțiunile hero, shader-e WebGL, animații GSAP + Framer Motion, randări 3D Three.js.

Greutățile sunt disponibile open-source pe HuggingFace. API-ul este accesibil pe platform.moonshot.ai, iar modelul rulează în mod chat și în mod agent pe kimi.com.

🔗 Anunț Kimi K2.6 pe X — 🔗 Blog Kimi K2.6 — 🔗 Greutăți pe HuggingFace


Qwen3.6-Max-Preview — Avanpremiera următorului model emblematic

20 aprilie — Alibaba Qwen lansează Qwen3.6-Max-Preview, o avanpremieră a următorului său model proprietar emblematic, succesor al Qwen3.6-Plus.

Câștiguri pe benchmark-uri față de Qwen3.6-Plus :

BenchmarkCâștig
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

Modelul se poziționează pe primul loc pe 6 benchmark-uri majore de coding: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench și SciCode. Este disponibil de astăzi în acces anticipat prin chat.qwen.ai și prin API-ul Alibaba Cloud Model Studio sub identificatorul qwen3.6-max-preview. Este compatibil cu specificațiile OpenAI și Anthropic și suportă modul preserve_thinking pentru sarcini agentice.

Este vorba despre o versiune aflată încă în dezvoltare activă — sunt anunțate iterații suplimentare înainte de lansarea finală.

🔗 Anunț Qwen pe X — 🔗 Blog Qwen3.6-Max-Preview


Codex Chronicle (Research Preview) — Memorie contextuală prin capturi de ecran

20 aprilie — OpenAI lansează Codex Chronicle în Research Preview, o nouă funcționalitate de memorie contextuală pentru Codex. Chronicle rulează agenți în fundal pentru a construi memorii din capturi de ecran recente, permițând lui Codex să reia o sesiune de lucru fără ca utilizatorul să fie nevoit să actualizeze manual contextul.

Cum funcționează: agenții capturează periodic ecranul, extrag contextul de lucru și stochează memorii local pe dispozitiv. Utilizatorul poate inspecta și modifica aceste memorii. OpenAI avertizează că alte aplicații pot potențial accesa fișierele de captură.

Disponibilitate limitată la lansare: rezervat utilizatorilor Pro pe macOS, exclus din țările UE, Marea Britanie și Elveția în timpul fazei de învățare.

🔗 Anunț Codex Chronicle pe X


Grok — Extensii video coerente

20 aprilie — Grok Imagine anunță extensii video îmbunătățite (Smarter Video Extensions). Grok vede acum promptul original și clipul sursă pentru a genera extensii coerente ca mesaj și audio. Continuitatea audio este menținută pe toată durata extensiei. Disponibil în aplicația Grok și pe web.

🔗 Anunț Grok pe X


NotebookLM — Coperti personalizate pentru notebook-uri

16 aprilie — NotebookLM permite acum adăugarea unei imagini de copertă personalizate și a unei descrieri la orice notebook. Funcționalitatea urmărește personalizarea afișajului în grilă înainte de a partaja un notebook. Format recomandat: imagine 16:9.

🔗 Anunț NotebookLM pe X


Pe scurt

TeenAegis AI Danger Index (18 apr.) — În primul său indice de periculozitate al IA (AI Danger Index), TeenAegis a atribuit OpenAI cel mai mic scor de risc dintre furnizorii evaluați. Indicele evaluează protecția utilizatorilor tineri: controale adaptate vârstei, monitorizare, raportare și măsuri de protecție. 🔗 Tweet OpenAI Newsroom

OpenAI Academy — 3M+ utilizatori (19 apr.) — Platforma de formare în IA a OpenAI depășește 3 milioane de utilizatori, cu evenimente în persoană organizate săptămâna aceasta de la Varșovia la Abilene (Texas), trecând prin Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom


Ce înseamnă asta

Acordul Anthropic-Amazon este structurant sub mai multe aspecte: formalizează o dependență reciprocă (Anthropic are nevoie de compute, Amazon are nevoie de Claude pentru a face Bedrock competitiv), iar facturarea unificată AWS elimină o fricțiune reală pentru echipele deja din ecosistemul Amazon. Cifra de run-rate de $30B anualizat, multiplicată de peste 3 în câteva luni, explică de ce infrastructura este sub presiune și de ce acest acord era urgent.

Pe partea de modele, ziua de 20 aprilie ilustrează o dinamică de comprimare rapidă a diferențelor: Kimi K2.6 în open-source atinge scoruri comparabile cu modele proprietare lansate cu doar câteva săptămâni în urmă, iar Qwen3.6-Max-Preview poziționează Alibaba pe primul loc în benchmark-urile de coding chiar înainte de versiunea finală. Restructurarea planurilor Copilot la GitHub semnalează o tensiune între adoptarea largă (Free) și monetizarea durabilă (Pro+), cu o experiență utilizator care se fragmentează în funcție de nivel.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5.4-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator