25 și 26 martie aduc mai multe anunțuri structurante din partea Anthropic: Claude integrează Figma, Canva și Amplitude ca instrumente de lucru direct din mobil, iar Claude Code vede lansarea sa accelerată de 2,8x datorită a 60 de zile de optimizări Bun. GitHub Copilot își modifică politica de utilizare a datelor de interacțiune cu un opt-out care trebuie activat înainte de 24 aprilie. Google DeepMind lansează Lyria 3 Pro cu generare muzicală extinsă până la 3 minute, iar NVIDIA înființează Nemotron Coalition la GTC 2026.
Claude: instrumente de lucru pe mobil (Figma, Canva, Amplitude)
25 martie — Claude integrează acum trei instrumente de lucru accesibile direct din aplicația mobilă: Figma, Canva și Amplitude. Utilizatorii pot astfel să gestioneze fluxuri de lucru de design, creație și analiză de pe telefon, fără a părăsi interfața Claude.
Anunțul pe X, însoțit de un clip demonstrativ, a adunat 1,9 milioane de vizualizări în câteva ore — semn că integrarea unor instrumente profesionale în interfața mobilă răspunde unei așteptări puternice.
Claude Code: pornire de 2,8x mai rapidă, Agent SDK 5,1x
24 martie — După 60 de zile de optimizări conduse de Jarred Sumner (creatorul Bun, achiziționat de Anthropic în decembrie 2025), Claude Code pornește acum de 2,8x mai repede, iar Agent SDK afișează performanțe de 5,1x superioare.
Aceste câștiguri sunt rezultatul unui efort la nivel scăzut asupra runtime-ului Bun integrat în Claude Code — optimizări ale pornirii, ale gestionării memoriei și ale timpului de răspuns inițial. Repostat de Brian Cherny (@bcherny, echipa Claude Code), acest thread tehnic ilustrează concret ce aduce integrarea Bun în nucleul uneltelor Claude.
GitHub Copilot: opt-out pentru datele de interacțiune înainte de 24 aprilie
25 martie — Mario Rodriguez, director de produs la GitHub, anunță o actualizare a politicii de utilizare a datelor de interacțiune ale Copilot. Începând cu 24 aprilie 2026, GitHub va folosi datele de interacțiune ale utilizatorilor Copilot Free, Pro și Pro+ — intrări, ieșiri, fragmente de cod și context asociat — pentru a antrena și îmbunătăți modelele sale IA.
Utilizatorii afectați pot dezactiva acest partajare din setările contului înainte de această dată. Abonații Copilot Business și Copilot Enterprise nu sunt afectați de această schimbare — datele lor rămân supuse acordurilor contractuale existente, care exclud antrenamentul.
| Plan | Afectat de această schimbare | Opt-out disponibil |
|---|---|---|
| Copilot Free | Da | Da |
| Copilot Pro | Da | Da |
| Copilot Pro+ | Da | Da |
| Copilot Business | Nu | — |
| Copilot Enterprise | Nu | — |
Punctul de cotitură este 24 aprilie: utilizatorii care nu au dezactivat partajarea înainte de această dată vor începe să contribuie la datele de antrenament.
🔗 Actualizare politică date GitHub Copilot 🔗 Anunț pe X
Lyria 3 Pro: piese muzicale de până la 3 minute cu arhitectură muzicală
25 martie — Google DeepMind lansează Lyria 3 Pro, o versiune avansată a modelului de generare muzicală Lyria 3 lansat în luna precedentă. Noutatea principală: capacitatea de a genera piese de până la 3 minute, față de 30 de secunde pentru generația anterioară — un factor de 6.
Modelul include acum arhitectura muzicală (musical architecture) — intro-uri, strofe, refrene, poduri — ceea ce permite producerea de piese cu tranziții coerente și structuri elaborate. Prompt-urile acceptă text, imagini sau video ca punct de plecare.
| Platformă | Acces | Statut |
|---|---|---|
| Aplicația Gemini | Abonați plătitori | Disponibil |
| Google AI Studio + API Gemini | Dezvoltatori | Disponibil cu Lyria RealTime |
| Vertex AI | Companii | Preview public |
| Google Vids | Workspace + AI Pro/Ultra | Deplasare săptămâna 25 martie |
| ProducerAI | Gratuit și plătit | Experiență agentică pentru muzicieni |
Lyria 3 Pro a fost folosit de producătorul Yung Spielburg pentru scurtmetrajul Google DeepMind “Dear Upstairs Neighbors”, iar o colaborare este anunțată cu DJ-ul François K pentru o piesă viitoare.
🔗 Blog oficial Google — Lyria 3 Pro 🔗 Anunț pe X
NVIDIA Nemotron Coalition: modele fundamentale deschise de nivel frontier
25 martie — Ocazie NVIDIA GTC 2026, Jensen Huang anunță crearea NVIDIA Nemotron Coalition, o coaliție globală de constructori de modele dedicată dezvoltării de modele fundamentale deschise de nivel frontier (frontier open foundation models).
Primul proiect concret al coaliției va fi un model de bază codévelopat de Mistral AI și NVIDIA, cu membri care contribuie la date, evaluări și expertiză de domeniu. Paneliștii sesiunii GTC includ Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), precum și reprezentanți ai Cursor și Ai2.
Câteva cifre evidențiate în cadrul evenimentului:
- NVIDIA este acum cea mai mare organizație pe Hugging Face, cu aproximativ 4 000 de membri
- Modelele Nemotron au fost descărcate de peste 45 de milioane de ori
“Proprietary versus open is not a thing. It’s proprietary and open.”
🇷🇴 Diferența între proprietar și deschis nu există cu adevărat. Este proprietar și deschis. — Jensen Huang, NVIDIA GTC 2026
🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary
OpenAI: culisele Model Spec și evaluările asociate
25 martie — OpenAI publică o explicație detaliată a demersului său în jurul Model Spec — cadrul public care definește cum ar trebui să se comporte modelele sale. Acest articol, semnat de Jason Wolfe (cercetător OpenAI), explică filosofia, structura și mecanismele de evoluție.
Model Spec se articulează în jurul mai multor niveluri distincte:
| Nivel | Descriere |
|---|---|
| Intenții și angajamente publice | Obiective la nivel înalt: implementare iterativă, evitarea daunelor grave |
| Lanțul de comandă (Chain of Command) | Reguli de rezolvare a conflictelor între instrucțiunile OpenAI, dezvoltatori și utilizatori |
| Reguli stricte (Hard rules) | Limite nemodificabile: riscuri catastrofale, vătămări fizice, conținut ilegal |
| Comportamente implicite | Puncte de plecare configurabile de dezvoltatori și utilizatori |
| Ajutoare de interpretare | Reguli de decizie și exemple pentru cazuri ambigue |
Distincția centrală: regulile stricte sunt de netrecut (nivel “root”), în timp ce comportamentele implicite sunt configurabile — ceea ce permite maximizarea libertății utilizatorilor în limitele de securitate.
OpenAI argumentează că o IA suficient de avansată nu poate deduce pur și simplu comportamentul corect din obiective generale precum “a fi util și sigur”: aceste formulări sunt prea dependente de context și implică compromisuri de valori. Model Spec servește atât ca țintă internă, instrument de transparență, cât și mecanism de coordonare între echipe.
Paralel, OpenAI publică Model Spec Evals — o suită de evaluări de scenarii care încearcă să acopere afirmațiile Model Spec cu exemple reprezentative, pentru a măsura decalajele dintre comportamentul real al modelului și specificație.
🔗 Despre abordarea noastră privind Model Spec 🔗 Anunț pe X
Genspark Realtime Voice: asistent vocal hands-free
25 martie — Genspark lansează Realtime Voice, un asistent vocal în timp real, complet hands-free. Cazul de utilizare pus în valoare la lansare: folosirea în mașină pe traseul casă-serviciu.
Funcționalitățile anunțate includ verificarea agendei, trimiterea de e‑mailuri și mesaje, căutarea de informații și crearea de playlisturi pentru drum. Asistentul poate de asemenea să genereze prezentări (slides), să efectueze cercetări profunde (deep research) și să analizeze date — totul prin voce.
OpenAI Safety Bug Bounty: raportarea riscurilor IA
25 martie — OpenAI lansează un program de bug bounty dedicat securității IA, distinct de programul clasic de securitate informatică deja existent. Noul program acceptă raportări privind riscuri de abuz care nu corespund neapărat vulnerabilităților software tradiționale.
| Categorie în perimetru | Exemple |
|---|---|
| Riscuri agentice (inclusiv MCP) | Injectare de prompt de către terți, exfiltrare prin agent, acțiuni neautorizate la scară largă |
| Informații proprietare OpenAI | Generare care dezvăluie informații de raționament proprietare |
| Integritatea conturilor și platformelor | Ocolirea controalelor anti-automatizare, manipularea semnalelor de încredere |
Jailbreak-urile clasice rămân în afara perimetrului. OpenAI precizează de asemenea că desfășoară campanii private punctuale pe tipuri specifice de daune — de exemplu conținuturi cu risc biologic în ChatGPT Agent și GPT-5.
🔗 Introducing the OpenAI Safety Bug Bounty program
Codex Creator Challenge: concurs pentru studenți cu 10 000 $ în credite
25 martie — OpenAI și Handshake lansează Codex Creator Challenge, un concurs destinat studenților pentru a crea proiecte reale cu Codex. Premiul: 10 000 $ în credite API OpenAI. Provocarea invită studenții să experimenteze cu uneltele Codex și să construiască aplicații concrete.
ElevenLabs: Guardrails 2.0 în ElevenAgents, certificat AIUC-1
24 martie — ElevenLabs implementează Guardrails 2.0 în platforma sa ElevenAgents. Acest strat de securitate permite controlul comportamentului agenților în producție cu politici de business personalizabile sau protecții preconfigurate: menținere în subiect (on-topic), coerență de brand (on-brand), rezistență la manipulare.
Guardrails 2.0 este certificat AIUC-1 (AI Use Case standard) și include funcționalități de protecție a datelor, redactare a istoricului conversațiilor și monitorizare post-deploy.
PrismAudio: model video-to-audio open source de Tongyi Lab (Alibaba)
24 martie — Tongyi Lab de la Alibaba publică PrismAudio, un model video-versus-audio (Video-to-Audio). Spre deosebire de abordările V2A (Video-to-Audio) clasice care optimizează totul cu o singură funcție de pierdere, PrismAudio adoptă o arhitectură “Decomposed Multi-CoT” cu trei capete specializate separate — fiecare dedicată unui aspect distinct al generării audio.
Modelul este antrenat cu Multi-Dimensional RL și Fast-GRPO pentru a alinia generarea audio la preferințele umane. Resursele (model, demo, paper arXiv) sunt publicate prin HuggingFace, ModelScope și o pagină de proiect dedicată.
Claude Code v2.1.83: gestionare centralizată a setărilor Enterprise
25 martie — Versiunea 2.1.83 de Claude Code introduce directorul drop-in managed-settings.d/, destinat administratorilor Enterprise. Acest director permite organizațiilor să gestioneze setările Claude Code în mod centralizat, prin depunerea de fișiere de configurare care se aplică tuturor stațiilor dintr-un deployment.
Kling AI Team Plan: colaborare până la 15 membri
24 martie — Kling AI lansează Team Plan, un plan colaborativ care permite echipelor de până la 15 membri să lucreze împreună pe platformă. Planul include active partajate și utilizare comercială a creațiilor.
Manus Desktop: credite înjumătățite până pe 30 martie
24 martie — Manus oferă o promoție temporară pe aplicația Desktop: din 24 până pe 30 martie 2026, fiecare sarcină executată consumă cu 50% mai puține credite. Creditele existente valorează astfel dublu pentru toate sarcinile realizate prin Manus Desktop în această perioadă.
NVIDIA donează driverul său DRA GPU comunității Kubernetes
24 martie — În marja NVIDIA GTC 2026, NVIDIA anunță donația către comunitatea Kubernetes a driverului său Dynamic Resource Allocation (DRA) pentru GPU-uri. Această contribuție se înscrie în angajamentul open source al NVIDIA și facilitează alocarea dinamică a resurselor GPU în medii Kubernetes.
🔗 Blog NVIDIA — AI Future Open and Proprietary
Ce înseamnă asta
Cele două anunțuri Anthropic din această perioadă sunt complementare: integrarea mobilă a Figma, Canva și Amplitude apropie Claude de fluxurile profesionale de lucru zilnice, în timp ce câștigurile la pornire ale Claude Code (2,8x) și ale Agent SDK (5,1x) îmbunătățesc concret experiența dezvoltatorilor care îl folosesc continuu. Aceste două axe — utilizare mobilă pentru publicul larg și performanță pentru dezvoltatori — ilustrează traiectoria dublă a Anthropic.
Decizia GitHub Copilot privind datele de interacțiune este cea mai cu impact pentru dezvoltatorii individuali: pentru prima dată, utilizatorii planurilor publice (Free, Pro, Pro+) văd interacțiunile lor potențial folosite pentru antrenament. Opt-out există, dar trebuie activat înainte de 24 aprilie — acest interval scurt merită remarcat.
Nemotron Coalition a NVIDIA este un semnal puternic asupra strategiei open source din industrie. Reunind Mistral, Black Forest Labs, Cursor și alții sub o coaliție formală pentru a dezvolta modele de nivel frontier, NVIDIA poziționează open source-ul nu ca alternativă la modelele proprietare, ci ca o categorie complementară de sine stătătoare. Replica lui Jensen Huang — “proprietar și deschis”, nu “versus” — rezumă bine acest repoziționare. Lyria 3 Pro confirmă că generarea muzicală progresează către formate utilizabile în producție: 3 minute cu o structură coerentă (intro-uri, strofe, refrene) schimbă natura cazului de utilizare, trecând de la fragmente experimentale la piese complete. Disponibilitatea pe mai multe platforme Google încă din săptămâna lansării accelerează adoptarea.
Publicarea Model Spec Evals de către OpenAI — o suită de evaluări care măsoară abaterile dintre comportamentul modelului și specificația scrisă — este notabilă: este una dintre primele încercări publice de a măsura obiectiv alinierea unui model cu propriile sale reguli de conduită.
Surse
- Actualizare a politicii privind utilizarea datelor GitHub Copilot
- Tweet @github — politică privind datele
- Blog Google — Lyria 3 Pro
- Tweet @GoogleAI — Lyria 3 Pro
- Blog NVIDIA — Viitorul AI este deschis și proprietar
- Tweet @NVIDIAAI — Cohere + IA suverană GTC
- OpenAI — Despre abordarea noastră privind Model Spec
- Tweet @OpenAI — Model Spec
- OpenAI — Programul Safety Bug Bounty
- Tweet @OpenAIDevs — Codex Creator Challenge
- Tweet @genspark_ai — Realtime Voice
- Tweet @ElevenLabs — Guardrails 2.0
- Tweet @Ali_TongyiLab — PrismAudio
- Tweet @ManusAI — promo Manus Desktop
- Tweet @claudeai — Claude: instrumente de lucru mobile
- Fir @jarredsumner — Claude Code startup 2,8x / Agent SDK 5,1x
- CHANGELOG Claude Code — v2.1.83
- Tweet @Kling_ai — Plan de echipă
Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator