Căutare

Claude integrează Figma/Canva pe mobil și Claude Code pornește de 2,8x mai repede, GitHub Copilot își schimbă politica de date

Claude integrează Figma/Canva pe mobil și Claude Code pornește de 2,8x mai repede, GitHub Copilot își schimbă politica de date

25 și 26 martie aduc mai multe anunțuri structurante din partea Anthropic: Claude integrează Figma, Canva și Amplitude ca instrumente de lucru direct din mobil, iar Claude Code vede lansarea sa accelerată de 2,8x datorită a 60 de zile de optimizări Bun. GitHub Copilot își modifică politica de utilizare a datelor de interacțiune cu un opt-out care trebuie activat înainte de 24 aprilie. Google DeepMind lansează Lyria 3 Pro cu generare muzicală extinsă până la 3 minute, iar NVIDIA înființează Nemotron Coalition la GTC 2026.


Claude: instrumente de lucru pe mobil (Figma, Canva, Amplitude)

25 martie — Claude integrează acum trei instrumente de lucru accesibile direct din aplicația mobilă: Figma, Canva și Amplitude. Utilizatorii pot astfel să gestioneze fluxuri de lucru de design, creație și analiză de pe telefon, fără a părăsi interfața Claude.

Anunțul pe X, însoțit de un clip demonstrativ, a adunat 1,9 milioane de vizualizări în câteva ore — semn că integrarea unor instrumente profesionale în interfața mobilă răspunde unei așteptări puternice.

🔗 Anunț @claudeai pe X


Claude Code: pornire de 2,8x mai rapidă, Agent SDK 5,1x

24 martie — După 60 de zile de optimizări conduse de Jarred Sumner (creatorul Bun, achiziționat de Anthropic în decembrie 2025), Claude Code pornește acum de 2,8x mai repede, iar Agent SDK afișează performanțe de 5,1x superioare.

Aceste câștiguri sunt rezultatul unui efort la nivel scăzut asupra runtime-ului Bun integrat în Claude Code — optimizări ale pornirii, ale gestionării memoriei și ale timpului de răspuns inițial. Repostat de Brian Cherny (@bcherny, echipa Claude Code), acest thread tehnic ilustrează concret ce aduce integrarea Bun în nucleul uneltelor Claude.

🔗 Fir @jarredsumner pe X


GitHub Copilot: opt-out pentru datele de interacțiune înainte de 24 aprilie

25 martie — Mario Rodriguez, director de produs la GitHub, anunță o actualizare a politicii de utilizare a datelor de interacțiune ale Copilot. Începând cu 24 aprilie 2026, GitHub va folosi datele de interacțiune ale utilizatorilor Copilot Free, Pro și Pro+ — intrări, ieșiri, fragmente de cod și context asociat — pentru a antrena și îmbunătăți modelele sale IA.

Utilizatorii afectați pot dezactiva acest partajare din setările contului înainte de această dată. Abonații Copilot Business și Copilot Enterprise nu sunt afectați de această schimbare — datele lor rămân supuse acordurilor contractuale existente, care exclud antrenamentul.

PlanAfectat de această schimbareOpt-out disponibil
Copilot FreeDaDa
Copilot ProDaDa
Copilot Pro+DaDa
Copilot BusinessNu
Copilot EnterpriseNu

Punctul de cotitură este 24 aprilie: utilizatorii care nu au dezactivat partajarea înainte de această dată vor începe să contribuie la datele de antrenament.

🔗 Actualizare politică date GitHub Copilot 🔗 Anunț pe X


Lyria 3 Pro: piese muzicale de până la 3 minute cu arhitectură muzicală

25 martie — Google DeepMind lansează Lyria 3 Pro, o versiune avansată a modelului de generare muzicală Lyria 3 lansat în luna precedentă. Noutatea principală: capacitatea de a genera piese de până la 3 minute, față de 30 de secunde pentru generația anterioară — un factor de 6.

Modelul include acum arhitectura muzicală (musical architecture) — intro-uri, strofe, refrene, poduri — ceea ce permite producerea de piese cu tranziții coerente și structuri elaborate. Prompt-urile acceptă text, imagini sau video ca punct de plecare.

PlatformăAccesStatut
Aplicația GeminiAbonați plătitoriDisponibil
Google AI Studio + API GeminiDezvoltatoriDisponibil cu Lyria RealTime
Vertex AICompaniiPreview public
Google VidsWorkspace + AI Pro/UltraDeplasare săptămâna 25 martie
ProducerAIGratuit și plătitExperiență agentică pentru muzicieni

Lyria 3 Pro a fost folosit de producătorul Yung Spielburg pentru scurtmetrajul Google DeepMind “Dear Upstairs Neighbors”, iar o colaborare este anunțată cu DJ-ul François K pentru o piesă viitoare.

🔗 Blog oficial Google — Lyria 3 Pro 🔗 Anunț pe X


NVIDIA Nemotron Coalition: modele fundamentale deschise de nivel frontier

25 martie — Ocazie NVIDIA GTC 2026, Jensen Huang anunță crearea NVIDIA Nemotron Coalition, o coaliție globală de constructori de modele dedicată dezvoltării de modele fundamentale deschise de nivel frontier (frontier open foundation models).

Primul proiect concret al coaliției va fi un model de bază codévelopat de Mistral AI și NVIDIA, cu membri care contribuie la date, evaluări și expertiză de domeniu. Paneliștii sesiunii GTC includ Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs), precum și reprezentanți ai Cursor și Ai2.

Câteva cifre evidențiate în cadrul evenimentului:

  • NVIDIA este acum cea mai mare organizație pe Hugging Face, cu aproximativ 4 000 de membri
  • Modelele Nemotron au fost descărcate de peste 45 de milioane de ori

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇷🇴 Diferența între proprietar și deschis nu există cu adevărat. Este proprietar și deschis.Jensen Huang, NVIDIA GTC 2026

🔗 Blog NVIDIA — The Future of AI Is Open and Proprietary


OpenAI: culisele Model Spec și evaluările asociate

25 martie — OpenAI publică o explicație detaliată a demersului său în jurul Model Spec — cadrul public care definește cum ar trebui să se comporte modelele sale. Acest articol, semnat de Jason Wolfe (cercetător OpenAI), explică filosofia, structura și mecanismele de evoluție.

Model Spec se articulează în jurul mai multor niveluri distincte:

NivelDescriere
Intenții și angajamente publiceObiective la nivel înalt: implementare iterativă, evitarea daunelor grave
Lanțul de comandă (Chain of Command)Reguli de rezolvare a conflictelor între instrucțiunile OpenAI, dezvoltatori și utilizatori
Reguli stricte (Hard rules)Limite nemodificabile: riscuri catastrofale, vătămări fizice, conținut ilegal
Comportamente implicitePuncte de plecare configurabile de dezvoltatori și utilizatori
Ajutoare de interpretareReguli de decizie și exemple pentru cazuri ambigue

Distincția centrală: regulile stricte sunt de netrecut (nivel “root”), în timp ce comportamentele implicite sunt configurabile — ceea ce permite maximizarea libertății utilizatorilor în limitele de securitate.

OpenAI argumentează că o IA suficient de avansată nu poate deduce pur și simplu comportamentul corect din obiective generale precum “a fi util și sigur”: aceste formulări sunt prea dependente de context și implică compromisuri de valori. Model Spec servește atât ca țintă internă, instrument de transparență, cât și mecanism de coordonare între echipe.

Paralel, OpenAI publică Model Spec Evals — o suită de evaluări de scenarii care încearcă să acopere afirmațiile Model Spec cu exemple reprezentative, pentru a măsura decalajele dintre comportamentul real al modelului și specificație.

🔗 Despre abordarea noastră privind Model Spec 🔗 Anunț pe X


Genspark Realtime Voice: asistent vocal hands-free

25 martie — Genspark lansează Realtime Voice, un asistent vocal în timp real, complet hands-free. Cazul de utilizare pus în valoare la lansare: folosirea în mașină pe traseul casă-serviciu.

Funcționalitățile anunțate includ verificarea agendei, trimiterea de e‑mailuri și mesaje, căutarea de informații și crearea de playlisturi pentru drum. Asistentul poate de asemenea să genereze prezentări (slides), să efectueze cercetări profunde (deep research) și să analizeze date — totul prin voce.

🔗 Anunț pe X


OpenAI Safety Bug Bounty: raportarea riscurilor IA

25 martie — OpenAI lansează un program de bug bounty dedicat securității IA, distinct de programul clasic de securitate informatică deja existent. Noul program acceptă raportări privind riscuri de abuz care nu corespund neapărat vulnerabilităților software tradiționale.

Categorie în perimetruExemple
Riscuri agentice (inclusiv MCP)Injectare de prompt de către terți, exfiltrare prin agent, acțiuni neautorizate la scară largă
Informații proprietare OpenAIGenerare care dezvăluie informații de raționament proprietare
Integritatea conturilor și platformelorOcolirea controalelor anti-automatizare, manipularea semnalelor de încredere

Jailbreak-urile clasice rămân în afara perimetrului. OpenAI precizează de asemenea că desfășoară campanii private punctuale pe tipuri specifice de daune — de exemplu conținuturi cu risc biologic în ChatGPT Agent și GPT-5.

🔗 Introducing the OpenAI Safety Bug Bounty program


Codex Creator Challenge: concurs pentru studenți cu 10 000 $ în credite

25 martie — OpenAI și Handshake lansează Codex Creator Challenge, un concurs destinat studenților pentru a crea proiecte reale cu Codex. Premiul: 10 000 $ în credite API OpenAI. Provocarea invită studenții să experimenteze cu uneltele Codex și să construiască aplicații concrete.

🔗 Tweet @OpenAIDevs


ElevenLabs: Guardrails 2.0 în ElevenAgents, certificat AIUC-1

24 martie — ElevenLabs implementează Guardrails 2.0 în platforma sa ElevenAgents. Acest strat de securitate permite controlul comportamentului agenților în producție cu politici de business personalizabile sau protecții preconfigurate: menținere în subiect (on-topic), coerență de brand (on-brand), rezistență la manipulare.

Guardrails 2.0 este certificat AIUC-1 (AI Use Case standard) și include funcționalități de protecție a datelor, redactare a istoricului conversațiilor și monitorizare post-deploy.

🔗 Anunț pe X


PrismAudio: model video-to-audio open source de Tongyi Lab (Alibaba)

24 martie — Tongyi Lab de la Alibaba publică PrismAudio, un model video-versus-audio (Video-to-Audio). Spre deosebire de abordările V2A (Video-to-Audio) clasice care optimizează totul cu o singură funcție de pierdere, PrismAudio adoptă o arhitectură “Decomposed Multi-CoT” cu trei capete specializate separate — fiecare dedicată unui aspect distinct al generării audio.

Modelul este antrenat cu Multi-Dimensional RL și Fast-GRPO pentru a alinia generarea audio la preferințele umane. Resursele (model, demo, paper arXiv) sunt publicate prin HuggingFace, ModelScope și o pagină de proiect dedicată.

🔗 Anunț pe X


Claude Code v2.1.83: gestionare centralizată a setărilor Enterprise

25 martie — Versiunea 2.1.83 de Claude Code introduce directorul drop-in managed-settings.d/, destinat administratorilor Enterprise. Acest director permite organizațiilor să gestioneze setările Claude Code în mod centralizat, prin depunerea de fișiere de configurare care se aplică tuturor stațiilor dintr-un deployment.

🔗 CHANGELOG Claude Code


Kling AI Team Plan: colaborare până la 15 membri

24 martie — Kling AI lansează Team Plan, un plan colaborativ care permite echipelor de până la 15 membri să lucreze împreună pe platformă. Planul include active partajate și utilizare comercială a creațiilor.

🔗 Anunț @Kling_ai pe X


Manus Desktop: credite înjumătățite până pe 30 martie

24 martie — Manus oferă o promoție temporară pe aplicația Desktop: din 24 până pe 30 martie 2026, fiecare sarcină executată consumă cu 50% mai puține credite. Creditele existente valorează astfel dublu pentru toate sarcinile realizate prin Manus Desktop în această perioadă.

🔗 Anunț pe X


NVIDIA donează driverul său DRA GPU comunității Kubernetes

24 martie — În marja NVIDIA GTC 2026, NVIDIA anunță donația către comunitatea Kubernetes a driverului său Dynamic Resource Allocation (DRA) pentru GPU-uri. Această contribuție se înscrie în angajamentul open source al NVIDIA și facilitează alocarea dinamică a resurselor GPU în medii Kubernetes.

🔗 Blog NVIDIA — AI Future Open and Proprietary


Ce înseamnă asta

Cele două anunțuri Anthropic din această perioadă sunt complementare: integrarea mobilă a Figma, Canva și Amplitude apropie Claude de fluxurile profesionale de lucru zilnice, în timp ce câștigurile la pornire ale Claude Code (2,8x) și ale Agent SDK (5,1x) îmbunătățesc concret experiența dezvoltatorilor care îl folosesc continuu. Aceste două axe — utilizare mobilă pentru publicul larg și performanță pentru dezvoltatori — ilustrează traiectoria dublă a Anthropic.

Decizia GitHub Copilot privind datele de interacțiune este cea mai cu impact pentru dezvoltatorii individuali: pentru prima dată, utilizatorii planurilor publice (Free, Pro, Pro+) văd interacțiunile lor potențial folosite pentru antrenament. Opt-out există, dar trebuie activat înainte de 24 aprilie — acest interval scurt merită remarcat.

Nemotron Coalition a NVIDIA este un semnal puternic asupra strategiei open source din industrie. Reunind Mistral, Black Forest Labs, Cursor și alții sub o coaliție formală pentru a dezvolta modele de nivel frontier, NVIDIA poziționează open source-ul nu ca alternativă la modelele proprietare, ci ca o categorie complementară de sine stătătoare. Replica lui Jensen Huang — “proprietar și deschis”, nu “versus” — rezumă bine acest repoziționare. Lyria 3 Pro confirmă că generarea muzicală progresează către formate utilizabile în producție: 3 minute cu o structură coerentă (intro-uri, strofe, refrene) schimbă natura cazului de utilizare, trecând de la fragmente experimentale la piese complete. Disponibilitatea pe mai multe platforme Google încă din săptămâna lansării accelerează adoptarea.

Publicarea Model Spec Evals de către OpenAI — o suită de evaluări care măsoară abaterile dintre comportamentul modelului și specificația scrisă — este notabilă: este una dintre primele încercări publice de a măsura obiectiv alinierea unui model cu propriile sale reguli de conduită.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator