Căutare

RSP v3.0 la Anthropic, GPT-5.3-Codex disponibil pentru toți, Meta semnează 6 GW de GPU cu AMD

RSP v3.0 la Anthropic, GPT-5.3-Codex disponibil pentru toți, Meta semnează 6 GW de GPU cu AMD

Anthropic revizuiește în profunzime politica sa de securitate cu o RSP v3.0 care introduce o Frontier Safety Roadmap (foaie de parcurs publică de securitate) și Risk Reports (rapoarte de risc) trimestriale cu revizuire externă. OpenAI pune capăt perioadei de acces limitat pentru GPT-5.3-Codex, disponibil acum pentru toți dezvoltatorii prin Responses API. Meta semnează un acord multianual cu AMD pentru ~6 GW de capacitate GPU dedicate. Qwen lansează patru modele MoE dintre care un 35B-A3B care depășește propriul său model 235B. Claude Code introduce Remote Control pentru a continua o sesiune de pe telefon.


Anthropic: Politica de scalare responsabilă (Responsible Scaling Policy) v3.0

24 februarie — Anthropic publică a treia versiune a Responsible Scaling Policy (RSP), cadrul voluntar care reglementează riscurile catastrofale asociate modelelor sale.

RSP originală datează din septembrie 2023. În doi ani și jumătate, modelele au câștigat noi capabilități — navigare web, execuție de cod, utilizare a calculatoarelor, acțiuni autonome multi-etape — și fiecare nouă capabilitate a generat riscuri noi de gestionat.

Ce a funcționat

RSP a împins Anthropic să dezvolte garduri de protecție mai robuste, precum clasificatoare pentru a bloca conținutul legat de arme biologice necesar pentru ASL-3. Standardul ASL-3 a fost activat în mai 2025 și este operațional. OpenAI și Google DeepMind au adoptat framework-uri similare în lunile care au urmat anunțului inițial. RSP-urile au contribuit, de asemenea, la informarea unor texte legislative (SB 53 în California, EU AI Act).

Ce nu a funcționat

Pragurile de capacitate s-au dovedit mai ambigue decât se prevedea — a hotărî dacă un model a “depășit definitiv” un prag rămâne dificil în practică. Guvernele nu au urmat atât de rapid pe cât se spera, într-un context politic nefavorabil reglementării. Unele cerințe pentru ASL ridicat (ASL-4, ASL-5) ar putea fi imposibil de îndeplinit unilateral.

Trei schimbări cheie în RSP v3.0

Versiunea v3.0 distinge acum ceea ce Anthropic se angajează să facă independent de ceilalți actori, pe de o parte, și o cartografiere capacități→mitigări pe care întreaga industrie ar trebui să o adopte, pe de altă parte.

Un al doilea document publicat în paralel — Frontier Safety Roadmap — stabilește obiective publice concrete: lansarea de proiecte R&D “moonshot” pentru securizarea greutăților modelelor, dezvoltarea unui red-teaming automatizat ce depășește sute de participanți umani, stabilirea unor registre centralizate pentru toate activitățile critice de dezvoltare IA.

În fine, Anthropic se angajează să publice Risk Reports la fiecare 3–6 luni: profilul de securitate al modelelor, articularea capabilități/amenințări/mitigări, iar pentru cele mai avansate modele, o revizuire de către experți independenți cu acces ne cenzurat la raport.

“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”

🇷🇴 Actualizăm Responsible Scaling Policy la a treia versiune. De la intrarea în vigoare în 2023, am învățat multe despre punctele forte și limitele sale. Această actualizare îmbunătățește politica prin consolidarea a ceea ce a funcționat și prin angajamentul nostru spre și mai multă transparență.@AnthropicAI pe X

🔗 RSP v3.0 (Anthropic)


OpenAI: GPT-5.3-Codex în disponibilitate generală

24 februarie — GPT-5.3-Codex este acum accesibil tuturor dezvoltatorilor prin Responses API de la OpenAI. Modelul fusese lansat la începutul lunii februarie în acces limitat; trece acum în disponibilitate generală.

GPT-5.3-Codex combină performanțe de codare de frontieră și capabilități de cunoaștere profesională într-un singur model. Conform feedback-ului de la primii integratori, ar fi “semnificativ mai puternic și de 3–4 ori mai eficient în tokeni decât GPT-5.2”. Platforma Lovable a fost printre primele care l-au adoptat pentru cazurile sale de utilizare cele mai complexe.

Modelul este disponibil și prin OpenRouter pentru dezvoltatorii care doresc să-l integreze în fluxurile lor de lucru existente fără a trece direct prin API-ul OpenAI.

ElementDetaliu
DisponibilitateResponses API (acces general)
Eficiență3–4x mai eficient în tokeni vs GPT-5.2
Acces alternativOpenRouter

🔗 Tweet @OpenAIDevs


Meta + AMD: acord multianual pentru ~6 GW de GPU

24 februarie — Meta anunță un parteneriat multianual cu AMD pentru a integra ultimele GPU AMD Instinct în infrastructura sa globală.

Implementarea prevede aproximativ 6 GW de capacitate data center dedicate, având ca obiectiv dezvoltarea de modele IA de vârf și aducerea unei “inteligențe artificiale personale superinteligente” la miliarde de utilizatori din întreaga lume.

“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”

🇷🇴 Astăzi anunțăm un acord multianual cu @AMD pentru a integra ultimele lor GPU Instinct în infrastructura noastră globală. Cu aproximativ 6 GW de capacitate de data center planificată pentru acest implement, creștem capacitatea de calcul pentru a accelera dezvoltarea modelelor IA de vârf și pentru a aduce o superinteligență personală miliardelor de oameni din lume.@AIatMeta pe X

Acest acord marchează o diversificare semnificativă a furnizorilor de GPU pentru Meta, care se baza până acum în principal pe NVIDIA. Un contract de această amploare — 6 GW, adică o infrastructură considerabilă pentru un singur parteneriat — este un semnal puternic privind ambițiile Meta în materie de compute pentru modelele de generație următoare.

🔗 Tweet @AIatMeta


Qwen 3.5 Medium Series: 4 modele MoE, “More intelligence, less compute”

24 februarie — Alibaba Qwen lansează seria Qwen 3.5 Medium, care include patru modele cu arhitectură MoE (Mixture of Experts).

Rezultatul cel mai izbitor este Qwen3.5-35B-A3B: cu doar 3B parametri activi (din 35B în total), acesta depășește Qwen3-235B-A22B — gigantul anterior din familie. Arhitectura MoE și un antrenament RL la scară largă permit această densitate de eficiență.

ModelParametri activiNotă
Qwen3.5-FlashContext 1M tokens, instrumente integrate, găzduit
Qwen3.5-35B-A3B3B activi / 35B totalDepășește Qwen3-235B-A22B
Qwen3.5-122B-A10B10B activi / 122B total
Qwen3.5-27B27B

Qwen3.5-Flash este versiunea găzduită a seriei, cu un context implicit de un milion de tokens și instrumente integrate. Modelele sunt disponibile pe HuggingFace, ModelScope și Qwen Chat.

🔗 Tweet @Alibaba_Qwen


Claude Code v2.1.51: Remote Control de pe mobil

24 februarie — Claude Code v2.1.51 introduce remote-control, funcționalitatea cea mai așteptată a versiunii: continuarea unei sesiuni locale de pe telefon.

Începută din terminal, o sesiune Claude Code poate fi reluată în aplicația mobilă Claude Code prin /remote-control. Funcționalitatea este disponibilă pentru utilizatorii Max în research preview.

Dincolo de Remote Control, această versiune aduce mai multe îmbunătățiri tehnice:

SchimbareDetaliu
Plugin marketplace timeoutGit : 30s → 120s, configurabil prin CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS
npm registriesSuport pentru registrii personalizați și pinning de versiune pentru pluginuri
BashToolSăritură peste login shell implicit când snapshot disponibil
Hooks securitateFix: statusLine și fileSuggestion hooks fără acceptare workspace trust
Reducere contextTool results > 50K chars persistate pe disc (era 100K)

🔗 CHANGELOG Claude Code


Claude Cowork: marketplace privat de pluginuri și orchestrare cross-apps

24 februarie — Anthropic lansează o actualizare majoră a Cowork cu marketplace-uri private de pluginuri pentru companii, noi conectori și o orchestrare cross-aplicații.

Adminii pot acum crea marketplace-uri private de pluginuri pentru organizația lor: creare din template-uri sau de la zero, cu Claude care ghidează configurarea. Un nou meniu unificat “Customize” centralizează pluginuri, skills și conectori (MCP). Adminii dispun și de provisioning pe utilizator, auto-install și surse de pluginuri din repo-uri GitHub private (în beta privată).

Pe partea de conectori, lista se extinde cu Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress și Harvey. Companii precum Slack, LSEG, S&P Global și Tribe AI au publicat, de asemenea, pluginuri.

Sunt disponibile noi template-uri de pluginuri pe departamente:

DepartamentExemple de fluxuri de lucru
HRScrisori de ofertă, onboarding, evaluări de performanță
DesignCritici UX, audituri de accesibilitate, planuri de cercetare utilizator
EngineeringStandups, incident response, checklists deploy, postmortems
OperațiuniDocumentare procese, evaluare furnizori
FinanciarAnaliză de piață, modelare financiară, slide-uri PowerPoint
Investment BankingDocumente de tranzacție, analize comparabile
Private EquityDue diligence, scoring pe criterii de investiții

Claude poate acum și orchestra sarcini între Excel și PowerPoint — analiza datelor în Excel și apoi generarea unei prezentări în PowerPoint, transferând contextul de la un add-in la altul. Această funcționalitate este disponibilă în research preview pentru toate planurile plătite pe Mac și Windows.

În fine, suportul pentru OpenTelemetry permite adminilor să urmărească utilizarea, costurile și activitatea instrumentelor pe echipe.

🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai


OpenAI: Codex CLI v0.99.0

24 februarie — Codex CLI trece la versiunea 0.99.0 cu mai multe funcționalități noi.

Comanda /statusline permite acum personalizarea meta-datelor afișate în footerul interfeței TUI. Imaginile GIF și WebP sunt acceptate ca atașamente. Executarea comenzilor shell directe nu mai blochează un tur curent — ele pot rula concurent. Snapshot-ul mediului shell și al fișierelor de configurare rc este acum activat.

FeatureDetaliu
/statuslineConfigurare interactivă a footer-ului TUI
Images GIF/WebPFormate noi acceptate ca atașamente
Shell snapshotSnapshot al mediului shell și al fișierelor rc
App-server APIsTurn/steer, feature discovery, resume_agent
Web search controlModuri restricționate via requirements.toml (Enterprise)

O corecție de securitate (RUSTSEC-2026-0009) este inclusă, de asemenea.

npm install -g @openai/codex@0.99.0

🔗 Codex Changelog v0.99.0


DeepSeek-V3.2: versiune oficială

24 februarie — DeepSeek anunță versiunea oficială DeepSeek-V3.2, succesoare a versiunii experimentale V3.2-Exp din noiembrie 2025.

Conform banner-ului de pe homepage-ul deepseek.com, V3.2 consolidează capabilitățile Agent și integrează raționament reflexiv (thinking/reasoning). Versiunea este disponibilă pe web, aplicație mobilă și API. Detaliul tehnic complet este publicat pe WeChat (canalul principal de anunțuri al DeepSeek în chineză).

🔗 deepseek.com


Perplexity și Comet: mod vocal pentru toți

24 februarie — Perplexity implementează o actualizare semnificativă a modului vocal pe Perplexity și pe browserul său Comet, disponibilă pentru toți utilizatorii — nu doar pentru abonați.

Noul mod vocal al Comet permite interogarea IA asupra a ceea ce este afișat pe ecran, navigarea între site-uri web prin voce și menținerea unei conversații coerente pe mai multe file fără a pierde contextul. Această persistență contextuală multi-tab este un avans față de asistenții vocali clasici.

AspectDetaliu
DisponibilitateToți utilizatorii (nu doar abonați)
PlatformeAndroid, Mac, Windows
Functionalitate cheieNavigare vocală multi-tab cu context persistent

🔗 Tweet @perplexity_ai 🔗 Tweet @comet


Google DeepMind: Music AI Sandbox × Wyclef Jean

24 februarie — Google DeepMind și YouTube dezvăluie o colaborare cu producătorul și artistul Wyclef Jean în jurul Music AI Sandbox.

Music AI Sandbox — propulsat de Lyria 3, modelul de generare muzicală anunțat pe 18 februarie — permite muzicienilor profesioniști să experimenteze IA ca partener creativ. Wyclef Jean a folosit aceste instrumente pentru a dezvolta piesa sa “Back from Abu Dhabi”. Procesul creației este documentat într-un videoclip disponibil pe YouTube.

Acest parteneriat face parte dintr-o serie de colaborări cu artiști inițiate de Google DeepMind pentru a explora utilizările creative ale IA muzicale în condiții reale de studio.

🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind


Google DeepMind: Robotics Accelerator în Europa

24 februarie — Google DeepMind anunță lansarea Robotics Accelerator în Europa, un program dedicat startup-urilor din sectorul roboticii.

Obiectivul declarat este reducerea decalajului între tehnologie și oportunitățile comerciale și accelerarea următoarei generații de agenți fizici. Programul este prezentat ca fiind conceput pentru startup-uri, cu acces la resursele și expertiza Google DeepMind.

🔗 Tweet @GoogleDeepMind


NVIDIA + Red Hat: AI Factory pentru întreprinderi

24 februarie — Red Hat și NVIDIA anunță împreună Red Hat AI Factory with NVIDIA, o soluție combinată pentru accelerarea adoptării IA în întreprinderi.

Platforma reunește Red Hat AI Enterprise (orchestrare și desfășurare de modele) cu NVIDIA AI Enterprise (strat software optimizat pentru GPU NVIDIA). Scopul este reducerea complexității operaționale și a costului total de deținere pentru organizațiile care rulează aplicații IA în producție.

🔗 Tweet @NVIDIAAI


Black Forest Labs: Safety Evaluation — de 10x mai puține vulnerabilități

24 februarie — Black Forest Labs publică rezultatele unei evaluări terțe independente a riscurilor emergente pentru modelele sale FLUX.

Rezultatele arată cu peste 10x mai puține vulnerabilități decât celelalte modele image open-weight populare. BFL susține că performanța înaltă, inovația deschisă și mecanismele de protecție pot coexista — o abordare de transparență rară în industria modelelor de imagine open-source.

🔗 Tweet @bfl_ml


Pe scurt

Claude Code v2.1.52 — patch țintit publicat imediat după v2.1.51: remediază un crash al extensiei VS Code pe Windows (command 'claude-vscode.editor.openLast' not found). Nicio funcționalitate nouă.

GitHub Copilot SDK — agent PowerPoint — GitHub a publicat o demonstrație (23 februarie) care arată cum să construiești un agent cu Copilot SDK capabil să caute cele mai recente documentații, să analizeze slide-urile existente pentru a le reproduce stilul și să genereze slide-uri noi direct în PowerPoint. 🔗 Tweet @github

Runway — Interior Designer — Runway prezintă un caz de utilizare creativ: transformarea unei fotografii a unei camere într-un design interior personalizat printr-o combinație de Nano Banana Pro, Kling 3.0 și Gen-4.5. O demonstrație de marketing care ilustrează platforma multi-model lansată pe 20 februarie. 🔗 Tweet @runwayml


Ce înseamnă

RSP v3.0 de la Anthropic marchează un punct de cotitură în abordarea securității IA: făcând publice obiectivele prin Frontier Safety Roadmap și angajându-se să publice rapoarte de risc cu revizuire externă, Anthropic trece de la o politică internă la un mecanism de responsabilitate publică. Este o presiune blândă asupra întregii industrii — și un răspuns implicit la criticile privind opacitatea deciziilor de implementare.

Acordul Meta+AMD pentru 6 GW este un semnal de alarmă pentru NVIDIA: singurul furnizor de GPU folosit până acum de Meta începe să fie concurat frontal. Pentru AMD, este o validare la scară largă a GPU-urilor Instinct, care încă întâmpină dificultăți în a se impune față de H100/H200 în workload-urile de antrenament.

Qwen 3.5 Medium confirmă că arhitectura MoE nu mai este apanajul modelelor foarte mari: un 35B-A3B care depășește un 235B este o comprimare remarcabilă a inteligenței, accesibilă celor care nu dispun de infrastructura necesară pentru a rula giganții.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator