Căutare

Grok interzis în Țările de Jos, Gemini 3.1 Flash Live, pluginuri native Codex

Tribunalul din Amsterdam interzice xAI să genereze imagini sexuale neconsimțite cu Grok, sub amenințarea unei amenzi de 100 000 € pe zi. În aceeași zi, Google lansează Gemini 3.1 Flash Live pentru conversații audio în timp real în peste 90 de limbi, OpenAI integrează pluginuri native în Codex (Slack, Figma, Notion, Gmail), iar Anthropic publică un articol tehnic despre proiectarea modului auto din Claude Code. Cohere, Mistral și Suno completează o săptămână încărcată de anunțuri.


xAI: tribunalul din Amsterdam interzice nudurile Grok

27 martie — Tribunalul districtual din Amsterdam a pronunțat o decizie împotriva xAI, interzicându-i să genereze sau să distribuie imagini sexuale neconsimțite în Țările de Jos. În caz de neconformitate, amenda este de 100 000 € pe zi, plafonată la 10 milioane €.

Decizia urmează unei plângeri comune depuse de ONG-ul olandez Offlimits și de Victims Support Fund. Conform Center for Countering Digital Hate (CCDH), Grok ar fi generat 3 milioane de imagini sexualizate în 11 zile, dintre care 23 000 implicau minori. Offlimits subliniază că Grok nu ține cont de localizarea geografică a victimei reprezentate, ceea ce îi conferă o rază de acțiune globală.

Decizia intervine în aceeași zi cu votul Parlamentului European care aprobă o interdicție a deepfake-urilor sexuale generate de IA — un semnal puternic de convergență reglementară. Este prima hotărâre europeană de acest tip îndreptată direct împotriva xAI.

🔗 CNBC: Tribunalul olandez interzice nudurile Grok AI 🔗 The Record Media: Tribunalul olandez amenință xAI cu amenzi


Gemini 3.1 Flash Live: audio în timp real în 90+ limbi

26 martie — Google lansează Gemini 3.1 Flash Live, modelul său multimodal pentru conversații în timp real. Suportă audio, imagini, video și text cu o fereastră de context de 128 000 tokens și acceptă peste 90 de limbi.

Față de generația anterioară, modelul menține conversații de două ori mai lungi, gestionează mai bine zgomotul de fundal și sunetele ambientale, respectă instrucțiunile de sistem complexe cu mai multă precizie și declanșează mai fiabil instrumentele externe în timpul conversației. Toate audio-urile generate sunt marcate cu SynthID.

FuncționalitateDetaliu
Fereastra de context128 000 tokens
Limbi90+
Conversații2× mai lungi decât înainte
WatermarkingSynthID pe toate audio-urile

Disponibilitate: prin Live API în Google AI Studio (dezvoltatori), prin Gemini Live și Search Live (utilizatori, 200+ țări) și prin Vertex AI (companii). Search Live își extinde, de asemenea, accesul la peste 200 de țări și teritorii, cu suport video Google Lens.

🔗 Anunț oficial Google


Gemini: importul memoriilor și istoricului din ChatGPT și Claude

26 martie — Google lansează un instrument de import în aplicația Gemini pentru a facilita migrarea de la alți asistenți IA.

Sunt disponibile două funcționalități:

  1. Import de memorii (“Add Memory”): Gemini sugerează un prompt de introdus în ChatGPT, Claude sau Copilot. Răspunsul generat (rezumat al datelor personale reținute de celălalt asistent) este copiat-lipit în Gemini, care extrage preferințe, interese, informații de localizare etc.

  2. Import istoric (“Import Chats”): încărcarea unui fișier .zip exportat din ChatGPT sau Claude, până la 5 Go. Conversațiile anterioare devin căutabile și pot fi reluate în Gemini.

🔗 Blog Google: Switch to Gemini


Gemini CLI v0.35.2: subagenți activați implicit, Vim îmbunătățit — și acces Pro restricționat

25-26 martie — Versiunea stabilă v0.35.2 a Gemini CLI introduce mai multe funcționalități notabile.

FuncționalitateDescriere
Subagents activi implicitPlanificator de sarcini paralele + segmentare de cod
Răscurtături tastatură personalizabileSupport keybindings, caractere literale, protocol Kitty
Mod Vim îmbunătățitMotions X, ~, r, f/F/t/T; copiere-lipire cu registrul unnamed
SandboxManager unificatIzolarea instrumentelor cu bubblewrap/seccomp Linux
Descoperire context JITÎncărcare optimizată pentru instrumentele filesystem
gRPC nativIntegrare nativă și rutare de protocol

Schimbare de politică notabilă: din 25 martie, utilizatorii gratuiti au acces doar la Gemini Flash. Accesul la Gemini Pro este rezervat abonaților plătiți (planuri Pro și Ultra). Reacția comunității a fost în mare parte negativă. Google întărește, de asemenea, detectarea abuzurilor: utilizarea autentificării OAuth Gemini CLI cu software terț poate duce acum la restricții.

🔗 Changelog Gemini CLI 🔗 Discuție comunitate


Gemini Drop martie 2026: Personal Intelligence gratuit și Lyria 3 Pro

27 martie — Actualizarea lunară “Gemini Drops” din martie 2026 prezintă noile funcționalități ale aplicației Gemini lansate în această lună.

FuncționalitateDescriereDisponibilitate
Personal Intelligence gratuitConectare Gmail, Photos, YouTube pentru planificat călătorii/proiecteGratuit, Statele Unite
Gemini Live îmbunătățitBazat pe Gemini 3.1 Flash Live, context 2× mai lungToți utilizatorii
Import ChatGPT/ClaudeTransfer memorii și istoricToți utilizatorii
Lyria 3 ProCreare muzică până la 3 minute, foto → anthemeAbonați
Google TVRăspunsuri vizuale Gemini și narațiuniGoogle TV

🔗 Gemini Drop martie 2026


Codex: pluginuri native pentru Slack, Figma, Notion și Gmail

26-27 martie — OpenAI livrează pluginurile ca funcționalitate de primă clasă în Codex. Dezvoltatorii pot conecta Codex la instrumentele pe care le folosesc zilnic fără configurare manuală.

PluginCaz de utilizare
SlackTrimite mesaje, citește canale
FigmaAccesează designurile, generează cod
NotionCitește și scrie pagini
GmailCitește și redactează e‑mailuri

Pluginurile se sincronizează automat la pornirea Codex și sunt accesibile prin comanda /plugins. Instalarea și dezinstalarea se fac direct din interfața TUI cu gestionare integrată a autentificării.

Pe 27 martie, OpenAI a publicat o galerie de cazuri practice accesibile cu un singur clic: construcție de aplicații iOS, analiză de dataset-uri, generare de rapoarte și prezentări. Changelog-ul Codex v0.117.0 detaliază funcționalitățile tehnice, inclusiv suportul pentru mențiuni de pluginuri în prompturi.

🔗 Documentație pluginuri Codex 🔗 Tweet @OpenAIDevs


Anthropic: proiectarea modului auto din Claude Code explicată

26 martie — Anthropic a publicat un articol tehnic pe blog despre proiectarea modului auto (auto mode) din Claude Code, disponibil pe blogul Engineering.

Problema adresată: utilizatorii Claude Code experimentează oboseală la aprobări (approval fatigue). Statistica arată că 93% din cererile de permisiune sunt acceptate — ceea ce sugerează că o automatizare parțială este posibilă fără a sacrifica securitatea.

Soluția: două straturi de clasificatori

Modul auto se bazează pe două niveluri de protecție bazate pe modele (Sonnet 4.6):

  1. Strat de intrare: o sondă de detectare a injecției de prompt (prompt injection probe) analizează rezultatele instrumentelor înainte ca acestea să ajungă la agent.
  2. Strat de ieșire: un clasificator de transcriere evaluează fiecare acțiune propusă printr-un proces în două etape înainte de execuție.
NivelTip de acțiuneTratament
Tier 1Instrumente sigure (citire fișiere, căutare)Trecere directă, fără clasificator
Tier 2Modificări de fișiere în proiectOcolire a clasificatorului (revizuibile prin controlul versiunilor)
Tier 3Acțiuni periculoase (comenzi shell, operațiuni externe)Evaluare completă de către clasificator

Metrice de performanță:

EtapăRata de fals pozitive (trafic real)Rata de fals negative (acțiuni riscante)
Etapa 1 (rapidă)8,5 %6,6 %
Pipeline complet0,4 %17 %

Rata de fals pozitive de 0,4 % pe pipeline-ul complet înseamnă că modul auto aproape niciodată nu întrerupe lucrul pe nedrept. Rata de fals negative de 17 % reflectă cazuri în care clasificatorul detectează un pericol dar interpretează greșit sfera permisiunii acordate de utilizator.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇷🇴 Pe blogul Engineering: cum am conceput modul auto al Claude Code. Mulți utilizatori lasă Claude să lucreze fără cereri de permisiune. Modul auto este un compromis mai sigur: am construit și testat clasificatoare care iau deciziile de aprobare în locul lor.@AnthropicAI pe X

🔗 Claude Code auto mode: a safer way to skip permissions


GitHub Copilot: rezolvarea conflictelor de merge și vizibilitatea agenților

26 martie — Două actualizări majore pentru GitHub Copilot îmbunătățesc fluxul de lucru al echipelor.

Rezolvarea conflictelor de merge: acum este posibil să menționezi @copilot într-un comentariu de pull request pentru a-i cere să rezolve conflictele. Agentul lucrează în mediul său cloud, rezolvă conflictele, verifică că build-ul și testele trec, apoi împinge modificările. Disponibil pentru toate planurile plătite Copilot (Business/Enterprise necesită activare de către admin).

Vizibilitatea agenților în Issues și Projects: când un agent de cod (Copilot, Claude, Codex) este asignat unei issue, sesiunea sa apare sub assignee în bara laterală cu un status în timp real — în coadă, în curs, în așteptare de revizuire, finalizat. Sesiunile sunt vizibile și în vizualizările table și board din Projects (de activat prin “View menu > Show agent sessions”).

🔗 Copilot rezolvă conflictele de merge 🔗 Activitate agenți în Issues și Projects


GitHub: nou tablou de bord PRs și Copilot for Jira

25-26 martie — Două îmbunătățiri suplimentare pentru dezvoltatorii GitHub.

Tablou de bord Pull Requests (preview public): un tablou de bord reproiectat pe github.com/pulls centralizează PR-urile care necesită atenție — reviziile solicitate, corecțiile de făcut, pregătite pentru merge. Vederi salvate personalizate, filtre avansate cu autocompletare și suport pentru interogări AND/OR completează interfața. Se activează din setările Feature Preview.

Copilot for Jira: de la lansarea în preview public, s-au introdus mai multe îmbunătățiri: alegerea modelului IA direct din Jira, includerea automată a numărului ticketului Jira în titlul PR-ului și în numele branch-ului, și acces la paginile Confluence prin serverul MCP Atlassian (configurabil cu un PAT).

🔗 Noul tablou de bord PRs 🔗 Îmbunătățiri Copilot for Jira


Cohere Transcribe: nr.1 în clasamentul ASR open-source

26 martie — Cohere lansează Cohere Transcribe, primul său model de recunoaștere automată a vorbirii (Automatic Speech Recognition — ASR). Disponibil open-source sub licența Apache 2.0, se poziționează imediat pe primul loc în clasamentul Open ASR de pe Hugging Face pentru limba engleză.

Modelul se bazează pe o arhitectură Fast-Conformer Transformer encoder-decoder de 2 miliarde de parametri. Peste 90% din parametri sunt alocați encoder-ului, cu un decoder ușor pentru a minimiza calculul autoregresiv și a maximiza viteza. Antrenat pe 500 000 de ore de perechi audio-transcriere.

ModelWER mediu
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

WER (Word Error Rate — rata de eroare a cuvintelor) de 5,42% plasează Cohere Transcribe în frunte. Viteza de inferență este de 3× mai mare decât concurenții de dimensiuni comparabile. Sunt suportate 14 limbi (inclusiv franceza, germana, araba, chineza mandarină, japoneza și coreeana).

Limitări de notat: modelul nu este conceput pentru code-switching (schimbări de limbă în cursul audio) și poate transcrie sunete non-vocale — se recomandă adăugarea unui filtru VAD (Voice Activity Detection).

🔗 Blog Cohere: Transcribe 🔗 Model pe Hugging Face


Suno v5.5: voce personală, modele personalizate, preferințe adaptive

26 martie — Suno lansează versiunea 5.5 a instrumentului său de generare muzicală, cu trei funcționalități noi axate pe personalizare.

FuncționalitateDescriereDisponibilitate
VoicesCapturarea și utilizarea propriei voci cântate (rămâne privată)Toți utilizatorii
Custom ModelsFine-tuning pornind de la compozițiile proprii, până la 3 modeleAbonați Pro/Premier
My TasteÎnvățare adaptativă a preferințelor în genuri și atmosfereToți utilizatorii

Aceste instrumente sunt prezentate ca fundațiile modelelor de generație următoare dezvoltate în parteneriat cu industria muzicală.

🔗 Suno Blog v5.5


Mistral Voxtral TTS: clonare de voce în 3 secunde, open-weight

23 martie (acoperire presă 26-27 martie) — Mistral publică Voxtral TTS, primul său model de sinteză vocală (Text-to-Speech) open-weight. Modelul voxtral-tts-2603 are 4 miliarde de parametri și suportă 9 limbi (engleză, franceză, germană, spaniolă, neerlandeză, portugheză, italiană, hindi, arabă).

Latenta anunțată este de 70 ms pentru o configurație tip (mostră de 10 secunde + 500 caractere). Clonarea vocii funcționează pornind de la doar 3 secunde de audio de referință. În termeni de naturalitate, Mistral afirmă că Voxtral depășește ElevenLabs Flash v2.5 și atinge paritatea cu ElevenLabs v3. Modelul poate rula pe un laptop grand public, un GPU mid-range sau un dispozitiv mobil high-end. Acces: modele disponibile pe Hugging Face (licență Creative Commons) și prin API-ul Mistral Studio la 0,016 dolari la 1.000 de caractere. Integrare a modului vocal disponibilă în Le Chat.

🔗 Anunț Mistral Voxtral


xAI: SuperGrok Lite la 10 dolari/lună și videoclipuri stories de 15 secunde

25 martie — xAI a anunțat două noutăți în jurul lui Grok.

SuperGrok Lite: un nou plan de abonament la 10 dolari pe lună, în prezent în test restrâns. Include sesiuni de chat de două ori mai lungi decât nivelul gratuit, un agent IA și generare video la rezoluție 480p (maxim 6 secunde). Planul se situează între nivelul gratuit și SuperGrok Standard (30 dolari pe lună).

Video stories prin Grok Imagine: Grok Imagine generează acum „videoclipuri stories” de 15 secunde în 720p cu audio sincronizat, muzică de fundal și efecte sonore. Elon Musk a declarat că vrea să „mizeze mai mult” pe video. Anunțul survine în contextul închiderii Sora de către OpenAI în aceeași săptămână.

🔗 Bloomberg: xAI doubling down on AI videos


Kimi/Moonshot AI ia în considerare o ofertă publică inițială la Hong Kong

26 martie — Moonshot AI, compania chineză din spatele modelului Kimi, analizează o listare la bursa din Hong Kong, potrivit Bloomberg. Băncile consiliare ar fi CICC și Goldman Sachs, cu o evaluare țintă de aproximativ 18 miliarde de dolari și o rundă de finanțare în curs de până la 1 miliard de dolari. Acționarii actuali includ Alibaba, Tencent și 5Y Capital. Calendarul IPO rămâne incert.

🔗 Bloomberg: Moonshot considers Hong Kong IPO


NVIDIA GTC: AI proprietar și deschis nu se exclud reciproc

25 martie — În cadrul GTC 2026, NVIDIA și lideri din industrie (Mistral, Perplexity, Cursor, Reflection AI, LangChain) au afirmat că viitorul IA stă în complementaritatea modelelor deschise și proprietare. Jensen Huang a rezumat poziția NVIDIA: „Proprietary versus open is not a thing. It’s proprietary and open.”

Articolul de blog subliniază necesitatea orchestration-ului multi-model, multi-cloud și multimodal pentru companii. NVIDIA își confirmă angajamentul open source devenind cea mai mare organizație pe Hugging Face.

🔗 Blog NVIDIA: AI Open and Proprietary


Claude Code v2.1.85 și v2.1.84: hooks condiționale și PowerShell pe Windows

26-27 martie — Două noi versiuni ale Claude Code au fost publicate.

v2.1.85 (27 martie): introducerea unui câmp condițional if în configurația hooks, permițând declanșarea unui hook doar pentru anumite comenzi sau fișiere. De asemenea: variabile de mediu pentru scripturile de asistență MCP, timestamp-uri în transcrieri pentru sarcinile programate, suport OAuth conform RFC 9728, și posibilitatea ca hooks PreToolUse să satisfacă AskUserQuestion returnând updatedInput.

v2.1.84 (~26 martie): PowerShell pe Windows disponibil în previzualizare opțională (opt-in preview) ca unealtă nativă, hook TaskCreated (declanșat la crearea unei sarcini de către Claude), suport HTTP pentru WorktreeCreate, și prompt de revenire afișat după 75 de minute de inactivitate. Corectare a unui bug de permisiuni pentru scripturile pluginurilor oficiale pe macOS/Linux.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 disponibil pentru toți abonații Coding Plan

27 martie — Z.ai (Zhipu) anunță că GLM-5.1 este acum accesibil tuturor abonaților la GLM Coding Plan, indiferent de nivelul de abonament (Lite, Pro sau Max).

🔗 PANews: GLM-5.1 Coding Plan


Genspark integrează Grok Imagine în agentul său video

26 martie — Genspark a integrat Grok Imagine (generare video multi-imagini și extensie video) în Genspark AI Video Agent. Utilizatorii pot folosi până la 7 imagini pentru a crea un video sau pot extinde un video existent până la 10 secunde.

🔗 Tweet @genspark_ai


Meta SAM 3.1: urmărire a 16 obiecte în timp real, viteză dublată

27 martie — Meta publică SAM 3.1, o actualizare a modelului Segment Anything Model 3 pentru detectarea și urmărirea obiectelor în video în timp real. Inovația centrală este multiplexarea obiectelor (object multiplexing): în loc de un pas separat per obiect urmărit, toate obiectele sunt procesate într-un singur pas (forward pass). Rezultatul: până la 16 obiecte simultan, cu o viteză care crește de la 16 la 32 cadre pe secundă pe un GPU H100 — adică dublu — în timp ce consumul de memorie scade semnificativ.

Arhitectura se bazează pe un encoder/decoder Mux-Demux care împarte o singură computație pentru toate obiectele. Un mecanism de raționament global (global reasoning) îmbunătățește precizia în scenele cu multe elemente. SAM 3.1 este un înlocuitor direct (drop-in replacement) pentru SAM 3 — nu sunt necesare modificări de API.

Modelul este publicat open source: checkpoint descărcabil pe Hugging Face, cod sursă actualizat pe GitHub, articol științific publicat și demo interactiv disponibil.

🔗 Blog Meta: SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta


Meta TRIBE v2: un geamăn digital al activității cerebrale umane

26 martie — Meta publică TRIBE v2, un model de fundație predictiv conceput ca „geamăn digital” (digital twin) al activității neuronale. Modelul prezice răspunsurile cerebrale fMRI la rezoluție înaltă pentru aproape orice sunet, imagine sau text, cu o rezoluție de 70× superioară față de abordările anterioare. Antrenat pe datele a peste 700 de voluntari, funcționează în mod zero-shot (zero-shot) pentru subiecți, limbi și sarcini noi fără reantrenare. Scopul este să permită oamenilor de știință din domeniul neuroștiinței să testeze ipoteze rapid fără experimente pe oameni și să accelereze cercetarea bolilor neurologice. Modelul, codul și articolul științific sunt publicate sub licența CC BY-NC.

🔗 Blog Meta: TRIBE v2 🔗 Tweet @AIatMeta


Ce înseamnă asta

Decizia tribunalului din Amsterdam marchează o cotitură reglementară: este prima dată când o jurisdicție europeană condamnă direct xAI pentru conținut generat de Grok, cu o amendă preventivă descurajantă. Combinată cu votul Parlamentului European asupra deepfake-urilor sexuale în aceeași zi, aceasta conturează un cadru legal care se va impune treptat tuturor furnizorilor de IA generativă.

Din perspectiva instrumentelor pentru dezvoltatori, săptămâna ilustrează cursa pentru integrare: Codex cu pluginurile sale native, Copilot cu rezolvarea conflictelor de merge și vizibilitatea agenților în Issues/Projects, și Claude Code cu hooks condiționale. Asistenții IA se integrează din ce în ce mai adânc în fluxurile de lucru existente în loc să le înlocuiască.

Restricția accesului la Gemini Pro în CLI gratuit este un semnal că perioada de generozitate gratuită în instrumentele CLI începe să se reducă. Gemini, la fel ca GitHub Copilot înaintea sa, converg către un model freemium în care capabilitățile avansate necesită abonament.

În fine, IPO-ul luat în considerare pentru Kimi la Hong Kong, evaluat la 18 miliarde de dolari, confirmă atractivitatea evaluărilor din sectorul IA chinez, în timp ce Mistral, cu Voxtral TTS, continuă să poziționeze modelele sale open-weight ca alternativă la serviciile proprietare în sinteza vocală.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator