Căutare

Luma Uni-1 gândește și generează pixeli, Perplexity pe 1Md dispozitive Samsung, Claude Code v2.1.86

Luma Uni-1 gândește și generează pixeli, Perplexity pe 1Md dispozitive Samsung, Claude Code v2.1.86

Luma AI lansează Uni-1, un model care combină raționamentul și generarea de pixeli într-un singur pas, acumulând 6,1 milioane de vizualizări în câteva zile. Între timp, Perplexity alimentează Samsung Browsing Assist pe peste un miliard de dispozitive, Claude Code v2.1.86 sosește cu aproximativ cincisprezece corecții, iar GitHub Copilot CLI introduce generarea testelor unitare prin agenți în modul autopilot.


Luma Uni-1 — Raționament și generare de pixeli unificate

23 martie — Luma AI a anunțat Uni-1, un model pe care îl descrie drept « un nou tip de model care gândește și generează pixeli simultan ». Spre deosebire de modelele de difuzie clasice care generează mai întâi o reprezentare latentă și apoi o decodifică, Uni-1 fuzionează raționamentul și generarea într-un singur proces.

Anunțul a atras atenția cu 6,1 milioane de vizualizări, 4.000 de like-uri și peste o mie de redistribuiri — cifre neobișnuite pentru un anunț tehnic în generarea de imagini.

Arhitectură și poziționare :

CapacitateDescriere
Raționament spațialÎnțelege și completează scenele cu coerență de perspectivă și ocluziune
Raționament de bun simțInferă intenția scenei pentru a ghida generarea
Transformare ghidatăModificări ghidate de plauzibilitatea fizică, nu doar de potrivirea pixelilor
Inteligență unificatăÎnțelegere, directive și generare într-o singură trecere (trecere unificată)

Luma poziționează Uni-1 cu formula « Less artificial. More intelligent. » — semnalând o ruptură față de generatoarele de imagini bazate pe potrivirea statistică a pattern-urilor vizuale. Modelul este prezentat ca baza viitorilor „Creative Agents” ai Luma, potențial motorul următoarei generații de Dream Machine.

Uni-1 este disponibil imediat pe lumalabs.ai/app.

“A new kind of model that thinks and generates pixels at the same time.”

🇷🇴 Un nou tip de model care gândește și generează pixeli simultan.@LumaLabsAI pe X

🔗 Anunț Luma Uni-1


Perplexity alimentează Samsung Browsing Assist pe 1 miliard de dispozitive

26 martie — Samsung a lansat Browsing Assist, un asistent IA conversațional integrat nativ în Samsung Browser pe dispozitivele Galaxy Android și PC-urile Windows. În spatele funcționalității: API-urile Perplexity, desfășurate la o scară fără precedent pe peste un miliard de dispozitive Samsung din lume.

Această lansare consolidează un parteneriat deja existent: Perplexity alimentează două din cele trei asistențe integrate pe Galaxy S26 — asistentul nativ Perplexity și Bixby, care folosește API-urile Perplexity pentru căutare web și raționament. Cu Browsing Assist, Perplexity trece de la asistent conversațional la stratul IA al browserului în sine.

Capabilități ale Browsing Assist :

FuncționalitateDescriere
Răspunsuri cu surseRezultate în timp real în timpul navigării
Rezumat de paginiInclusiv conținut autentificat (pagini protejate prin autentificare)
Căutare în istoriculÎn limbaj natural
Gestionare conversaționalăDeschidere, închidere, navigare între file prin voce sau text
Acțiuni pe mai multe fileOperare simultană pe mai multe file deschise
Sincronizare telefon → PCReluarea unei conversații începute pe mobil

Infrastructură : Browsing Assist rulează pe un cluster Perplexity dedicat cu chiriaș unic (single-tenant), cu retenție zero a datelor pentru toate intrările API. Endpoint-ul a fost conceput la comandă pentru rapiditatea și scalabilitatea cerute de Samsung.

Perplexity menționează că capabilitățile distribuite la Samsung — căutare, raționament, orchestrare multi-file — sunt exact cele pe care este construit browserul său Comet. Acest deployment reprezintă o validare la scară largă a stack-ului tehnic Perplexity.

Disponibilitate : Statele Unite și Coreea de Sud la lansare; alte regiuni urmează. Aceleași capabilități sunt accesibile dezvoltatorilor prin Search API, Embeddings API și Agent API de la Perplexity.

🔗 Blog oficial Perplexity


Claude Code v2.1.86 — Corecții majore și suport VCS Jujutsu/Sapling

27 martie — Anthropic a lansat Claude Code v2.1.86, o versiune deosebit de concentrată pe corecții. Actualizarea aduce aproximativ cincisprezece remedieri de bug-uri și mai multe îmbunătățiri de performanță.

Principalele îmbunătățiri :

CategorieSchimbare
APIHeader X-Claude-Code-Session-Id pentru a agrega cererile pe sesiune la nivel de proxy
VCSExcluderea .jj (Jujutsu) și .sl (Sapling) din Grep și autocompletare
Cache MCPTimp de pornire redus de la 5s la 30s (cache keychain macOS)
PerformanțeRată de cache îmbunătățită pe Bedrock, Vertex și Foundry
TokensReducere a overhead-ului la mențiuni @fichier (fără JSON-escape al conținutului brut)
UX memorieNume de fișiere de memorie clicabile în nota « Saved N memories »
SkillsDescrieri limitate la 250 de caractere; meniul /skills sortat alfabetic
Read toolFormat compact pentru numerele de linii, deduplicare a recitirilor identice

Corecții de bug-uri notabile : --resume eșua pe sesiuni create înainte de v2.1.85 ; Write/Edit/Read eșua pe fișiere în afara rădăcinii proiectului cu skills condiționali ; potențial crash de memorie cu /feedback pe sesiuni lungi ; modul --bare pierdea tool-urile MCP ; scurtătura de copiere a URL-ului OAuth copia doar ~20 de caractere în loc de URL-ul complet ; scripturile plugin oficiale marketplace eșuau cu « Permission denied » pe macOS/Linux din v2.1.83.

🔗 Jurnal de modificări Claude Code


GitHub Copilot CLI — Teste unitare generate de agenți în autopilot

28 martie — GitHub a anunțat o nouă capabilitate pentru Copilot CLI: generarea automată a unei suite complete de teste unitare direct din terminal, combinând modul plan (plan mode) cu o flotă de agenți în modul autopilot.

Flux de lucru :

  1. Activați modul plan cu Shift-Tab în terminal
  2. Lansați o flotă de agenți în autopilot
  3. Urmăriți progresul cu comanda /tasks

Generarea este paralelizată între mai mulți agenți, ceea ce permite acoperirea simultană a mai multor module. Cazul de utilizare principal este proiectele existente fără acoperire de teste — Copilot CLI poate genera o suită completă fără a părăsi mediul terminal.

🔗 Tweet despre GitHub Copilot CLI


OpenAI — gpt-realtime-1.5 și gpt-realtime-mini în disponibilitate generală

27 martie — OpenAI a anunțat disponibilitatea generală (General Availability) a noilor modele realtime prin Realtime API. Documentația modelelor listează acum:

ModelPoziționare
gpt-realtime-1.5Cel mai bun model vocal pentru interacțiuni audio bidirecționale
gpt-realtime-miniVersiune economică a modelului realtime

Aceste modele succed vechea denumire gpt-4o-realtime-preview din perioada beta. Realtime API permite interacțiuni vocale bidirecționale (audio input și output) în timp real prin WebRTC, WebSocket sau SIP. Demo-ul prezentat de @OpenAIDevs ilustrează un concierge medical pentru o clinică din Singapore capabil să colecteze informații și să rezerve programări în mod natural.

🔗 Tweet @OpenAIDevs


Google DeepMind — Toolkit pentru măsurarea manipulării IA

26 martie — Google DeepMind a publicat rezultatele unui studiu empiric la scară largă privind manipularea de către IA, realizat pe 10.000 de persoane. Studiul identifică domeniile în care modelele exercită o influență semnificativă (în special domeniul financiar) și acelea în care gardurile existente blochează eficient sfaturile false (domeniul medical).

Google DeepMind a dezvoltat un toolkit pentru măsurarea manipulării IA — primul de acest gen validat empiric — pentru a cuantifica cum se poate produce manipularea. Studiul identifică tactici cu risc, precum utilizarea fricii ca leviers.

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇷🇴 Am dezvoltat un toolkit pentru măsurarea manipulării IA în lumea reală, validat empiric și primul de acest gen — pentru a înțelege mai bine cum se poate produce și a proteja utilizatorii.@GoogleDeepMind pe X

🔗 Tweet Google DeepMind


Google Translate Live — Traducere în timp real pe iOS

27 martie — Google a extins Google Translate Live cu suport pentru căști pe iOS, cu un rollout în curs către mai multe țări. Funcționalitatea, disponibilă anterior doar pe Android, permite traducere în timp real în peste 70 de limbi prin căști Bluetooth sau cu fir.

🔗 Tweet @GoogleAI


MedGemma Impact Challenge — Patru câștigători, 850+ echipe

26 martie — Google a anunțat câștigătorii MedGemma Impact Challenge, o competiție care a mobilizat peste 850 de echipe de dezvoltatori pentru a construi aplicații de sănătate cu MedGemma 1.5 (modelul medical open al Google).

Câștigători principali :

LocProiectDescriere
1EpiCastSupraveghere epidemiologică pentru țările CEDEAO — traduce observațiile clinice în semnale IDSR standardizate OMS
2SunnyDetectare semne de cancer de piele prin mobil, rapoarte structurate cu confidențialitate menținută
3FieldScreen AIScreening pentru tuberculoză offline: analizează radiografii toracice și audio de tuse
4TracerPrevenirea erorilor medicale: extrage ipotezele din notele medicilor și le confruntă cu rezultatele testelor

Premii speciale au fost acordate proiectelor Edge AI și workflow-urilor agentice, inclusiv ClinicDX (diagnostice integrate în OpenMRS pentru Africa subsahariană, 160+ ghiduri OMS/MSF, complet offline).

🔗 Blog Google MedGemma Impact Challenge


Runway — Ad Concepter App și concurs 100.000 $

27 martie — Runway a lansat Ad Concepter App, un instrument IA pentru creație publicitară. Pornind de la un prompt, o imagine de referință și un vizual de produs, aplicația generează concepte, compoziții și etape narative (story beats) pentru reclame. Instrumentul este disponibil imediat în aplicația web.

Runway lansează simultan Big Ad Contest (#RunwayBigAdContest) cu premii de până la 100.000 $ pentru a promova adoptarea instrumentului.

🔗 Tweet Runway


Pika — AI Selves în beta publică

26 martie — Pika a deschis Pika AI Selves în beta publică. Anunțată în februarie, această funcționalitate permite fiecărui utilizator să creeze o extensie agentică a sinelui — un „AI Self” cu memorie persistentă (inclusiv detalii personale precum alergiile alimentare), capabil să acționeze autonom în conversații de grup, să creeze jocuri video sau să trimită fotografii.

Accesul este universal prin pika.me (web) și noua aplicație iOS. Pika poziționează această funcționalitate dincolo de generarea video pură, intrând în competiție cu agenții personali IA.

🔗 Tweet Pika Labs


Pe scurt

Awesome GitHub Copilot — 27 martie — Proiectul comunitar „Awesome GitHub Copilot” migrează către un nou site dedicat awesome-copilot.github.com cu căutare full-text, Learning Hub și instalare cu un clic pentru Copilot CLI și VS Code. 🔗 Tweet GitHub

NotebookLM notificări push — 27 martie — NotebookLM permite acum părăsirea paginii în timpul unei generări lungi și primirea unei notificări push mobile când generarea s-a terminat. 🔗 Tweet NotebookLM


Ce înseamnă asta

Luma Uni-1 marchează o schimbare de paradigmă în generarea vizuală: în loc să optimizeze potrivirea statistică a pixelilor, modelul integrează raționamentul spațial în timpul generării în sine. Dacă abordarea se dovedește practică, aceasta schimbă modul în care instrumentele creative pot gestiona coerența scenei și instrucțiunile complexe.

Deployment-ul Perplexity × Samsung este poate anunțul cu cel mai mare impact practic al săptămânii: un miliard de dispozitive înseamnă o distribuție masivă pentru capabilitățile de căutare și raționament ale Perplexity. Este, de asemenea, confirmarea că API-urile IA specializate (căutare, raționament, orchestrare multi-file) au devenit componente de infrastructură pentru producătorii de hardware.

Pe partea de instrumente pentru dezvoltatori, Claude Code v2.1.86 și GitHub Copilot CLI avansează pe două axe diferite: Claude Code consolidează fiabilitatea (corecții pentru sesiuni lungi, MCP, VCS mai puțin comune), în timp ce Copilot CLI împinge automatizarea agentică (generarea de teste prin flotă de agenți). Ambele evoluții reflectă maturizarea asistenților de dezvoltare dincolo de autocompletare.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator