Căutare

ChatGPT Images 2.0 cu thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

ChatGPT Images 2.0 cu thinking, Gemini Deep Research Max, NVIDIA x Adobe x WPP

Pe 21 aprilie 2026, trei anunțuri majore domină actualitatea IA: OpenAI lansează ChatGPT Images 2.0 cu primul său model de imagine capabil să raționeze, Google DeepMind prezintă doi agenți de cercetare autonomi alimentați de Gemini 3.1 Pro, iar NVIDIA consolidează un parteneriat tripartit cu Adobe și WPP în jurul unor agenți creativi pentru marketingul enterprise. Claude Code, Codex și Git 2.54 completează o zi bogată în actualizări de instrumente.


ChatGPT Images 2.0 și gpt-image-2

21 aprilie — OpenAI lansează ChatGPT Images 2.0, disponibil imediat pentru toți utilizatorii ChatGPT și Codex. Modelul de bază, gpt-image-2, este disponibil simultan prin API.

Această nouă versiune marchează o ruptură față de generația anterioară: respectarea instrucțiunilor detaliate (instruction following) este îmbunătățită semnificativ, plasarea și asocierea precisă a obiectelor sunt mai fiabile, redarea textului dens este revizuită, iar mai multe formate (portret, peisaj, pătrat) sunt suportate nativ.

Modul de reflecție (thinking) este principala noutate. ChatGPT Images 2.0 este primul model de imagine OpenAI dotat cu capacități de raționament. În modul thinking, disponibil pentru abonații Plus, Pro și Business (Enterprise în curând), modelul poate:

  • Căuta web-ul în timp real pentru informații actualizate
  • Genera mai multe imagini distincte dintr-un singur prompt
  • Să se auto-verifice și să-și corecteze propriile rezultate

Echipele de cercetare OpenAI au detaliat cazurile de utilizare într-un thread: randare multilingvă și text precis, slide-uri și infografice profesionale, formate și rezoluții multiple, respectarea instrucțiunilor complexe.

FuncționalitateDisponibilitate
ChatGPT Images 2.0 (standard)Toți utilizatorii ChatGPT și Codex
Modul thinkingChatGPT Plus, Pro, Business (Enterprise în curând)
API gpt-image-2Disponibil chiar acum

Linia directoare OpenAI pentru acest lansare: modelul „trece de la generarea de imagini la design strategic, de la un instrument la un sistem vizual”.

🔗 Prezentarea ChatGPT Images 2.0 🔗 Tweet @OpenAI


Google Deep Research și Deep Research Max

21 aprilie — Google DeepMind lansează doi agenți de cercetare autonomi alimentați de Gemini 3.1 Pro: Deep Research și Deep Research Max.

Acești agenți navighează atât pe web-ul deschis, cât și pe date personalizate — documente interne, informații financiare specializate — pentru a produce rapoarte profesionale complet citate.

Deep Research este optimizat pentru viteză și latență redusă, ideal pentru interfețe care necesită răspunsuri rapide. Deep Research Max exploatează un timp de calcul extins (extended test-time compute) pentru a raționa iterativ, a rafina cercetările și a produce un raport de înaltă calitate — conceput pentru procesări asincrone în fundal.

FuncționalitateDetaliu
Support MCPConectare securizată la surse proprietare sau terțe
Generare nativă de vizualePrimul agent care generează grafice și infografice (HTML sau Nano Banana 2)
Planificare colaborativăUtilizatorul poate ajusta planul de cercetare înainte de execuție
MultimodalitatePDFs, CSVs, imagini, audio, video acceptate ca intrare
DisponibilitateAPI Gemini, terți plătitori, previzualizare publică

Generarea nativă de vizuale este remarcabilă: Deep Research Max poate produce grafice și infografice direct în rapoartele sale, în HTML sau prin Nano Banana 2, fără instrument extern. Startup-urile și companiile Google Cloud vor beneficia de o disponibilitate anunțată în curând.

🔗 Anunț @GoogleDeepMind 🔗 Articol blog.google


NVIDIA × Adobe × WPP — Agenți creativi pentru marketingul enterprise

20 aprilie — NVIDIA își extinde colaborările strategice cu Adobe și WPP pentru a implementa agenți IA autonomi în operațiunile de marketing enterprise. Anunțul este însoțit de o demonstrație live la Adobe Summit pe 21 aprilie, cu Jensen Huang (CEO NVIDIA) și Shantanu Narayen (CEO Adobe).

Noua soluție Adobe CX Enterprise Coworker este orchestrată de agenți IA care se bazează pe:

  • NVIDIA OpenShell : mediu de execuție securizat, observabil și auditabil pentru workflow-uri agentice
  • NVIDIA Agent Toolkit și modele open-source Nemotron
  • Adobe Firefly Foundry accelerat de infrastructura NVIDIA AI

Concret, un retailer global poate acum să genereze milioane de combinații produs/audiență/canal în câteva minute în loc de luni. Gemenii digitali 3D (Omniverse + OpenUSD) servesc drept identități persistente ale produselor pentru a automatiza producția de conținut de înaltă fidelitate la scară largă.

🔗 Articol blogs.nvidia.com 🔗 Tweet @NVIDIAAI


Claude Code v2.1.116

19–21 aprilie — Claude Code v2.1.116 aduce o serie de îmbunătățiri țintite asupra performanței, fiabilității și experienței în terminal.

Actualizarea cea mai tangibilă: comanda /resume este cu până la 67 % mai rapidă pe sesiunile mari (40 Mo+), cu o gestionare mai bună a intrărilor “dead-fork”. Pornirea MCP este, de asemenea, mai rapidă cu mai multe servere stdio configurate.

Experiența utilizatorului:

  • Indicatorul de reflecție afișează acum progresul inline (“still thinking”, “thinking more”, “almost done thinking”), înlocuind linia de indiciu separată
  • /config poate căuta după valoarea unei opțiuni (ex: căutarea “vim” găsește parametrul Editor mode)
  • /doctor poate fi deschis în timp ce Claude răspunde, fără a aștepta sfârșitul rundei

Securitate: sandbox-ul auto-allow nu mai eludează verificarea căilor periculoase pentru rm/rmdir care țintesc /, $HOME sau alte directoare de sistem critice.

8 corecții de terminal includ: protocolul de tastatură Kitty (Ctrl+-, Cmd+Stânga/Dreapta), randarea scripturilor Devanagari, blocarea Ctrl+Z prin proces wrapper, dublarea scrollback-ului în modul inline și mai multe corecții VS Code/Warp/Ghostty.

CategorieSchimbare cheie
Performanță/resume cu 67 % mai rapid pe sesiuni 40 Mo+
UXThinking spinner progresiv, /config după valoare
SecuritateSandbox-ul respectă protecția căilor critice
Terminale8 corecții (Kitty, VS Code, Warp, Ghostty, WezTerm)
PluginuriAuto-instalarea dependențelor lipsă

🔗 CHANGELOG Claude Code


Live Artifacts în Claude Cowork

20 aprilie — Anthropic lansează „Live Artifacts” în Claude Cowork: tablouri de bord și trackere dinamice conectate direct la aplicațiile și fișierele utilizatorului.

Spre deosebire de artefactele clasice (statice), Live Artifacts se actualizează automat la deschidere cu datele curente. Sunt salvate într-o filă nouă dedicată, cu istoric de versiuni, accesibilă din orice sesiune.

“In Cowork, Claude can now build live artifacts: dashboards and trackers connected to your apps and files. Open one any time and it refreshes with current data.”

🇷🇴 „În Cowork, Claude poate acum să creeze artefacte dinamice: tablouri de bord și trackere conectate la aplicațiile și fișierele voastre. Deschideți unul în orice moment și se actualizează cu datele curente.”@claudeai pe X

Funcționalitatea este disponibilă pe toate planurile plătite printr-o actualizare a aplicației Claude.

🔗 Anunț @claudeai


Codex în enterprise: Codex Labs și 7 parteneri integratori

21 aprilie — OpenAI face un nou pas în implementarea enterprise a Codex: 4 milioane de dezvoltatori îl folosesc săptămânal (față de 3 milioane la începutul lui aprilie, adică +33 % în două săptămâni), și lansează simultan Codex Labs precum și un program de parteneriate cu 7 integratori globali.

Codex Labs aduce experți OpenAI direct în organizații pentru workshop-uri practice și sesiuni de lucru, cu obiectivul de a ajuta echipele să treacă de la utilizare experimentală la implementare reproductibilă.

Cei 7 parteneri integratori (GSI): Accenture, Capgemini, CGI, Cognizant, Infosys, PwC și Tata Consultancy Services.

CompanieUtilizare Codex
Virgin AtlanticAcoperirea testelor, reducerea datoriei tehnice
RampAccelerarea revizuirilor de cod (code review)
NotionDezvoltarea rapidă de funcționalități noi
CiscoÎnțelegerea unor depozite mari interconectate
RakutenRăspuns la incidente (incident response)

Codex se extinde acum dincolo de dezvoltarea software: navigare în browser, generare de imagini, memorie, orchestrarea sarcinilor transversale.

🔗 Creșterea Codex în enterprise la nivel mondial


Nano Banana Pro în Google AI Studio

20 aprilie — Abonații Google AI Pro și Ultra beneficiază acum de acces extins la Google AI Studio fără cheie API necesară: acces la Nano Banana Pro și la modelele Gemini Pro cu limite de utilizare mărite.

Este suficient să te conectezi cu contul de abonat pentru a trece de la prototip la producție. Această evoluție poziționează abonamentul Google AI ca o punte practică pentru dezvoltatorii care doresc să experimenteze fără complexitatea facturării per cerere.

🔗 Anunț @GoogleAI 🔗 Articol blog.google


Kimi FlashKDA open-source

21 aprilie — Moonshot AI publică open-source FlashKDA, implementarea lor CUTLASS de înaltă performanță a kernelurilor Kimi Delta Attention (KDA).

MetricăValoare
Speedup prefill vs baseline1,72× la 2,22× pe H20
IntegrareBackend drop-in pentru flash-linear-attention
CerințeSM90+, CUDA 12.9+, PyTorch 2.4+

FlashKDA funcționează ca un backend interschimbabil (drop-in) pentru flash-linear-attention. Integrarea este disponibilă prin PR-ul fla-org/flash-linear-attention#852.

🔗 Repo GitHub FlashKDA 🔗 Tweet @Kimi_Moonshot


Git 2.54

20 aprilie — Git 2.54 este disponibil cu trei evoluții structurale.

git history (experimental) — Nouă subcomandă pentru rescrierea istoricului fără a trece prin git rebase -i :

  • git history reword <commit> : modificarea mesajului unui commit și rescrierea ramurilor la locul lor
  • git history split <commit> : împărțirea unui commit în două în mod interactiv

Config-based hooks — Hook-urile pot fi acum definite în fișierele de configurare Git, nu doar în .git/hooks. Asta permite partajarea între mai multe depozite prin ~/.gitconfig, mai multe hook-uri pentru același eveniment și dezactivarea individuală prin hook.<name>.enabled = false.

Reîmpachetare geometrică implicităgit maintenance folosește acum strategia geometrică implicită, îmbunătățind performanța fără configurare suplimentară.

🔗 Noutăți din Git 2.54 🔗 Tweet @github


Genspark Build în previzualizare publică

21 aprilie — Genspark lansează Genspark Build în previzualizare publică (public preview): un instrument de creare de aplicații și site-uri web propulsat de Claude Opus 4.7, acoperind întregul proces de la idee la machetă, design, prototip și cod funcțional.

Utilizatorii Plus și Pro beneficiază de 3 zile de acces fără credit de pe 21 până pe 24 aprilie (9h PT). Genspark precizează că lansează „rough edges and all” — instrumentul este în construcție activă.

În aceeași zi, Genspark integrează de asemenea Lyria 3 Music în AI Music Agent și Gemini 3.1 Flash TTS în AI Audio Agent.

🔗 Tweet Genspark Build 🔗 Tweet Lyria 3 + TTS


Cohere — Cercetare asupra decodării speculative pentru modele MoE

21 aprilie — Cohere publică un articol de cercetare tehnică despre optimizarea modelelor Mixture-of-Experts (Mixture-of-Experts, MoE) cu decodare speculativă (speculative decoding).

Echipa validează pe modelele sale MoE în producție — inclusiv Command A (111 miliarde de parametri) — o curbă de câștig non-monotonă în funcție de dimensiunea lotului: câștigurile cresc inițial, apoi scad. Sunt identificate două mecanisme cheie: corelația temporală în rutarea experților reduce cu 20 până la 31 % numărul de experți unici care trebuie încărcați în memorie, iar amortizarea costurilor fixe explică câștigurile mari la BS=1.

🔗 Articol Cohere


Genspark Claw : Kimi K2.6 chiar din ziua lansării

21 aprilie — Genspark integrează Kimi K2.6 în instrumentul său Claw chiar în ziua lansării (Day 0), printr-un parteneriat cu Fireworks AI care a însoțit fazele de pre-lansare și testare.

🔗 Tweet @genspark_ai


Anthropic STEM Fellows Program

21 aprilie — Anthropic lansează programul STEM Fellows, destinat experților în științe și inginerie pentru a lucra alături de echipele de cercetare la proiecte de câteva luni, bazate în San Francisco.

🔗 Anunț @AnthropicAI


Ce înseamnă asta

21 aprilie marchează o convergență între raționament și generare multimodală. gpt-image-2 ilustrează o tendință clară: modelele generative integrează raționamentul ca strat de orchestrare, nu doar ca îmbunătățire a calității. Rezultatul este un model capabil să caute, să genereze, să verifice și să corecteze în aceeași sesiune.

Deep Research Max împinge aceeași logică pe partea de cercetare: cu suport MCP, agentul poate accesa date proprietare structurate, ceea ce deschide calea către workflow-uri analitice autonome fără exportul datelor sensibile către servicii terțe.

Parteneriatul NVIDIA × Adobe × WPP semnalează că adoptarea enterprise a IA creative iese din faza pilot. OpenShell ca runtime auditabil răspunde unei constrângeri reale a marilor organizații: agenții autonomi trebuie să poată fi observați și urmăriți, nu doar performanți.

Pe partea de instrumente, config-based hooks din Git 2.54 sunt o evoluție arhitecturală discretă, dar importantă: hook-urile partajate între depozite prin ~/.gitconfig vor schimba practicile de echipă pentru standardizarea workflow-urilor CI locale.


Surse - Prezentarea ChatGPT Images 2.0

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5.4-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator