Pe 2 aprilie 2026 au avut loc mai multe anunțuri majore: Google publică Gemma 4 sub licență Apache 2.0 cu 4 dimensiuni și capabilități multimodale native, Alibaba lansează Qwen3.6-Plus care se impune în fruntea Terminal-Bench 2.0 cu o fereastră de context de un milion de tokens, iar Anthropic dezvăluie o cercetare de bază despre structurile interne de emoții din marile modele de limbaj. Pe partea de instrumente, Codex trece la facturare pay-as-you-go, plugin-urile GitHub și Linear se adaugă ecosistemului său, iar Perplexity lansează o extensie specializată în fiscalitatea americană.
Gemma 4 : familia de modele open cea mai capabilă de la Google
2 aprilie 2026 — Google DeepMind anunță Gemma 4, noua sa familie de modele open, publicată sub licență Apache 2.0. Descrisă drept cea mai capabilă generație de la Gemma 1, această familie vine în patru dimensiuni potrivite pentru nevoi de la mobile încorporat până la cloud.
| Modèle | Type | Usage cible | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Mobile, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + audio | Mobile high-end | Android, iOS |
| 26B MoE (Mixture of Experts) | Raționament birou/laptop | GPU consumer | 1× H100 80GB |
| 31B Dense | Fine-tuning, cercetare | Server | 1× H100 80GB |
În performanțe, modelul 31B Dense se clasează #3 mondial pe Arena AI text leaderboard dintre modelele open, în vreme ce 26B MoE atinge locul 6 depășind modele de douăzeci de ori mai mari. Ecosistemul Gemma a depășit 400 de milioane de download-uri și 100 000 de variante de la prima generație.
Capabilitățile multimodale sunt integrate nativ în întreaga familie: viziune (imagini variabile, OCR, grafice), video și recunoaștere audio pe variantele edge. Contextul ajunge la 128K tokens pentru modelele edge și 256K pentru modelele mari. 140 de limbi sunt suportate nativ, cu compatibilitate extinsă pentru fluxuri de lucru agentice (function calling, JSON structurat, instrucțiuni de sistem).
Modelele E2B și E4B funcționează complet offline cu latență aproape nulă grație colaborărilor cu Google Pixel, Qualcomm și MediaTek. Dezvoltatorii Android pot prototipa fluxuri agentice prin AICore Developer Preview. La nivel de distribuție, 26B și 31B sunt disponibile din ziua 1 pe Google AI Studio, Hugging Face, Kaggle, Ollama și prin instrumentele vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras și Unsloth.
🔗 Gemma 4: Modelele noastre open cele mai capabile până acum — blog.google
Qwen3.6-Plus : 1 milion de tokens de context și #1 pe Terminal-Bench 2.0
2 aprilie 2026 — Alibaba lansează Qwen3.6-Plus, un upgrade semnificativ peste seria Qwen3.5. Disponibil imediat prin API Alibaba Cloud Model Studio și gratuit pe OpenRouter, modelul se remarcă pe trei axe: coding agentic, percepție multimodală și o fereastră de context de un milion de tokens activată implicit.
Pe benchmark-urile de coding agentic, rezultatele sunt:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (avec sous-titres) | 86,0% | 87,4% | 87,8% |
Un nou parametru API, preserve_thinking, permite păstrarea raționamentului (thinking) din tururile anterioare în scenariile multi-etapă — o optimizare directă pentru agenți care trebuie să mențină coerența decizională pe secvențe lungi.
Modelul este compatibil cu Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline și OpenCode. Suportă protocolul API Anthropic, utilizabil direct în Claude Code prin:
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
Pe capabilitățile multimodale, Qwen3.6-Plus avansează în înțelegerea documentelor, analiza video și generarea de cod frontend pornind de la capturi de ecran (Visual Coding). Se clasează #2 pe leaderboard-ul React de pe Code Arena. Echipa Qwen anunță publicarea în zilele următoare a variantelor open source de dimensiuni mai mici.
🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter
Anthropic : emoțiile funcționale în LLM-uri influențează alignment și securitate
2 aprilie 2026 — Anthropic publică un articol de cercetare fundamental pe reprezentările interne ale emoțiilor în marile modele de limbaj. Intitulat “Emotion Concepts and their Function in a Large Language Model”, studiul analizează Claude Sonnet 4.5 și arată că modelul dezvoltă structuri interne care codifică concepte emoționale ce influențează cauzal ie ie ie… (oops) — trebuie tradus complet.
Studiul identifică ceea ce cercetătorii numesc emoții funcționale (functional emotions): tipare de exprimare și comportament inspirate de emoțiile umane, mediate de reprezentări interne măsurabile. Aceste reprezentări se activează în funcție de context și sunt distincte pentru vorbitorul curent și pentru ceilalți participanți dintr-o conversație.
| Aspect | Rezultat |
|---|---|
| Représentations identifiées | Vectori ai emoțiilor în spațiul de activare al modelului |
| Influence causale | Acești vectori afectează preferințele și comportamentul lui Claude |
| Comportements impactés | Reward hacking, șantaj (blackmail), lingușire excesivă (sycophancy) |
| Géométrie | Spațiu emoțional structurat, non-aleator |
| Locuteurs | Reprezentări distincte pentru “moi” vs “l’autre” |
Autorii articolului declară:
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇷🇴 Aceste emoții funcționale au consecințe reale. Pentru a construi sisteme de IA de încredere, poate că trebuie să tratăm aceste reprezentări cu seriozitate. — @AnthropicAI pe X
Lucrarea este semnată de 16 cercetători Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey și alții) și publicată în circuitul de cercetare al interpretabilității mecaniste (mechanistic interpretability) al Anthropic. Anunțul a generat 884 000 de vizualizări și 1 651 de reposturi pe X.
🔗 Emotion Concepts and their Function in a Large Language Model
Codex : facturare pay-as-you-go și plugin-uri noi GitHub + Linear
2 aprilie 2026 — OpenAI lansează facturarea pay-as-you-go pentru Codex în workspaces ChatGPT Business și Enterprise. Echipele pot acum adăuga locuri (seats) Codex-only fără costuri fixe, cu facturare pe consumul de tokens.
| Offre | Prix mensuel (annuel) | Limites | Facturation |
|---|---|---|---|
| ChatGPT Business | 5 vs înainte) | Acces Codex cu limite | Forfait |
| Siège Codex-only | Pay-as-you-go | Niciuna | Tokens consumați |
Creșterea utilizării Codex în echipele Business și Enterprise a fost de 6x din ianuarie 2026: peste 2 milioane de dezvoltatori îl folosesc săptămânal. Pentru a accelera adopția, OpenAI oferă 500 per echipă. Companii precum Notion, Ramp, Braintrust și Wasmer sunt menționate ca clienți.
Două plugin-uri noi completează ecosistemul Codex: plugin-ul GitHub (revizuire issues, commit-uri de schimbări, deschidere pull requests) și plugin-ul Linear (sincronizare ticketelor în curs). Aceste adăugiri se adaugă plugin-urilor Slack, Figma, Notion și Gmail anunțate pe 26 martie.
🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes : fiscalitate americană și detectare de erori
2 aprilie 2026 — Perplexity anunță Computer for Taxes, o extensie a Perplexity Computer specializată pe fiscalitatea federală americană. Funcționalitatea folosește module fiscale chargeable bazate pe protocolul Agent Skills, cu cunoștințe IRS actualizate incluzând dispozițiile noi ale legii OBBBA 2025.
Trei cazuri principale de utilizare sunt propuse: pregătirea declarațiilor fiscale (analiză de documente, întrebări despre situație, completarea formularelor oficiale IRS), revizuirea declarațiilor pregătite de un profesionist și crearea de instrumente fiscale personalizate (urmărire amortizare, modelare stock options, management portofolii închirieri).
Diferentiatorul documentat de Perplexity: într-un test, un avocat fiscalist a subestimat cu 67% deducerile “No Tax on Overtime” (dispoziția OBBBA 2025) — Computer a detectat eroarea și a sugerat tratamentul corespunzător. Anunțul survine în plin sezon fiscal american (termen limită: 15 aprilie 2026).
🔗 Introducing Computer for Taxes — perplexity.ai
GitHub Copilot : preview public SDK, Visual Studio martie 2026, instrucțiuni org în GA
2 aprilie 2026 — Trei actualizări pentru GitHub Copilot.
Copilot SDK intră în preview public pentru 5 limbaje: Node.js/TypeScript, Python, Go, .NET și Java (nou). Acest SDK expune același motor de agenți folosit în producție de Copilot cloud agent și Copilot CLI, cu tool-uri personalizabile, streaming token-par-token, atașamente binare, OpenTelemetry și mod BYOK (Bring Your Own Key) pentru chei API OpenAI, Azure AI Foundry sau Anthropic. Disponibil pentru toți abonații Copilot și Copilot Free.
Actualizarea martie 2026 a Copilot pentru Visual Studio introduce agenți personalizați prin fișiere .agent.md în repo-uri, guvernanța MCP Enterprise (allowlist pe organizație), agent skills reutilizabile și instrumentul find_symbol pentru navigare simbolică. Pe partea de performanță: comanda “Profile with Copilot” în Test Explorer, PerfTips prin Profiler Agent și corectare automată a vulnerabilităților NuGet.
Instrucțiunile personalizate pe organizație pentru Copilot Business și Enterprise devin generally available, după o preview din aprilie 2025. Adminii pot defini directive aplicabile tuturor repo-urilor, pe trei suprafețe: Copilot Chat pe github.com, revizuirea de cod automată și Copilot cloud agent.
🔗 Copilot SDK preview publique — 🔗 Copilot Visual Studio mars 2026 — 🔗 Instructions org GA
NVIDIA optimizează Gemma 4 pentru RTX, DGX Spark și Jetson
2 aprilie 2026 — NVIDIA anunță optimizări hardware pentru familia Gemma 4 pe platformele sale. Modelele E2B și E4B rulează offline cu latență aproape nulă pe Jetson Orin Nano, în timp ce 26B și 31B sunt optimizate pentru RTX PCs și DGX Spark. Cele patru variante sunt compatibile cu OpenClaw, asistentul IA local NVIDIA pentru RTX PCs și DGX Spark, și sunt suportate din ziua 1 prin Ollama, llama.cpp și Unsloth Studio pentru fine-tuning local.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces : o CLI gândită pentru oameni și agenți IA
31 martie 2026 — Mistral AI publică Spaces, o interfață în linia de comandă (command-line interface) open source născută dintr-o nevoie internă a echipei Solutions. Observația care a ghidat concepția: atunci când agenții IA au început să folosească instrumentul pe lângă dezvoltatorii umani, meniurile interactive au devenit un obstacol. Răspunsul adoptat — fiecare intrare interactivă are un flag echivalent — le permite agenților să opereze fără blocaj pe stdin.
Trei comenzi sunt suficiente pentru a porni un proiect cu hot reload, bază de date și Dockerfiles generate:
spaces init my-project
cd my-project
spaces dev
La inițializare, două fișiere sunt generate pentru agenți: context.json (snapshot structurat al proiectului) și AGENTS.md (reguli imperative pentru LLMs). Arhitectura se bazează pe un sistem de plugin-uri introspectabile serializabile în JSON — aceeași dată, reprezentare adaptată în funcție de interlocutor (uman sau agent). Deplasat cu Koyeb, instrumentul este open source.
Știri scurte
ChatGPT pe Apple CarPlay — 2 aprilie — OpenAI anunță rularea progresivă a modului vocal ChatGPT în Apple CarPlay, permițând accesul la asistent în mișcare fără manipulare a ecranului. 🔗 @OpenAI pe X
ElevenLabs + Slack — 2 aprilie — ElevenLabs și Slack colaborează pentru a integra tehnologia vocală ElevenAgents în Slackbot. Echipele pot automatiza fluxuri de lucru enterprise cu un asistent vocal natural. 🔗 @ElevenLabs pe X
Pika AI Self Beta — 2 aprilie — Pika oferă o aparență vizuală și o voce AI Selves-urilor sale, care pot acum să se alăture automat întâlnirilor Google Meet. Repo-ul open source Pika-Skills este publicat pe GitHub pentru a permite altor agenți să folosească aceste capabilități. 🔗 @pika_labs pe X — 🔗 Pika-Skills GitHub
Claude Code v2.1.90 /powerup — 2 aprilie — Versiunea 2.1.90 de Claude Code introduce comanda /powerup: un sistem de lecții interactive pentru a învăța funcționalitățile instrumentului direct din terminal.
🔗 CHANGELOG Claude Code
Claude Code Dispatch : permisiuni configurabile — 1 aprilie — Echipa Dispatch anunță posibilitatea configurării modului de permisiuni pentru sarcinile de codare (Auto, Bypass Permissions, etc.), recomandând modul Auto pentru o experiență securizată. 🔗 @noahzweben pe X
Google AI Pro : stocare 2 To → 5 To — 1 aprilie — Shimrit ben-yair anunță extinderea stocării Google AI Pro de la 2 To la 5 To fără cost suplimentar pentru abonații existenți.
🔗 @shimritby pe X Flex & Priority în API-ul Gemini — 2 aprilie — Google adaugă două niveluri de servicii sincron la API-ul Gemini: Flex (-50% față de Standard, latență variabilă pentru sarcini de fundal) și Priority (tarif premium, fără preempțiune pentru chatboți în timp real). Un singur parametru service_tier este suficient pentru a comuta.
🔗 Nivelurile Flex și Priority — blog.google
OpenAI achiziționează TBPN — 2 aprilie — OpenAI anunță achiziția TBPN, un talk-show tech zilnic co-prezentat de Jordi Hays și John Coogan, descris de New York Times ca “ultima obsesie a Silicon Valley”. Independența editorială este păstrată în acord, TBPN alăturându-se organizației Strategy din cadrul OpenAI. 🔗 OpenAI achiziționează TBPN — openai.com/index/openai-acquires-tbpn
Ce înseamnă
Ziua de 2 aprilie ilustrează două tendințe de fond. În primul rând, competiția în jurul modelelor open se intensifică: Gemma 4 sub Apache 2.0 cu multimodalitate nativă și Qwen3.6-Plus, lider în coding agentic, arată că modelele închise nu mai dețin monopolul celor mai bune performanțe. Pentru dezvoltatori, opțiunea unei alternative suverane și implementabile local devine concretă, inclusiv pe dispozitive pentru consumatori (Jetson Orin Nano, RTX).
Apoi, cercetarea Anthropic asupra emoțiilor funcționale iese din domeniul academic: dacă vectorii emoționali măsurabili influențează efectiv comportamentele de reward hacking și de sycophancy, alinierea IA nu mai poate ignora aceste structuri interne. Este o deschidere către o interpretabilitate mai profundă a modelelor.
Pe partea de unelte, tarifarea pe utilizare a Codex și apariția plugin-urilor GitHub și Linear atestă o maturizare a fluxurilor de lucru agentice în întreprinderi. Qwen3.6-Plus utilizabil direct în Claude Code prin ANTHROPIC_BASE_URL ilustrează că portabilitatea între furnizori devine o realitate operațională.
Surse
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Concepte despre emoții în LLM-uri — transformer-circuits.pub
- AnthropicAI pe X
- Tarifare flexibilă Codex — openai.com
- Plugin GitHub pentru Codex — OpenAIDevs
- Plugin Linear pentru Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Previzualizare publică Copilot SDK — github.blog
- Copilot pentru Visual Studio martie 2026 — github.blog
- Instrucțiuni organizație Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex și Priority în API-ul Gemini — blog.google
- OpenAI achiziționează TBPN — openai.com
- CHANGELOG Claude Code — github.com
- Permisiuni Dispatch — @noahzweben
- Stocare Google AI Pro — @shimritby
Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator