ai-powered-markdown-translatorArticol tradus din fr în ro cu gpt-5.4-mini.
GitHub Copilot face un nou pas în adoptarea enterprise odată cu gestionarea centralizată a pluginurilor CLI, în timp ce actualizările din aprilie pentru VS Code aduc BYOK, căutarea semantică în toate spațiile de lucru și un istoric de chat interogabil. Claude Code își continuă ritmul intens cu încă 60 de remedieri în această săptămână. În paralel, Luma AI deschide API-ul modelului său Uni-1.1, aflat pe primul loc în clasamentul Human Preference Elo, iar Qwen3.6-35B-A3B înregistrează +8.2 puncte pe benchmark-ul ODinW.
GitHub Copilot CLI — Pluginuri gestionate de companie în previzualizare publică
6 mai — GitHub lansează în previzualizare publică gestionarea centralizată a pluginurilor Copilot CLI pentru companii. Administratorii pot acum să definească și să distribuie pluginuri (agenți personalizați, competențe, hook-uri, configurații MCP) tuturor utilizatorilor organizației lor dintr-un singur fișier settings.json.
Funcționare concretă:
| Parametru | Valoare |
|---|---|
| Fișier de configurare | .github-private/.github/copilot/settings.json |
| Planuri necesare | Copilot Business, Copilot Enterprise |
| Stare | Previziune publică (Public Preview) |
| Instalare | Automată la autentificare |
Copilot CLI preia și aplică aceste setări pentru toți utilizatorii licențiați. Pluginurile pot include agenți personalizați, hook-uri de workflow și configurații MCP la nivel de organizație. Dacă firma configurase deja o sursă pentru agenții personalizați prin .github-private, același depozit este reutilizat. Administratorii pot verifica configurația din pagina Agents din setările enterprise, sub AI controls.
Această funcționalitate acoperă un decalaj important între adoptarea individuală a Copilot CLI și implementarea sa la scara unei organizații: până acum, fiecare dezvoltator trebuia să-și configureze manual pluginurile.
GitHub Copilot în VS Code — Actualizări aprilie 2026 (v1.116–v1.119)
6 mai — GitHub publică rezumatul actualizărilor Copilot pentru VS Code care acoperă versiunile v1.116 până la v1.119 (aprilie până la început de mai 2026), după trecerea VS Code la lansări stabile săptămânale.
Context mai inteligent:
| Funcționalitate | Stare |
|---|---|
| Căutare semantică (toate spațiile de lucru) | Disponibilă |
githubTextSearch (grep pe depozite GitHub) | Disponibil |
/chronicle (istoric de chat local) | Experimental |
| Cache de prompturi + încărcare amânată a instrumentelor | Disponibil |
Căutarea semantică este acum activă în toate spațiile de lucru, nu doar în depozitele indexate. Instrumentul githubTextSearch permite interogări de tip grep pe depozite și organizații GitHub întregi. Comanda experimentală /chronicle creează o bază de date locală a istoricului de chat pentru a regăsi sesiuni anterioare, fișierele afectate și PR-urile referențiate.
Experiență de agent îmbunătățită:
| Funcționalitate | Stare |
|---|---|
| BYOK (Business + Enterprise) | Disponibil |
| Integrated Browser | Disponibil |
| Monitorizare CLI de la distanță | Experimental |
| Acces la terminalele deschise | Disponibil |
BYOK (Bring Your Own Key) permite organizațiilor Copilot Business și Enterprise să-și conecteze propriile chei API direct în VS Code: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama și Foundry Local sunt suportate. Agenții pot citi și scrie în terminalele deschise (REPL-uri, scripturi interactive). Funcționalitatea Integrated Browser permite partajarea în timp real a filelor din browser ca context pentru agenți. Sesiunile Copilot CLI pot fi controlate de la distanță din GitHub.com sau din aplicația mobilă (experimental).
Claude Code — 60+ remedieri de fiabilitate (săptămâna de 8 mai)
8 mai — Echipa Claude Code publică un thread care listează peste 60 de remedieri implementate în această săptămână, care se adaugă celor 50+ din săptămâna precedentă.
“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”
🇷🇴 „Săptămâna trecută am livrat peste 50 de remedieri de fiabilitate pentru Claude Code. Săptămâna aceasta, încă 60+. Sesiuni lungi mai fluide, o buclă agent mai eficientă, o autentificare care funcționează în mai multe medii și remedieri pentru terminal.” — @ClaudeDevs pe X
| Domeniu | Remedieri notabile |
|---|---|
| Stabilitate | claude -p acceptă >10 Mo prin stdin, reluare după suspendare |
| Buclă agent | Prompt cache pentru subagenți, cache opțional de 1h prin ENABLE_PROMPT_CACHING_1H |
| Autentificare | Lipirea codului OAuth direct în terminal (WSL, SSH, containere) |
| MCP | Reconectare automată + stare clară în /mcp, fix pentru memorie limitată |
| Randare terminal | Fix pentru derularea Cursor, VS Code, JetBrains; fix pentru caractere japoneze |
Pentru a aplica aceste remedieri: claude update.
GitHub Copilot — Deprecarea Grok Code Fast 1 (15 mai)
8 mai — GitHub anunță depreciarea Grok Code Fast 1 în toate mediile Copilot pe 15 mai 2026, adică la o săptămână după anunț. Motivul: modelul este, la rândul său, depreciat de xAI.
| Model | Data deprecierii | Alternativă sugerată |
|---|---|---|
| Grok Code Fast 1 | 15 mai 2026 | GPT-5 mini, Claude Haiku 4.5 |
Administratorii Copilot Enterprise trebuie să verifice că modelele alternative sunt activate în politicile lor de modele înainte de această dată. Tranziția după deprecere este automată — nu este necesară nicio acțiune suplimentară pentru eliminarea modelului.
Google Health App — Fitbit devine Google Health cu coach Gemini
8 mai — Aplicația Fitbit evoluează și devine noua aplicație Google Health. Această reproiectare păstrează toate funcționalitățile Fitbit existente și integrează un coach de sănătate personalizat propulsat de Gemini. Acest coach analizează datele dispozitivelor purtabile (wearables), aplicațiile de sănătate preferate și dosarele medicale pentru a furniza sfaturi de sănătate proactive, adaptate fiecărui utilizator.
Aplicația este compatibilă cu ceasurile Fitbit și Pixel Watch și se integrează cu sute de aplicații și dispozitive terțe.
Gemini API — File Search multimodal, Webhooks, Gemma 4 MTP de 3x mai rapid
8 mai — Rezumatul săptămânal @GoogleAI listează trei lansări pentru dezvoltatori din această săptămână, la 11 zile de Google I/O:
| Funcționalitate | Data | Impact |
|---|---|---|
| File Search multimodal | 5 mai | RAG multimodal verificabil cu citări de pagini |
| Webhooks Gemini API | 4 mai | Înlocuirea polling-ului cu notificări push |
| Gemma 4 MTP drafters | 5 mai | Până la 3x mai rapid la inferență |
Instrumentul File Search suportă acum metadate personalizate și citări de pagini, ceea ce permite construirea de sisteme RAG (Retrieval-Augmented Generation) verificabile pe surse multimodale. Webhooks elimină nevoia de interogare continuă pentru sarcinile lungi. Acceleratoarele MTP (Multi-Token Prediction) pentru Gemma 4 oferă până la 3x mai multă viteză de inferență în fluxurile de lucru de implementare.
Luma AI Uni-1.1 API — Deschidere publică
5 mai — Luma AI își deschide API-ul Uni-1.1, făcând modelul său de inteligență unificată (Unified Intelligence model) accesibil dezvoltatorilor printr-o interfață REST. Acest model integrează raționamentul și generarea de imagini într-o singură arhitectură — spre deosebire de abordarea standard care combină mai multe modele separate la inferență.
| Metrică | Valoare |
|---|---|
| Human Preference Elo | #1 (generare globală, stil, referință ghidată) |
| Image Arena | Top 3 (Text-to-Image + Image Edit) |
| RISEBench raționament spațial | Primul loc |
| Referințe per cerere | Până la 9 imagini |
| Timp de generare | ~31 secunde per imagine |
| Parteneri în producție | Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt |
API-ul oferă două endpoint-uri principale: Generate Image (text-la-imagine cu până la 9 imagini de referință pentru a păstra identitatea, compoziția sau stilul) și Modify Image (editare în limbaj natural). SDK-urile Python și JavaScript/TypeScript sunt disponibile. Două niveluri tarifare: Build (facturare în funcție de utilizare) și Scale (limite de debit mai mari, suport dedicat).
NVIDIA + SakanaAI — Paper ICML 2026 despre kernel-urile sparse TwELL
8 mai — NVIDIA AI și SakanaAI Labs publică împreună un articol de cercetare acceptat la ICML 2026, axat pe kernel-uri sparse pentru transformere (sparse transformer kernels) și formate de date optimizate pentru rularea pe GPU-uri NVIDIA moderne. Proiectul se numește TwELL.
Ideea centrală: creierul uman activează doar neuronii necesari pentru o anumită idee. Aplicat la modelele de limbaj, acest lucru se traduce printr-un calcul selectiv al greutăților active prin sparsitate structurată, reducând sarcina de calcul fără a sacrifica performanța. Această cercetare se aliniază direcției NVIDIA către o inferență mai eficientă, în special pentru arhitecturile Mixture-of-Experts (MoE). Tweet-ul a obținut 50 000 de vizualizări și 66 de repostări în comunitatea ML.
Qwen3.6-35B-A3B — +8.2 puncte pe benchmark-ul ODinW
9 mai — Tongyi Lab (Alibaba) anunță un progres în detectarea obiectelor orientată pe instrucțiuni (Instruction-Oriented Object Detection) datorită modelului Qwen3.6-35B-A3B. Spre deosebire de detectarea clasică, care se limitează la localizarea elementelor vizuale, această abordare urmărește să înțeleagă semantic instrucțiuni în limbaj natural pentru a ghida detectarea.
| Metrică | Qwen3.5 | Qwen3.6-35B-A3B | Câștig |
|---|---|---|---|
| ODinW score | 42.6 | 50.8 | +8.2 pts |
O demonstrație interactivă este disponibilă pe ModelScope.
Tongyi Lab — 1 200+ limbi pentru incluziune globală
9 mai — Tongyi Lab (Alibaba) publică un videoclip intitulat “1,200+ Languages. One Vision for AI Inclusion”, punând întrebarea accesului echitabil la AI pentru comunitățile lingvistice slab reprezentate. Inițiativa vizează o acoperire de peste 1 200 de limbi — mult dincolo de cele 92 de limbi ale Qwen-MT anunțat în iulie 2025 — ca răspuns la prăpastia dintre tehnologia globală și comunitățile pe care ar trebui să le deservească.
OpenAI Codex Switch — Pagina de migrare ChatGPT către Codex
8 mai — OpenAI publică un tweet minimalist care indică chatgpt.com/codex/switch-to-codex/, cu singurul mesaj “Just gonna leave this here.” Tweet-ul generează 517 000 de vizualizări. Acest teaser se înscrie în strategia de poziționare a Codex ca asistent de dezvoltare central al platformei ChatGPT. Pagina de destinație nu era accesibilă la momentul scanării.
Pe scurt
- OpenAI supply.openai.com — @OpenAIDevs publică un tweet criptic: “Available until the goblins notice.” 🧌, citând un link către
supply.openai.com. Pagina nu era accesibilă la momentul scanării (274 000 de vizualizări). 🔗 Tweet
Ce înseamnă asta
Enterprise devine bătălia centrală a Copilot. GitHub pune bazele unui deployment Copilot gestionat la nivelul organizațiilor: pluginuri centralizate prin .github-private, BYOK pentru conectarea propriilor modele, monitorizare CLI de la distanță și Integrated Browser ca context live pentru agenți. Aceste funcționalități răspund unei cereri reale din partea CIO-urilor care vor să standardizeze instrumentele AI fără să lase fiecare dezvoltator să-și configureze propriul stack. Deprecierea simultană a Grok Code Fast 1 (înlocuit de GPT-5 mini sau Claude Haiku 4.5) ilustrează și viteza cu care modelele terțe sunt integrate apoi eliminate în acest ecosistem.
Claude Code mizează pe fiabilitate. Peste 110 remedieri în două săptămâni consecutive pe subiecte precise — sesiuni lungi, autentificare OAuth în medii restricționate, MCP, randare terminal — arată că echipa Anthropic a identificat fiabilitatea drept principalul obstacol în adoptarea în producție. Remedierile pentru WSL, SSH și containere vizează explicit mediile enterprise în care browserul nu poate ajunge la localhost. Opțiunea de activare a cache-ului de prompturi de o oră pentru subagenți este, de asemenea, un semnal: fluxurile de lucru multi-agent de lungă durată devin un caz de utilizare prioritar.
Luma AI și API-ul unificat: o miză arhitecturală. Acolo unde majoritatea fluxurilor de generare a imaginilor combină mai multe modele specializate, Uni-1 integrează raționamentul și generarea într-o singură arhitectură. Capacitatea de a folosi până la 9 imagini de referință per cerere — și rezultatele #1 în Human Preference Elo — sugerează că această abordare unificată oferă o coerență de stil dificil de obținut cu fluxuri asamblate. Cei 8 parteneri deja în producție confirmă că API-ul este gata pentru sarcini reale.
Alibaba/Qwen vizează multimodalul și multilingvismul. Câștigul de +8.2 puncte pe ODinW pentru Qwen3.6-35B-A3B la detectarea obiectelor ghidată de limbaj natural, combinat cu ambiția de a acoperi 1 200+ limbi, trasează o strategie Tongyi Lab orientată spre utilizări cu impact social ridicat: viziune industrială accesibilă prin instrucțiuni textuale și AI utilizabilă de comunități lingvistice care în prezent nu sunt deservite. Aceste două axe se întâlnesc într-o aceeași logică a accesibilității extinse.
Surse
- GitHub Copilot CLI — Enterprise-managed plugins (Public Preview)
- GitHub Copilot VS Code — April 2026 Releases
- GitHub Copilot — Deprecierea Grok Code Fast 1
- Claude Code — Thread 60+ reliability fixes (@ClaudeDevs)
- Claude Code — Changelog oficial
- Google Health App — Anunț @GoogleAI
- Gemini API — Blog Google Developers Tools
- Luma AI Uni-1.1 API
- NVIDIA + SakanaAI — Paper TwELL ICML26
- Qwen3.6-35B-A3B — ODinW +8.2 pts (@Ali_TongyiLab)
- ModelScope — Demonstrație Object Detection Qwen
- Tongyi Lab — 1200+ Languages (@Ali_TongyiLab)
- OpenAI Codex Switch
- OpenAI supply.openai.com — teaser (@OpenAIDevs)