Căutare

GitHub Copilot CLI enterprise plugins, VS Code BYOK + /chronicle, Claude Code 60+ remedieri

GitHub Copilot CLI enterprise plugins, VS Code BYOK + /chronicle, Claude Code 60+ remedieri

ai-powered-markdown-translator

Articol tradus din fr în ro cu gpt-5.4-mini.

Vezi proiectul pe GitHub ↗

GitHub Copilot face un nou pas în adoptarea enterprise odată cu gestionarea centralizată a pluginurilor CLI, în timp ce actualizările din aprilie pentru VS Code aduc BYOK, căutarea semantică în toate spațiile de lucru și un istoric de chat interogabil. Claude Code își continuă ritmul intens cu încă 60 de remedieri în această săptămână. În paralel, Luma AI deschide API-ul modelului său Uni-1.1, aflat pe primul loc în clasamentul Human Preference Elo, iar Qwen3.6-35B-A3B înregistrează +8.2 puncte pe benchmark-ul ODinW.


GitHub Copilot CLI — Pluginuri gestionate de companie în previzualizare publică

6 mai — GitHub lansează în previzualizare publică gestionarea centralizată a pluginurilor Copilot CLI pentru companii. Administratorii pot acum să definească și să distribuie pluginuri (agenți personalizați, competențe, hook-uri, configurații MCP) tuturor utilizatorilor organizației lor dintr-un singur fișier settings.json.

Funcționare concretă:

ParametruValoare
Fișier de configurare.github-private/.github/copilot/settings.json
Planuri necesareCopilot Business, Copilot Enterprise
StarePreviziune publică (Public Preview)
InstalareAutomată la autentificare

Copilot CLI preia și aplică aceste setări pentru toți utilizatorii licențiați. Pluginurile pot include agenți personalizați, hook-uri de workflow și configurații MCP la nivel de organizație. Dacă firma configurase deja o sursă pentru agenții personalizați prin .github-private, același depozit este reutilizat. Administratorii pot verifica configurația din pagina Agents din setările enterprise, sub AI controls.

Această funcționalitate acoperă un decalaj important între adoptarea individuală a Copilot CLI și implementarea sa la scara unei organizații: până acum, fiecare dezvoltator trebuia să-și configureze manual pluginurile.

🔗 Anunț GitHub Changelog


GitHub Copilot în VS Code — Actualizări aprilie 2026 (v1.116–v1.119)

6 mai — GitHub publică rezumatul actualizărilor Copilot pentru VS Code care acoperă versiunile v1.116 până la v1.119 (aprilie până la început de mai 2026), după trecerea VS Code la lansări stabile săptămânale.

Context mai inteligent:

FuncționalitateStare
Căutare semantică (toate spațiile de lucru)Disponibilă
githubTextSearch (grep pe depozite GitHub)Disponibil
/chronicle (istoric de chat local)Experimental
Cache de prompturi + încărcare amânată a instrumentelorDisponibil

Căutarea semantică este acum activă în toate spațiile de lucru, nu doar în depozitele indexate. Instrumentul githubTextSearch permite interogări de tip grep pe depozite și organizații GitHub întregi. Comanda experimentală /chronicle creează o bază de date locală a istoricului de chat pentru a regăsi sesiuni anterioare, fișierele afectate și PR-urile referențiate.

Experiență de agent îmbunătățită:

FuncționalitateStare
BYOK (Business + Enterprise)Disponibil
Integrated BrowserDisponibil
Monitorizare CLI de la distanțăExperimental
Acces la terminalele deschiseDisponibil

BYOK (Bring Your Own Key) permite organizațiilor Copilot Business și Enterprise să-și conecteze propriile chei API direct în VS Code: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama și Foundry Local sunt suportate. Agenții pot citi și scrie în terminalele deschise (REPL-uri, scripturi interactive). Funcționalitatea Integrated Browser permite partajarea în timp real a filelor din browser ca context pentru agenți. Sesiunile Copilot CLI pot fi controlate de la distanță din GitHub.com sau din aplicația mobilă (experimental).

🔗 Anunț GitHub Changelog


Claude Code — 60+ remedieri de fiabilitate (săptămâna de 8 mai)

8 mai — Echipa Claude Code publică un thread care listează peste 60 de remedieri implementate în această săptămână, care se adaugă celor 50+ din săptămâna precedentă.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇷🇴 „Săptămâna trecută am livrat peste 50 de remedieri de fiabilitate pentru Claude Code. Săptămâna aceasta, încă 60+. Sesiuni lungi mai fluide, o buclă agent mai eficientă, o autentificare care funcționează în mai multe medii și remedieri pentru terminal.”@ClaudeDevs pe X

DomeniuRemedieri notabile
Stabilitateclaude -p acceptă >10 Mo prin stdin, reluare după suspendare
Buclă agentPrompt cache pentru subagenți, cache opțional de 1h prin ENABLE_PROMPT_CACHING_1H
AutentificareLipirea codului OAuth direct în terminal (WSL, SSH, containere)
MCPReconectare automată + stare clară în /mcp, fix pentru memorie limitată
Randare terminalFix pentru derularea Cursor, VS Code, JetBrains; fix pentru caractere japoneze

Pentru a aplica aceste remedieri: claude update.

🔗 Changelog Claude Code


GitHub Copilot — Deprecarea Grok Code Fast 1 (15 mai)

8 mai — GitHub anunță depreciarea Grok Code Fast 1 în toate mediile Copilot pe 15 mai 2026, adică la o săptămână după anunț. Motivul: modelul este, la rândul său, depreciat de xAI.

ModelData deprecieriiAlternativă sugerată
Grok Code Fast 115 mai 2026GPT-5 mini, Claude Haiku 4.5

Administratorii Copilot Enterprise trebuie să verifice că modelele alternative sunt activate în politicile lor de modele înainte de această dată. Tranziția după deprecere este automată — nu este necesară nicio acțiune suplimentară pentru eliminarea modelului.

🔗 Anunț de depreciere


Google Health App — Fitbit devine Google Health cu coach Gemini

8 mai — Aplicația Fitbit evoluează și devine noua aplicație Google Health. Această reproiectare păstrează toate funcționalitățile Fitbit existente și integrează un coach de sănătate personalizat propulsat de Gemini. Acest coach analizează datele dispozitivelor purtabile (wearables), aplicațiile de sănătate preferate și dosarele medicale pentru a furniza sfaturi de sănătate proactive, adaptate fiecărui utilizator.

Aplicația este compatibilă cu ceasurile Fitbit și Pixel Watch și se integrează cu sute de aplicații și dispozitive terțe.

🔗 Anunț @GoogleAI


Gemini API — File Search multimodal, Webhooks, Gemma 4 MTP de 3x mai rapid

8 mai — Rezumatul săptămânal @GoogleAI listează trei lansări pentru dezvoltatori din această săptămână, la 11 zile de Google I/O:

FuncționalitateDataImpact
File Search multimodal5 maiRAG multimodal verificabil cu citări de pagini
Webhooks Gemini API4 maiÎnlocuirea polling-ului cu notificări push
Gemma 4 MTP drafters5 maiPână la 3x mai rapid la inferență

Instrumentul File Search suportă acum metadate personalizate și citări de pagini, ceea ce permite construirea de sisteme RAG (Retrieval-Augmented Generation) verificabile pe surse multimodale. Webhooks elimină nevoia de interogare continuă pentru sarcinile lungi. Acceleratoarele MTP (Multi-Token Prediction) pentru Gemma 4 oferă până la 3x mai multă viteză de inferență în fluxurile de lucru de implementare.

🔗 Blog Google Developers


Luma AI Uni-1.1 API — Deschidere publică

5 mai — Luma AI își deschide API-ul Uni-1.1, făcând modelul său de inteligență unificată (Unified Intelligence model) accesibil dezvoltatorilor printr-o interfață REST. Acest model integrează raționamentul și generarea de imagini într-o singură arhitectură — spre deosebire de abordarea standard care combină mai multe modele separate la inferență.

MetricăValoare
Human Preference Elo#1 (generare globală, stil, referință ghidată)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench raționament spațialPrimul loc
Referințe per cererePână la 9 imagini
Timp de generare~31 secunde per imagine
Parteneri în producțieEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

API-ul oferă două endpoint-uri principale: Generate Image (text-la-imagine cu până la 9 imagini de referință pentru a păstra identitatea, compoziția sau stilul) și Modify Image (editare în limbaj natural). SDK-urile Python și JavaScript/TypeScript sunt disponibile. Două niveluri tarifare: Build (facturare în funcție de utilizare) și Scale (limite de debit mai mari, suport dedicat).

🔗 Anunț Luma AI


NVIDIA + SakanaAI — Paper ICML 2026 despre kernel-urile sparse TwELL

8 mai — NVIDIA AI și SakanaAI Labs publică împreună un articol de cercetare acceptat la ICML 2026, axat pe kernel-uri sparse pentru transformere (sparse transformer kernels) și formate de date optimizate pentru rularea pe GPU-uri NVIDIA moderne. Proiectul se numește TwELL.

Ideea centrală: creierul uman activează doar neuronii necesari pentru o anumită idee. Aplicat la modelele de limbaj, acest lucru se traduce printr-un calcul selectiv al greutăților active prin sparsitate structurată, reducând sarcina de calcul fără a sacrifica performanța. Această cercetare se aliniază direcției NVIDIA către o inferență mai eficientă, în special pentru arhitecturile Mixture-of-Experts (MoE). Tweet-ul a obținut 50 000 de vizualizări și 66 de repostări în comunitatea ML.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 puncte pe benchmark-ul ODinW

9 mai — Tongyi Lab (Alibaba) anunță un progres în detectarea obiectelor orientată pe instrucțiuni (Instruction-Oriented Object Detection) datorită modelului Qwen3.6-35B-A3B. Spre deosebire de detectarea clasică, care se limitează la localizarea elementelor vizuale, această abordare urmărește să înțeleagă semantic instrucțiuni în limbaj natural pentru a ghida detectarea.

MetricăQwen3.5Qwen3.6-35B-A3BCâștig
ODinW score42.650.8+8.2 pts

O demonstrație interactivă este disponibilă pe ModelScope.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1 200+ limbi pentru incluziune globală

9 mai — Tongyi Lab (Alibaba) publică un videoclip intitulat “1,200+ Languages. One Vision for AI Inclusion”, punând întrebarea accesului echitabil la AI pentru comunitățile lingvistice slab reprezentate. Inițiativa vizează o acoperire de peste 1 200 de limbi — mult dincolo de cele 92 de limbi ale Qwen-MT anunțat în iulie 2025 — ca răspuns la prăpastia dintre tehnologia globală și comunitățile pe care ar trebui să le deservească.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Pagina de migrare ChatGPT către Codex

8 mai — OpenAI publică un tweet minimalist care indică chatgpt.com/codex/switch-to-codex/, cu singurul mesaj “Just gonna leave this here.” Tweet-ul generează 517 000 de vizualizări. Acest teaser se înscrie în strategia de poziționare a Codex ca asistent de dezvoltare central al platformei ChatGPT. Pagina de destinație nu era accesibilă la momentul scanării.

🔗 Tweet @OpenAI


Pe scurt

  • OpenAI supply.openai.com — @OpenAIDevs publică un tweet criptic: “Available until the goblins notice.” 🧌, citând un link către supply.openai.com. Pagina nu era accesibilă la momentul scanării (274 000 de vizualizări). 🔗 Tweet

Ce înseamnă asta

Enterprise devine bătălia centrală a Copilot. GitHub pune bazele unui deployment Copilot gestionat la nivelul organizațiilor: pluginuri centralizate prin .github-private, BYOK pentru conectarea propriilor modele, monitorizare CLI de la distanță și Integrated Browser ca context live pentru agenți. Aceste funcționalități răspund unei cereri reale din partea CIO-urilor care vor să standardizeze instrumentele AI fără să lase fiecare dezvoltator să-și configureze propriul stack. Deprecierea simultană a Grok Code Fast 1 (înlocuit de GPT-5 mini sau Claude Haiku 4.5) ilustrează și viteza cu care modelele terțe sunt integrate apoi eliminate în acest ecosistem.

Claude Code mizează pe fiabilitate. Peste 110 remedieri în două săptămâni consecutive pe subiecte precise — sesiuni lungi, autentificare OAuth în medii restricționate, MCP, randare terminal — arată că echipa Anthropic a identificat fiabilitatea drept principalul obstacol în adoptarea în producție. Remedierile pentru WSL, SSH și containere vizează explicit mediile enterprise în care browserul nu poate ajunge la localhost. Opțiunea de activare a cache-ului de prompturi de o oră pentru subagenți este, de asemenea, un semnal: fluxurile de lucru multi-agent de lungă durată devin un caz de utilizare prioritar.

Luma AI și API-ul unificat: o miză arhitecturală. Acolo unde majoritatea fluxurilor de generare a imaginilor combină mai multe modele specializate, Uni-1 integrează raționamentul și generarea într-o singură arhitectură. Capacitatea de a folosi până la 9 imagini de referință per cerere — și rezultatele #1 în Human Preference Elo — sugerează că această abordare unificată oferă o coerență de stil dificil de obținut cu fluxuri asamblate. Cei 8 parteneri deja în producție confirmă că API-ul este gata pentru sarcini reale.

Alibaba/Qwen vizează multimodalul și multilingvismul. Câștigul de +8.2 puncte pe ODinW pentru Qwen3.6-35B-A3B la detectarea obiectelor ghidată de limbaj natural, combinat cu ambiția de a acoperi 1 200+ limbi, trasează o strategie Tongyi Lab orientată spre utilizări cu impact social ridicat: viziune industrială accesibilă prin instrucțiuni textuale și AI utilizabilă de comunități lingvistice care în prezent nu sunt deservite. Aceste două axe se întâlnesc într-o aceeași logică a accesibilității extinse.


Surse