Căutare

Copilot CLI Remote Control, MiniMax M2.7, Qwen3.5-Omni API

Copilot CLI Remote Control, MiniMax M2.7, Qwen3.5-Omni API

Pe 13 aprilie 2026, GitHub lansează funcționalitatea de control de la distanță (remote control) pentru sesiunile Copilot CLI, permițând controlul unui terminal de pe web sau de pe un telefon printr-un simplu cod QR. MiniMax publică M2.7, un model agent disponibil pe ModelScope cu un ecosistem cloud operațional încă din prima zi. Alibaba pune la dispoziție API-ul Qwen3.5-Omni pentru dezvoltatorii din întreaga lume, iar Google DeepMind anunță că Gemini 3.1 Flash Live (Thinking) ocupă acum primul loc în clasamentul τ-Voice pentru agenții vocali.


GitHub Copilot CLI — Control de la distanță de pe web și mobil

13 aprilie — GitHub lansează copilot --remote în public preview: o sesiune Copilot CLI în desfășurare poate fi acum monitorizată și controlată de pe GitHub.com sau din aplicația GitHub Mobile, fără acces direct la mașină.

Funcționarea este simplă: la pornirea unei sesiuni la distanță, CLI afișează un link și un cod QR. Navigând la acest link dintr-un browser sau de pe un telefon, utilizatorul accesează interfața sesiunii curente. Sincronizarea este bidirecțională — acțiunile efectuate pe web sau mobil se reflectă în terminal și invers.

FuncționalitateDetaliu
Pornirecopilot --remote sau /remote într-o sesiune existentă
AccesLink + cod QR afișat de CLI
AplicațiiGitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play beta)
SincronizareBidirecțională în timp real
ConfidențialitateSesiune privată, vizibilă doar pentru utilizatorul care a pornit-o
Menținerea sesiuniiComanda /keep-alive pentru a evita intrarea în repaus în timpul sarcinilor lungi

Toate funcționalitățile CLI obișnuite rămân accesibile de la distanță: pilotare în timpul sesiunii (steering), revizuirea și modificarea planurilor, schimbarea modului (plan / interactiv / autopilot), aprobarea sau refuzarea permisiunilor, răspunsul la întrebările ask_user.

Notă pentru companii: utilizatorii Copilot Business sau Enterprise au nevoie ca un administrator să activeze politicile de control de la distanță și de CLI înainte de utilizare.

🔗 Anunț GitHub Changelog


MiniMax M2.7 — Model agent open-source cu ecosistem cloud din prima zi

12 aprilie — MiniMax publică M2.7, un LLM cu arhitectură agent disponibil pe ModelScope, cu integrare vLLM operațională din prima zi.

Performanțele publicate plasează M2.7 la nivelul celor mai bune modele de codare disponibile:

BenchmarkScor M2.7
SWE-Pro56,22% (egal GPT-5.3-Codex)
Terminal Bench 257,0%

Modelul este conceput pentru orchestrarea multi-agent (Agent Teams), codarea avansată și automatizarea sarcinilor din linia de comandă. Este accesibil imediat prin Together AI (serverless și dedicat) și Fireworks AI.

De notat: MiniMax a precizat după publicare că M2.7 nu este strict open-source în sensul licenței — modelul a fost republicat cu condiții de utilizare modificate.

🔗 Anunț open-source pe ModelScope 🔗 Suport vLLM din prima zi 🔗 Disponibilitate Together AI


Qwen3.5-Omni API — Disponibilitate internațională

13 aprilie — Tongyi Lab (Alibaba) anunță disponibilitatea internațională a API-ului Qwen3.5-Omni prin Alibaba Cloud Model Studio. Modelul qwen3.5-omni-plus este accesibil imediat cu o cheie API.

Prezentat într-un articol de cercetare pe 29 martie 2026, Qwen3.5-Omni este un model omnimodal nativ: procesează text, imagini, audio și video într-o singură inferență, fără un pipeline în mai mulți pași. Dispune de două moduri de funcționare — Thinker (raționament) și Talker (conversație vocală) — printr-o arhitectură hibridă.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇷🇴 API-ul Qwen3.5-Omni este acum disponibil oficial, gata să transforme modul în care procesați conținut video.@Ali_TongyiLab pe X

🔗 Thread de anunț 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — Nr. 1 în clasamentul τ-Voice

13 aprilie — Tulsee Doshi (Product Manager Google DeepMind) anunță că Gemini 3.1 Flash Live, cu modul Thinking activat, a preluat primul loc în τ-Voice Leaderboard de la Sierra Platform.

Acest clasament măsoară performanța modelelor pentru construirea de agenți vocali în timp real: înțelegerea vorbirii, raționamentul pe mai multe tururi și executarea de acțiuni în scenarii apropiate de producție. Gemini 3.1 Flash Live fusese lansat pe 26 martie 2026; acest rezultat îi validează capabilitățile pentru dezvoltatorii care construiesc aplicații vocale.

Modelul este disponibil prin API-ul Gemini Live în Google AI Studio.

🔗 Anunț pe X 🔗 τ-Voice Leaderboard


Conectori TurboTax și Aiwyn Tax pentru Claude

12 aprilie — Henry Shi (Anthropic) anunță doi noi conectori pentru Claude: TurboTax și Aiwyn Tax (fost Column Tax), lansați cu câteva zile înainte de termenul-limită american pentru depunerea declarațiilor fiscale, 15 aprilie.

Odată conectat, Claude poate estima rambursarea sau suma datorată, poate explica formularele fiscale și poate ghida utilizatorul prin procesul de depunere a declarației. Acești conectori se adresează utilizatorilor americani care dețin un abonament Claude.

🔗 Anunț Henry Shi pe X


Ce înseamnă asta

Funcționalitatea copilot --remote de la GitHub este cea mai importantă a zilei: deschide un nou mod de utilizare pentru sarcinile lungi în CLI — lansarea unei sesiuni de pe un post de lucru, apoi monitorizarea sau controlul ei de pe orice dispozitiv. Este un răspuns direct la cazurile de utilizare ale agenților autonomi care rulează timp de ore.

La nivelul modelelor, MiniMax M2.7 și Qwen3.5-Omni ilustrează două dinamici diferite: M2.7 țintește dezvoltatorii care implementează agenți de codare (cu integrare vLLM din prima zi, spre deosebire de majoritatea modelelor care ajung târziu în acest ecosistem); Qwen3.5-Omni mizează pe multimodalitatea nativă, cu video ca argument central.

Rezultatul obținut de Gemini 3.1 Flash Live în τ-Voice Leaderboard confirmă faptul că Google investește serios în segmentul agenților vocali în producție — o piață încă puțin structurată, dar în creștere.


Surse

Acest document a fost tradus din versiunea fr în limba ro folosind modelul gpt-5.4-mini. Pentru mai multe informații despre procesul de traducere, consultați https://gitlab.com/jls42/ai-powered-markdown-translator