Szukaj

Zdalne sterowanie Copilot CLI, MiniMax M2.7, API Qwen3.5-Omni

Zdalne sterowanie Copilot CLI, MiniMax M2.7, API Qwen3.5-Omni

13 kwietnia 2026 — GitHub uruchamia funkcję zdalnego sterowania (remote control) dla sesji Copilot CLI, umożliwiając sterowanie terminalem z poziomu web lub telefonu za pomocą prostego kodu QR. MiniMax publikuje M2.7, model agentowy dostępny w ModelScope z ekosystemem cloud działającym już od pierwszego dnia. Alibaba udostępnia API Qwen3.5-Omni dla programistów na całym świecie, a Google DeepMind ogłasza, że Gemini 3.1 Flash Live (Thinking) zajmuje teraz pierwsze miejsce w rankingu τ-Voice dla agentów głosowych.


GitHub Copilot CLI — Zdalne sterowanie z poziomu web i mobile

13 kwietnia — GitHub uruchamia copilot --remote w public preview: trwającą sesję Copilot CLI można teraz monitorować i sterować nią z poziomu GitHub.com lub aplikacji GitHub Mobile, bez bezpośredniego dostępu do maszyny.

Działanie jest proste: po uruchomieniu sesji zdalnej CLI wyświetla link i kod QR. Po przejściu pod ten link z poziomu przeglądarki lub telefonu użytkownik uzyskuje dostęp do interfejsu bieżącej sesji. Synchronizacja działa dwukierunkowo — działania wykonane w web lub mobile są odzwierciedlane w terminalu i odwrotnie.

FunkcjaSzczegóły
Uruchomieniecopilot --remote lub /remote w istniejącej sesji
DostępLink + kod QR wyświetlany przez CLI
AplikacjeGitHub.com + GitHub Mobile (iOS TestFlight, beta Android Google Play)
SynchronizacjaDwukierunkowa w czasie rzeczywistym
PrywatnośćSesja prywatna, widoczna wyłącznie dla użytkownika, który ją uruchomił
Utrzymanie sesjiPolecenie /keep-alive pozwala uniknąć uśpienia podczas długich zadań

Wszystkie standardowe funkcje CLI pozostają dostępne zdalnie: sterowanie w trakcie sesji (steering), przegląd i edycja planów, zmiana trybu (plan / interaktywny / autopilot), zatwierdzanie lub odrzucanie uprawnień, odpowiadanie na pytania ask_user.

Uwaga dla firm: użytkownicy Copilot Business lub Enterprise potrzebują, aby administrator włączył zasady zdalnego sterowania i CLI przed użyciem.

🔗 Ogłoszenie GitHub Changelog


MiniMax M2.7 — Otwarty model agentowy z ekosystemem cloud od dnia 0

12 kwietnia — MiniMax publikuje M2.7, LLM o architekturze agentowej dostępny w ModelScope, z integracją vLLM działającą już od pierwszego dnia.

Opublikowane wyniki stawiają M2.7 na poziomie najlepszych dostępnych modeli do kodowania:

BenchmarkWynik M2.7
SWE-Pro56,22% (wyrównuje GPT-5.3-Codex)
Terminal Bench 257,0%

Model został zaprojektowany do orkiestracji wielu agentów (Agent Teams), zaawansowanego kodowania i automatyzacji zadań w wierszu poleceń. Jest dostępny od razu przez Together AI (serverless i dedykowane) oraz Fireworks AI.

Warto odnotować: MiniMax doprecyzował po publikacji, że M2.7 nie jest ściśle open-source w sensie licencyjnym — model został opublikowany ponownie ze zmienionymi warunkami użytkowania.

🔗 Ogłoszenie open-source na ModelScope 🔗 Obsługa vLLM od dnia 0 🔗 Dostępność Together AI


API Qwen3.5-Omni — Dostępność międzynarodowa

13 kwietnia — Tongyi Lab (Alibaba) ogłasza międzynarodową dostępność API Qwen3.5-Omni poprzez Alibaba Cloud Model Studio. Model qwen3.5-omni-plus jest dostępny od razu z kluczem API.

Przedstawiony w artykule badawczym 29 marca 2026 roku, Qwen3.5-Omni jest natywnym modelem omnimodalnym: przetwarza tekst, obrazy, audio i wideo w ramach pojedynczej inferencji, bez wieloetapowego pipeline. Dysponuje dwoma trybami działania — Thinker (rozumowanie) i Talker (rozmowa głosowa) — poprzez architekturę hybrydową.

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇵🇱 API Qwen3.5-Omni jest teraz oficjalnie dostępne, gotowe, aby zmienić sposób, w jaki przetwarzasz treści wideo.@Ali_TongyiLab na X

🔗 Wątek ogłoszeniowy 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — Nr 1 w rankingu τ-Voice

13 kwietnia — Tulsee Doshi (Product Manager Google DeepMind) ogłasza, że Gemini 3.1 Flash Live z aktywnym trybem Thinking zajęło pierwsze miejsce w τ-Voice Leaderboard platformy Sierra.

Ranking ten mierzy skuteczność modeli w budowie agentów głosowych w czasie rzeczywistym: rozumienie mowy, wieloturowe rozumowanie i wykonywanie działań w scenariuszach zbliżonych do produkcyjnych. Gemini 3.1 Flash Live zostało uruchomione 26 marca 2026 roku; ten wynik potwierdza jego możliwości dla deweloperów tworzących aplikacje głosowe.

Model jest dostępny przez API Gemini Live w Google AI Studio.

🔗 Ogłoszenie na X 🔗 τ-Voice Leaderboard


Łączniki TurboTax i Aiwyn Tax dla Claude

12 kwietnia — Henry Shi (Anthropic) ogłasza dwa nowe łączniki dla Claude: TurboTax i Aiwyn Tax (dawniej Column Tax), uruchomione na kilka dni przed terminem amerykańskiego rozliczenia podatkowego 15 kwietnia.

Po połączeniu Claude może oszacować zwrot podatku lub kwotę do zapłaty, wyjaśniać formularze podatkowe i prowadzić użytkownika przez proces rozliczenia. Te łączniki są skierowane do użytkowników w USA posiadających subskrypcję Claude.

🔗 Ogłoszenie Henry Shi na X


Co to oznacza

Funkcja copilot --remote od GitHub jest najbardziej przełomowa tego dnia: otwiera nowy sposób korzystania z długich zadań CLI — uruchomienie sesji ze stacji roboczej, a następnie jej monitorowanie lub sterowanie nią z dowolnego urządzenia. To bezpośrednia odpowiedź na przypadki użycia autonomicznych agentów działających przez wiele godzin.

Jeśli chodzi o modele, MiniMax M2.7 i Qwen3.5-Omni pokazują dwa różne kierunki: M2.7 celuje w deweloperów wdrażających agentów do kodowania (z integracją vLLM od pierwszego dnia, w przeciwieństwie do większości modeli, które trafiają do tego ekosystemu z opóźnieniem); Qwen3.5-Omni stawia na natywną multimodalność, z wideo jako centralnym argumentem.

Wynik Gemini 3.1 Flash Live w τ-Voice Leaderboard potwierdza, że Google poważnie inwestuje w segment agentów głosowych w produkcji — rynku wciąż słabo ustrukturyzowanego, ale rosnącego.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator