Szukaj

GitHub Copilot CLI plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ poprawek

GitHub Copilot CLI plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ poprawek

ai-powered-markdown-translator

Przetłumaczono z fr na pl za pomocą gpt-5.4-mini.

Zobacz projekt na GitHubie ↗

GitHub Copilot wchodzi na kolejny poziom adopcji enterprise dzięki scentralizowanemu zarządzaniu pluginami CLI, podczas gdy aktualizacje z kwietnia dla VS Code przynoszą BYOK, wyszukiwanie semantyczne we wszystkich przestrzeniach roboczych oraz przeszukiwalną historię czatu. Claude Code utrzymuje intensywne tempo, dostarczając w tym tygodniu 60 kolejnych poprawek. Równolegle Luma AI otwiera API swojego modelu Uni-1.1, który prowadzi w rankingu Human Preference Elo, a Qwen3.6-35B-A3B notuje +8.2 punktu na benchmarku ODinW.


GitHub Copilot CLI — Pluginy zarządzane przez firmę w publicznej wersji zapoznawczej

6 maja — GitHub uruchamia w publicznej wersji zapoznawczej centralne zarządzanie pluginami Copilot CLI dla firm. Administratorzy mogą teraz definiować i dystrybuować pluginy (niestandardowych agentów, umiejętności, hooki, konfiguracje MCP) do wszystkich użytkowników swojej organizacji z jednego pliku settings.json.

Działanie w praktyce:

ParametrWartość
Plik konfiguracji.github-private/.github/copilot/settings.json
Wymagane planyCopilot Business, Copilot Enterprise
StatusPublic Preview
InstalacjaAutomatyczna przy uwierzytelnianiu

Copilot CLI pobiera i stosuje te ustawienia dla wszystkich licencjonowanych użytkowników. Pluginy mogą obejmować niestandardowych agentów, hooki workflow i konfiguracje MCP na poziomie całej organizacji. Jeśli firma wcześniej skonfigurowała źródło dla niestandardowych agentów przez .github-private, ten sam repozytorium jest ponownie używane. Administratorzy mogą sprawdzić konfigurację na stronie Agents w ustawieniach enterprise, w sekcji AI controls.

Ta funkcja wypełnia ważną lukę między indywidualnym użyciem Copilot CLI a wdrożeniem na poziomie całej organizacji: do tej pory każdy programista musiał konfigurować swoje pluginy ręcznie.

🔗 Ogłoszenie GitHub Changelog


GitHub Copilot w VS Code — Aktualizacje z kwietnia 2026 (v1.116–v1.119)

6 maja — GitHub publikuje podsumowanie aktualizacji Copilot dla VS Code obejmujące wersje v1.116 do v1.119 (od kwietnia do początku maja 2026), po przejściu VS Code na tygodniowe stabilne wydania.

Inteligentniejszy kontekst:

FunkcjaStatus
Wyszukiwanie semantyczne (wszystkie przestrzenie robocze)Dostępne
githubTextSearch (grep po repozytoriach GitHub)Dostępne
/chronicle (lokalna historia czatu)Eksperymentalne
Cache promptów + odroczone ładowanie narzędziDostępne

Wyszukiwanie semantyczne jest teraz aktywne we wszystkich przestrzeniach roboczych, a nie tylko w zindeksowanych repozytoriach. Narzędzie githubTextSearch umożliwia zapytania typu grep w całych repozytoriach i organizacjach GitHub. Eksperymentalne polecenie /chronicle tworzy lokalną bazę danych historii czatu, aby odnajdywać poprzednie sesje, dotknięte pliki i przywołane PR-y.

Bogatsze doświadczenie agenta:

FunkcjaStatus
BYOK (Business + Enterprise)Dostępne
Integrated BrowserDostępne
Zdalne monitorowanie CLIEksperymentalne
Dostęp do otwartych terminaliDostępne

BYOK (Bring Your Own Key) pozwala organizacjom Copilot Business i Enterprise podłączyć własne klucze API bezpośrednio w VS Code: obsługiwane są OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama i Foundry Local. Agenci mogą czytać i pisać w otwartych terminalach (REPL-ach, interaktywnych skryptach). Funkcja Integrated Browser umożliwia udostępnianie kart przeglądarki w czasie rzeczywistym jako kontekstu dla agentów. Sesje Copilot CLI mogą być zdalnie kontrolowane z poziomu GitHub.com lub aplikacji mobilnej (eksperymentalnie).

🔗 Ogłoszenie GitHub Changelog


Claude Code — 60+ poprawek niezawodności (tydzień 8 maja)

8 maja — Zespół Claude Code publikuje wątek wymieniający ponad 60 poprawek wdrożonych w tym tygodniu, dołączających do 50+ z poprzedniego tygodnia.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇵🇱 „W zeszłym tygodniu dostarczyliśmy ponad 50 poprawek niezawodności dla Claude Code. W tym tygodniu ponad 60 kolejnych. Płynniejsze długie sesje, skuteczniejsza pętla agenta, uwierzytelnianie działające w większej liczbie środowisk oraz poprawki terminala.”@ClaudeDevs na X

ObszarNajważniejsze poprawki
Stabilnośćclaude -p akceptuje >10 MB przez stdin, wznowienie po uśpieniu
Pętla agentaCache promptów dla subagentów, opt-in cache 1h przez ENABLE_PROMPT_CACHING_1H
UwierzytelnianieWklejanie kodu OAuth bezpośrednio do terminala (WSL, SSH, kontenery)
MCPAutomatyczne ponowne łączenie + czytelny status w /mcp, poprawka pamięci ograniczonej
Renderowanie terminalaPoprawka przewijania Cursor, VS Code, JetBrains; poprawka znaków japońskich

Aby zastosować te poprawki: claude update.

🔗 Changelog Claude Code


GitHub Copilot — Wycofanie Grok Code Fast 1 (15 maja)

8 maja — GitHub ogłasza wycofanie Grok Code Fast 1 we wszystkich środowiskach Copilot 15 maja 2026, czyli tydzień po ogłoszeniu. Powód: sam model został wycofany przez xAI.

ModelData wycofaniaSugerowana alternatywa
Grok Code Fast 115 maja 2026GPT-5 mini, Claude Haiku 4.5

Administratorzy Copilot Enterprise powinni upewnić się, że modele alternatywne są aktywowane w politykach modeli przed tą datą. Przejście po wycofaniu jest automatyczne — nie jest wymagana żadna dodatkowa akcja, aby usunąć model.

🔗 Ogłoszenie o wycofaniu


Google Health App — Fitbit staje się Google Health z trenerem Gemini

8 maja — Aplikacja Fitbit ewoluuje i staje się nową aplikacją Google Health. Ta przebudowa zachowuje wszystkie istniejące funkcje Fitbit i integruje spersonalizowanego trenera zdrowia wspieranego przez Gemini. Trener analizuje dane z urządzeń ubieralnych (wearables), preferowane aplikacje zdrowotne i dokumentację medyczną, aby dostarczać proaktywne porady zdrowotne dopasowane do każdego użytkownika.

Aplikacja jest kompatybilna z zegarkami Fitbit i Pixel Watch oraz integruje się z setkami aplikacji i urządzeń firm trzecich.

🔗 Ogłoszenie @GoogleAI


Gemini API — Multimodalne File Search, Webhooki, Gemma 4 MTP 3x szybsze

8 maja — Tygodniowe podsumowanie @GoogleAI wymienia trzy premiery developerskie tygodnia, 11 dni przed Google I/O:

FunkcjaDataWpływ
Multimodalne File Search5 majaWeryfikowalny multimodalny RAG z cytatami stron
Webhooki Gemini API4 majaZastąpienie polling powiadomieniami push
Gemma 4 MTP drafters5 majaNawet 3x szybsze wnioskowanie

Narzędzie File Search obsługuje teraz niestandardowe metadane i cytaty stron, co pozwala budować weryfikowalne systemy RAG (Retrieval-Augmented Generation) na źródłach multimodalnych. Webhooki eliminują potrzebę ciągłego odpytywania w przypadku długich zadań. Akceleratory MTP (Multi-Token Prediction) dla Gemma 4 zapewniają do 3x większą szybkość wnioskowania w przepływach wdrożeniowych.

🔗 Blog Google Developers


Luma AI Uni-1.1 API — Publiczne udostępnienie

5 maja — Luma AI otwiera swoje API Uni-1.1, udostępniając model inteligencji ujednoliconej (Unified Intelligence model) deweloperom przez interfejs REST. Model ten łączy rozumowanie i generowanie obrazów w jednej architekturze — w przeciwieństwie do standardowego podejścia, które łączy kilka oddzielnych modeli podczas inferencji.

MetrykaWartość
Human Preference Elo#1 (generowanie ogólne, styl, prowadzenie przez odniesienia)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench rozumowanie przestrzenneLider klasyfikacji
Odniesienia na zapytanieDo 9 obrazów
Czas generowania~31 sekund na obraz
Partnerzy produkcyjniEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

API oferuje dwa główne endpointy: Generate Image (tekst-na-obraz z maksymalnie 9 obrazami referencyjnymi dla zachowania tożsamości, kompozycji lub stylu) oraz Modify Image (edycja w języku naturalnym). Dostępne są SDK dla Python i JavaScript/TypeScript. Dwa progi cenowe: Build (rozliczenie za użycie) oraz Scale (wyższe limity przepustowości, dedykowane wsparcie).

🔗 Ogłoszenie Luma AI


NVIDIA + SakanaAI — Artykuł ICML 2026 o jądrach sparse TwELL

8 maja — NVIDIA AI i SakanaAI Labs wspólnie publikują pracę badawczą przyjętą na ICML 2026, dotyczącą jąder transformera rzadkiego (sparse transformer kernels) oraz formatów danych zoptymalizowanych pod wykonywanie na nowoczesnych GPU NVIDIA. Projekt nosi nazwę TwELL.

Kluczowa intuicja: ludzki mózg aktywuje tylko neurony potrzebne do danej myśli. Zastosowane do modeli językowych oznacza to selektywne obliczanie aktywnych wag dzięki strukturalnej rzadkości, co zmniejsza obciążenie obliczeniowe bez poświęcania wydajności. Badanie to wpisuje się w kierunek NVIDIA w stronę bardziej wydajnej inferencji, zwłaszcza dla architektur Mixture-of-Experts (MoE). Tweet uzyskał 50 000 wyświetleń i 66 repostów w społeczności ML.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 punktu na benchmarku ODinW

9 maja — Tongyi Lab (Alibaba) ogłasza postęp w wykrywaniu obiektów ukierunkowanym na instrukcje (Instruction-Oriented Object Detection) dzięki modelowi Qwen3.6-35B-A3B. W przeciwieństwie do klasycznego detektora, który jedynie lokalizuje elementy wizualne, to podejście ma na celu semantyczne rozumienie instrukcji w języku naturalnym, aby kierować detekcją.

MetrykaQwen3.5Qwen3.6-35B-A3BZysk
Wynik ODinW42.650.8+8.2 pkt

Interaktywna demonstracja jest dostępna w ModelScope.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1 200+ języków dla globalnej inkluzji

9 maja — Tongyi Lab (Alibaba) publikuje film zatytułowany „1,200+ Languages. One Vision for AI Inclusion”, stawiając pytanie o równy dostęp do AI dla słabiej reprezentowanych społeczności językowych. Inicjatywa zakłada obsługę ponad 1 200 języków — znacznie więcej niż 92 języki Qwen-MT ogłoszone w lipcu 2025 — w odpowiedzi na przepaść między globalną technologią a społecznościami, którym ma ona służyć.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Strona migracji ChatGPT do Codex

8 maja — OpenAI publikuje minimalistyczny tweet wskazujący na chatgpt.com/codex/switch-to-codex/, z jedynym komunikatem „Just gonna leave this here.” Tweet generuje 517 000 wyświetleń. Ten teaser wpisuje się w strategię pozycjonowania Codex jako centralnego asystenta programistycznego platformy ChatGPT. Strona docelowa nie była dostępna w momencie skanowania.

🔗 Tweet @OpenAI


Krótkie wiadomości

  • OpenAI supply.openai.com — @OpenAIDevs publikuje krypticzny tweet: „Available until the goblins notice.” 🧌, podając link do supply.openai.com. Strona nie była dostępna podczas skanowania (274 000 wyświetleń). 🔗 Tweet

Co to oznacza

Enterprise staje się centralnym polem bitwy Copilot. GitHub buduje fundamenty pod wdrażanie Copilot zarządzane na poziomie organizacji: scentralizowane pluginy przez .github-private, BYOK do podłączania własnych modeli, zdalne monitorowanie CLI i Integrated Browser jako żywy kontekst dla agentów. Te funkcje odpowiadają na realne potrzeby dyrektorów IT, którzy chcą standaryzować narzędzia AI, nie pozwalając każdemu programiście na własny stos. Jednoczesne wycofanie Grok Code Fast 1 (zastępowanego przez GPT-5 mini lub Claude Haiku 4.5) pokazuje też, jak szybko modele firm trzecich są w tym ekosystemie integrowane i usuwane.

Claude Code stawia na niezawodność. Ponad 110 poprawek w dwóch kolejnych tygodniach dotyczących konkretnych obszarów — długich sesji, uwierzytelniania OAuth w ograniczonych środowiskach, MCP i renderowania terminala — sygnalizuje, że zespół Anthropic uznał niezawodność za główną barierę adopcji produkcyjnej. Poprawki dla WSL, SSH i kontenerów celują wprost w środowiska enterprise, gdzie przeglądarka nie może dotrzeć do localhost. Opt-in cache promptów na godzinę dla subagentów to także sygnał: wieloagentowe, długotrwałe workflow stają się priorytetowym przypadkiem użycia.

Luma AI i ujednolicone API: zakład architektoniczny. Tam, gdzie większość pipeline’ów generowania obrazów składa kilka wyspecjalizowanych modeli, Uni-1 łączy rozumowanie i generację w jednej architekturze. Możliwość użycia do 9 obrazów referencyjnych na zapytanie — oraz wyniki #1 Human Preference Elo — sugerują, że to ujednolicone podejście zapewnia spójność stylu trudną do osiągnięcia w składanych pipeline’ach. 8 partnerów już działających produkcyjnie potwierdza, że API jest gotowe na rzeczywiste obciążenia.

Alibaba/Qwen celuje w multimodalność i wielojęzyczność. Zysk +8.2 punktu na ODinW dla Qwen3.6-35B-A3B w detekcji obiektów sterowanej językiem naturalnym, połączony z ambicją obsługi 1 200+ języków, pokazuje strategię Tongyi Lab ukierunkowaną na zastosowania o dużym wpływie społecznym: wizję przemysłową dostępną przez instrukcje tekstowe oraz AI użyteczną dla społeczności językowych obecnie pozbawionych wsparcia. Te dwa kierunki łączą się w jednej logice szerokiej dostępności.


Źródła