ai-powered-markdown-translatorPrzetłumaczono z fr na pl za pomocą gpt-5.4-mini.
GitHub Copilot wchodzi na kolejny poziom adopcji enterprise dzięki scentralizowanemu zarządzaniu pluginami CLI, podczas gdy aktualizacje z kwietnia dla VS Code przynoszą BYOK, wyszukiwanie semantyczne we wszystkich przestrzeniach roboczych oraz przeszukiwalną historię czatu. Claude Code utrzymuje intensywne tempo, dostarczając w tym tygodniu 60 kolejnych poprawek. Równolegle Luma AI otwiera API swojego modelu Uni-1.1, który prowadzi w rankingu Human Preference Elo, a Qwen3.6-35B-A3B notuje +8.2 punktu na benchmarku ODinW.
GitHub Copilot CLI — Pluginy zarządzane przez firmę w publicznej wersji zapoznawczej
6 maja — GitHub uruchamia w publicznej wersji zapoznawczej centralne zarządzanie pluginami Copilot CLI dla firm. Administratorzy mogą teraz definiować i dystrybuować pluginy (niestandardowych agentów, umiejętności, hooki, konfiguracje MCP) do wszystkich użytkowników swojej organizacji z jednego pliku settings.json.
Działanie w praktyce:
| Parametr | Wartość |
|---|---|
| Plik konfiguracji | .github-private/.github/copilot/settings.json |
| Wymagane plany | Copilot Business, Copilot Enterprise |
| Status | Public Preview |
| Instalacja | Automatyczna przy uwierzytelnianiu |
Copilot CLI pobiera i stosuje te ustawienia dla wszystkich licencjonowanych użytkowników. Pluginy mogą obejmować niestandardowych agentów, hooki workflow i konfiguracje MCP na poziomie całej organizacji. Jeśli firma wcześniej skonfigurowała źródło dla niestandardowych agentów przez .github-private, ten sam repozytorium jest ponownie używane. Administratorzy mogą sprawdzić konfigurację na stronie Agents w ustawieniach enterprise, w sekcji AI controls.
Ta funkcja wypełnia ważną lukę między indywidualnym użyciem Copilot CLI a wdrożeniem na poziomie całej organizacji: do tej pory każdy programista musiał konfigurować swoje pluginy ręcznie.
GitHub Copilot w VS Code — Aktualizacje z kwietnia 2026 (v1.116–v1.119)
6 maja — GitHub publikuje podsumowanie aktualizacji Copilot dla VS Code obejmujące wersje v1.116 do v1.119 (od kwietnia do początku maja 2026), po przejściu VS Code na tygodniowe stabilne wydania.
Inteligentniejszy kontekst:
| Funkcja | Status |
|---|---|
| Wyszukiwanie semantyczne (wszystkie przestrzenie robocze) | Dostępne |
githubTextSearch (grep po repozytoriach GitHub) | Dostępne |
/chronicle (lokalna historia czatu) | Eksperymentalne |
| Cache promptów + odroczone ładowanie narzędzi | Dostępne |
Wyszukiwanie semantyczne jest teraz aktywne we wszystkich przestrzeniach roboczych, a nie tylko w zindeksowanych repozytoriach. Narzędzie githubTextSearch umożliwia zapytania typu grep w całych repozytoriach i organizacjach GitHub. Eksperymentalne polecenie /chronicle tworzy lokalną bazę danych historii czatu, aby odnajdywać poprzednie sesje, dotknięte pliki i przywołane PR-y.
Bogatsze doświadczenie agenta:
| Funkcja | Status |
|---|---|
| BYOK (Business + Enterprise) | Dostępne |
| Integrated Browser | Dostępne |
| Zdalne monitorowanie CLI | Eksperymentalne |
| Dostęp do otwartych terminali | Dostępne |
BYOK (Bring Your Own Key) pozwala organizacjom Copilot Business i Enterprise podłączyć własne klucze API bezpośrednio w VS Code: obsługiwane są OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama i Foundry Local. Agenci mogą czytać i pisać w otwartych terminalach (REPL-ach, interaktywnych skryptach). Funkcja Integrated Browser umożliwia udostępnianie kart przeglądarki w czasie rzeczywistym jako kontekstu dla agentów. Sesje Copilot CLI mogą być zdalnie kontrolowane z poziomu GitHub.com lub aplikacji mobilnej (eksperymentalnie).
Claude Code — 60+ poprawek niezawodności (tydzień 8 maja)
8 maja — Zespół Claude Code publikuje wątek wymieniający ponad 60 poprawek wdrożonych w tym tygodniu, dołączających do 50+ z poprzedniego tygodnia.
“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”
🇵🇱 „W zeszłym tygodniu dostarczyliśmy ponad 50 poprawek niezawodności dla Claude Code. W tym tygodniu ponad 60 kolejnych. Płynniejsze długie sesje, skuteczniejsza pętla agenta, uwierzytelnianie działające w większej liczbie środowisk oraz poprawki terminala.” — @ClaudeDevs na X
| Obszar | Najważniejsze poprawki |
|---|---|
| Stabilność | claude -p akceptuje >10 MB przez stdin, wznowienie po uśpieniu |
| Pętla agenta | Cache promptów dla subagentów, opt-in cache 1h przez ENABLE_PROMPT_CACHING_1H |
| Uwierzytelnianie | Wklejanie kodu OAuth bezpośrednio do terminala (WSL, SSH, kontenery) |
| MCP | Automatyczne ponowne łączenie + czytelny status w /mcp, poprawka pamięci ograniczonej |
| Renderowanie terminala | Poprawka przewijania Cursor, VS Code, JetBrains; poprawka znaków japońskich |
Aby zastosować te poprawki: claude update.
GitHub Copilot — Wycofanie Grok Code Fast 1 (15 maja)
8 maja — GitHub ogłasza wycofanie Grok Code Fast 1 we wszystkich środowiskach Copilot 15 maja 2026, czyli tydzień po ogłoszeniu. Powód: sam model został wycofany przez xAI.
| Model | Data wycofania | Sugerowana alternatywa |
|---|---|---|
| Grok Code Fast 1 | 15 maja 2026 | GPT-5 mini, Claude Haiku 4.5 |
Administratorzy Copilot Enterprise powinni upewnić się, że modele alternatywne są aktywowane w politykach modeli przed tą datą. Przejście po wycofaniu jest automatyczne — nie jest wymagana żadna dodatkowa akcja, aby usunąć model.
Google Health App — Fitbit staje się Google Health z trenerem Gemini
8 maja — Aplikacja Fitbit ewoluuje i staje się nową aplikacją Google Health. Ta przebudowa zachowuje wszystkie istniejące funkcje Fitbit i integruje spersonalizowanego trenera zdrowia wspieranego przez Gemini. Trener analizuje dane z urządzeń ubieralnych (wearables), preferowane aplikacje zdrowotne i dokumentację medyczną, aby dostarczać proaktywne porady zdrowotne dopasowane do każdego użytkownika.
Aplikacja jest kompatybilna z zegarkami Fitbit i Pixel Watch oraz integruje się z setkami aplikacji i urządzeń firm trzecich.
Gemini API — Multimodalne File Search, Webhooki, Gemma 4 MTP 3x szybsze
8 maja — Tygodniowe podsumowanie @GoogleAI wymienia trzy premiery developerskie tygodnia, 11 dni przed Google I/O:
| Funkcja | Data | Wpływ |
|---|---|---|
| Multimodalne File Search | 5 maja | Weryfikowalny multimodalny RAG z cytatami stron |
| Webhooki Gemini API | 4 maja | Zastąpienie polling powiadomieniami push |
| Gemma 4 MTP drafters | 5 maja | Nawet 3x szybsze wnioskowanie |
Narzędzie File Search obsługuje teraz niestandardowe metadane i cytaty stron, co pozwala budować weryfikowalne systemy RAG (Retrieval-Augmented Generation) na źródłach multimodalnych. Webhooki eliminują potrzebę ciągłego odpytywania w przypadku długich zadań. Akceleratory MTP (Multi-Token Prediction) dla Gemma 4 zapewniają do 3x większą szybkość wnioskowania w przepływach wdrożeniowych.
Luma AI Uni-1.1 API — Publiczne udostępnienie
5 maja — Luma AI otwiera swoje API Uni-1.1, udostępniając model inteligencji ujednoliconej (Unified Intelligence model) deweloperom przez interfejs REST. Model ten łączy rozumowanie i generowanie obrazów w jednej architekturze — w przeciwieństwie do standardowego podejścia, które łączy kilka oddzielnych modeli podczas inferencji.
| Metryka | Wartość |
|---|---|
| Human Preference Elo | #1 (generowanie ogólne, styl, prowadzenie przez odniesienia) |
| Image Arena | Top 3 (Text-to-Image + Image Edit) |
| RISEBench rozumowanie przestrzenne | Lider klasyfikacji |
| Odniesienia na zapytanie | Do 9 obrazów |
| Czas generowania | ~31 sekund na obraz |
| Partnerzy produkcyjni | Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt |
API oferuje dwa główne endpointy: Generate Image (tekst-na-obraz z maksymalnie 9 obrazami referencyjnymi dla zachowania tożsamości, kompozycji lub stylu) oraz Modify Image (edycja w języku naturalnym). Dostępne są SDK dla Python i JavaScript/TypeScript. Dwa progi cenowe: Build (rozliczenie za użycie) oraz Scale (wyższe limity przepustowości, dedykowane wsparcie).
NVIDIA + SakanaAI — Artykuł ICML 2026 o jądrach sparse TwELL
8 maja — NVIDIA AI i SakanaAI Labs wspólnie publikują pracę badawczą przyjętą na ICML 2026, dotyczącą jąder transformera rzadkiego (sparse transformer kernels) oraz formatów danych zoptymalizowanych pod wykonywanie na nowoczesnych GPU NVIDIA. Projekt nosi nazwę TwELL.
Kluczowa intuicja: ludzki mózg aktywuje tylko neurony potrzebne do danej myśli. Zastosowane do modeli językowych oznacza to selektywne obliczanie aktywnych wag dzięki strukturalnej rzadkości, co zmniejsza obciążenie obliczeniowe bez poświęcania wydajności. Badanie to wpisuje się w kierunek NVIDIA w stronę bardziej wydajnej inferencji, zwłaszcza dla architektur Mixture-of-Experts (MoE). Tweet uzyskał 50 000 wyświetleń i 66 repostów w społeczności ML.
Qwen3.6-35B-A3B — +8.2 punktu na benchmarku ODinW
9 maja — Tongyi Lab (Alibaba) ogłasza postęp w wykrywaniu obiektów ukierunkowanym na instrukcje (Instruction-Oriented Object Detection) dzięki modelowi Qwen3.6-35B-A3B. W przeciwieństwie do klasycznego detektora, który jedynie lokalizuje elementy wizualne, to podejście ma na celu semantyczne rozumienie instrukcji w języku naturalnym, aby kierować detekcją.
| Metryka | Qwen3.5 | Qwen3.6-35B-A3B | Zysk |
|---|---|---|---|
| Wynik ODinW | 42.6 | 50.8 | +8.2 pkt |
Interaktywna demonstracja jest dostępna w ModelScope.
Tongyi Lab — 1 200+ języków dla globalnej inkluzji
9 maja — Tongyi Lab (Alibaba) publikuje film zatytułowany „1,200+ Languages. One Vision for AI Inclusion”, stawiając pytanie o równy dostęp do AI dla słabiej reprezentowanych społeczności językowych. Inicjatywa zakłada obsługę ponad 1 200 języków — znacznie więcej niż 92 języki Qwen-MT ogłoszone w lipcu 2025 — w odpowiedzi na przepaść między globalną technologią a społecznościami, którym ma ona służyć.
OpenAI Codex Switch — Strona migracji ChatGPT do Codex
8 maja — OpenAI publikuje minimalistyczny tweet wskazujący na chatgpt.com/codex/switch-to-codex/, z jedynym komunikatem „Just gonna leave this here.” Tweet generuje 517 000 wyświetleń. Ten teaser wpisuje się w strategię pozycjonowania Codex jako centralnego asystenta programistycznego platformy ChatGPT. Strona docelowa nie była dostępna w momencie skanowania.
Krótkie wiadomości
- OpenAI supply.openai.com — @OpenAIDevs publikuje krypticzny tweet: „Available until the goblins notice.” 🧌, podając link do
supply.openai.com. Strona nie była dostępna podczas skanowania (274 000 wyświetleń). 🔗 Tweet
Co to oznacza
Enterprise staje się centralnym polem bitwy Copilot. GitHub buduje fundamenty pod wdrażanie Copilot zarządzane na poziomie organizacji: scentralizowane pluginy przez .github-private, BYOK do podłączania własnych modeli, zdalne monitorowanie CLI i Integrated Browser jako żywy kontekst dla agentów. Te funkcje odpowiadają na realne potrzeby dyrektorów IT, którzy chcą standaryzować narzędzia AI, nie pozwalając każdemu programiście na własny stos. Jednoczesne wycofanie Grok Code Fast 1 (zastępowanego przez GPT-5 mini lub Claude Haiku 4.5) pokazuje też, jak szybko modele firm trzecich są w tym ekosystemie integrowane i usuwane.
Claude Code stawia na niezawodność. Ponad 110 poprawek w dwóch kolejnych tygodniach dotyczących konkretnych obszarów — długich sesji, uwierzytelniania OAuth w ograniczonych środowiskach, MCP i renderowania terminala — sygnalizuje, że zespół Anthropic uznał niezawodność za główną barierę adopcji produkcyjnej. Poprawki dla WSL, SSH i kontenerów celują wprost w środowiska enterprise, gdzie przeglądarka nie może dotrzeć do localhost. Opt-in cache promptów na godzinę dla subagentów to także sygnał: wieloagentowe, długotrwałe workflow stają się priorytetowym przypadkiem użycia.
Luma AI i ujednolicone API: zakład architektoniczny. Tam, gdzie większość pipeline’ów generowania obrazów składa kilka wyspecjalizowanych modeli, Uni-1 łączy rozumowanie i generację w jednej architekturze. Możliwość użycia do 9 obrazów referencyjnych na zapytanie — oraz wyniki #1 Human Preference Elo — sugerują, że to ujednolicone podejście zapewnia spójność stylu trudną do osiągnięcia w składanych pipeline’ach. 8 partnerów już działających produkcyjnie potwierdza, że API jest gotowe na rzeczywiste obciążenia.
Alibaba/Qwen celuje w multimodalność i wielojęzyczność. Zysk +8.2 punktu na ODinW dla Qwen3.6-35B-A3B w detekcji obiektów sterowanej językiem naturalnym, połączony z ambicją obsługi 1 200+ języków, pokazuje strategię Tongyi Lab ukierunkowaną na zastosowania o dużym wpływie społecznym: wizję przemysłową dostępną przez instrukcje tekstowe oraz AI użyteczną dla społeczności językowych obecnie pozbawionych wsparcia. Te dwa kierunki łączą się w jednej logice szerokiej dostępności.
Źródła
- GitHub Copilot CLI — pluginy zarządzane przez enterprise (Public Preview)
- GitHub Copilot VS Code — wydania z kwietnia 2026
- GitHub Copilot — wycofanie Grok Code Fast 1
- Claude Code — wątek 60+ poprawek niezawodności (@ClaudeDevs)
- Claude Code — oficjalny changelog
- Google Health App — ogłoszenie @GoogleAI
- Gemini API — blog Google Developers Tools
- Luma AI Uni-1.1 API
- NVIDIA + SakanaAI — artykuł TwELL ICML26
- Qwen3.6-35B-A3B — ODinW +8.2 pkt (@Ali_TongyiLab)
- ModelScope — demonstracja Object Detection Qwen
- Tongyi Lab — 1200+ Languages (@Ali_TongyiLab)
- OpenAI Codex Switch
- OpenAI supply.openai.com — teaser (@OpenAIDevs)