Szukaj

Claude Code v2.1.63, OpenAI podpisuje z Pentagonem, Anthropic nie ustępuje Departamentowi Wojny

Claude Code v2.1.63, OpenAI podpisuje z Pentagonem, Anthropic nie ustępuje Departamentowi Wojny

Koniec lutego 2026 upływa pod znakiem napięć między dużymi laboratoriami AI a Departamentem Wojny USA: OpenAI podpisuje tajne porozumienie z Pentagonem z trzema „czerwonymi liniami”, podczas gdy Anthropic odmawia tych samych ustępstw i grozi procesem. Na froncie technicznym Claude Code v2.1.63 to najbardziej znacząca aktualizacja od kilku tygodni, a pamięć Claude wreszcie trafia do użytkowników korzystających z planu darmowego.


Claude Code v2.1.63: /simplify, HTTP hooks i fala poprawek pamięci

28 lutego 2026 — Wersja 2.1.63 Claude Code to najszersza aktualizacja od kilku tygodni. Łączy nowe funkcje dla deweloperów z istotną serią poprawek wycieków pamięci — osiem napraw w sumie.

Nowe funkcje

FunkcjaOpis
/simplify et /batchDwie nowe komendy slash dołączone do instalacji domyślnej
HTTP hooksHooki mogą teraz wysyłać JSON na zewnętrzny URL (POST) i otrzymywać JSON w odpowiedzi, zamiast jedynie uruchamiać polecenie shell
Project configs & auto memoryWspólne między wszystkimi git worktrees tego samego repozytorium
ENABLE_CLAUDEAI_MCP_SERVERS=falseNowa zmienna środowiskowa do wyłączenia serwerów MCP claude.ai
/model amélioréTeraz wyświetla aktywny model w menu komend slash
/copy “Always copy full response”Opcja kopiowania pełnej odpowiedzi bez użycia pickera
VSCode — zarządzanie sesjamiAkcje rename i remove dostępne na liście sesji
MCP OAuth — URL paste fallbackJeśli redirect localhost się nie powiedzie, URL callback można wkleić ręcznie

Dodanie HTTP hooks jest szczególnie istotne: pozwala integrować Claude Code w zewnętrznych workflowach automatyzacji (CI, webhooks, systemy powiadomień) bez potrzeby używania pośrednich skryptów shell.

Poprawki wycieków pamięci (8 napraw)

Fala ośmiu poprawek adresuje przyrosty pamięci w długotrwałych sesjach:

  • Pętla polling bridge, przepływ MCP OAuth, menu konfiguracji hooków, cache prefiksu poleceń bash
  • Cache narzędzi/zasobów MCP, wykrywanie IP hosta IDE, nasłuchiwacz WebSocket, wykrywanie git root
  • Wiadomości teammate’ów zwalniane po kompaktowaniu rozmowy
  • Cache fetchów serwera MCP czyszczony przy rozłączeniu
  • Subagents: odciążone payloady postępu podczas kompaktowania

Dla zespołów używających Claude Code jako orkiestratora multi-agentów lub prowadzących długie sesje, te poprawki powinny znacząco zmniejszyć zużycie pamięci w dłuższej perspektywie.

Inne poprawki

  • VSCode: zdalne sesje nie pokazywały się w historii rozmów — naprawione
  • Race condition w REPL bridge (wiadomości przychodzące przeplatały się z historią)
  • /clear : przestarzałe ukryte skills, które utrzymywały się w nowej rozmowie

🔗 Lista zmian Claude Code


OpenAI × Anthropic wobec Departamentu Wojny — Dwa podejścia, jedno nieustępliwe stanowisko

OpenAI podpisuje porozumienie z Pentagonem

28 lutego 2026 — OpenAI zawarło porozumienie z Departamentem Wojny (dawniej Defense) na wdrożenie systemów AI w środowiskach sklasyfikowanych. Firma twierdzi, że porozumienie nakłada więcej zabezpieczeń niż jakiekolwiek wcześniejsze wdrożenie AI w środowisku skategoryzowanym.

OpenAI definiuje trzy nieprzekraczalne „czerwone linie”:

Czerwona liniaOpis
Brak masowej inwigilacjiZakaz monitorowania obywateli USA na masową skalę
Brak broni autonomicznychClaude nie może kierować bronią bez nadzoru człowieka
Brak zautomatyzowanych decyzji o wysokich konsekwencjachNadzór ludzki obowiązkowy przy wszystkich decyzjach krytycznych

Architektura wdrożenia jest wyłącznie chmurowa (bez edge/on-premise), z nienaruszoną warstwą bezpieczeństwa OpenAI. Na miejscu będą obecni inżynierowie OpenAI z uprawnieniami do tajnych informacji. Żaden model „bez zabezpieczeń” nie jest dostarczany.

Kontrakt wyraźnie stanowi, że system AI nie może kierować broniami autonomicznymi w przypadkach, gdy prawo, regulacje lub polityka Departamentu wymagają kontroli ludzkiej — zgodnie z Dyrektywą DoD 3000.09 (25 stycznia 2023).

Stanowisko wobec Anthropic: OpenAI wyraźnie oświadczyło, że Anthropic nie powinien być wskazywany jako „ryzyko w łańcuchu dostaw” i przekazało to stanowisko rządowi. Firma zażądała, aby takie same warunki kontraktowe były proponowane wszystkim laboratoriom AI.

🔗 Nasze porozumienie z Departamentem Wojny

Anthropic odmawia tych ustępstw i grozi procesem

27 lutego 2026 — Sekretarz Wojny Pete Hegseth ogłosił na X zamiar oznaczenia Anthropic jako ryzyka w łańcuchu dostaw (supply chain risk). Anthropic odpowiedział tego samego dnia oficjalnym oświadczeniem, odmiennym od oświadczenia Dario Amodei opublikowanego dzień wcześniej.

Oświadczenie wyjaśnia powody impasu: Anthropic prosił o dwie wyjątki dotyczące użycia Claude przez Departament Wojny — masową krajową inwigilację Amerykanów oraz w pełni autonomiczne bronie. Oba wyjątki nie zostały zaakceptowane.

“No amount of intimidation or punishment from the Department of War will change our position on mass domestic surveillance or fully autonomous weapons. We will challenge any supply chain risk designation in court.”

🇵🇱 “Ani zastraszanie, ani karanie ze strony Departamentu Wojny nie zmienią naszego stanowiska wobec masowej inwigilacji obywateli ani wobec w pełni autonomicznych broni. Będziemy kwestionować każde oznaczenie jako ryzyka w łańcuchu dostaw przed sądami.”@AnthropicAI na X

Anthropic precyzuje rzeczywisty wpływ dla swoich klientów:

SegmentWpływ
Użytkownicy indywidualni i APIDostęp do Claude bez zmian
Kontrahenci DoWTylko użycie w ramach kontraktów DoW byłoby objęte ograniczeniami — pozostałe zastosowania nie są dotknięte

🔗 Oświadczenie Anthropic (anthropic.com)


Memory Claude za darmo + import z innych dostawców AI

2 marca 2026 — Claude ogłasza, że funkcja Memory jest teraz dostępna dla wszystkich użytkowników, także w planie darmowym.

“Memory is now available on the free plan. We’ve also made it easier to import saved memories into Claude. You can export them whenever you want.”

🇵🇱 “Pamięć jest teraz dostępna w planie darmowym. Ułatwiliśmy też importowanie wspomnień zapisanych w Claude. Możesz je eksportować, kiedy tylko chcesz.”@claudeai na X

Nowa funkcja importu pozwala przenosić zapamiętany kontekst z innych asystentów AI do Claude — ChatGPT, Gemini czy innych. Interfejs oferuje przycisk “Start import” z informacją “Bring relevant context and data from another AI provider to Claude.”

Aby zacząć: Settings → Memory.

🔗 Tweet @claudeai


Qwen 3.5 Small Series — cztery kompaktowe modele open-weight

2 marca 2026 — Alibaba/Qwen uzupełnia rodzinę Qwen3.5 o cztery kompaktowe modele open-weight: Qwen3.5-0.8B, Qwen3.5-2B, Qwen3.5-4B i Qwen3.5-9B.

Modele te mają tę samą architekturę co duże modele Qwen3.5 — natywnie multimodalne, trenowane z użyciem Reinforcement Learning — ale w formatach dostosowanych do różnych kontekstów:

ModelDocelowe użycie
Qwen3.5-0.8BUrządzenia edge, ultra-niska latencja
Qwen3.5-2BWdrożenia wbudowane, lekkie i szybkie
Qwen3.5-4BWielomodalna baza dla lekkich agentów
Qwen3.5-9BKompaktowy, ale walczy z modelami znacznie większymi

Modele Base są również publikowane, aby umożliwić fine-tuning społeczności badawczej. Ogłoszenie zdobyło 1,6 miliona wyświetleń na X już pierwszego dnia.

🔗 Qwen 3.5 Small Series na Hugging Face 🔗 Tweet @Alibaba_Qwen


Gemini CLI v0.31.0: agent browser, Gemini 3.1 Pro, Policy Engine

27 lutego 2026 — Gemini CLI przeszła do wersji 0.31.0 z czterema głównymi nowościami.

FunkcjaOpis
Gemini 3.1 Pro PreviewDostęp do najnowszego modelu Google bezpośrednio z terminala
Eksperymentalny agent browserInterakcja ze stronami internetowymi bez dodatkowej konfiguracji
Policy Engine — projektPolityki na poziomie projektu, wildcards MCP, filtrowanie przez adnotacje narzędzi
Bezpośredni web fetchTryb eksperymentalny z wbudowanym rate limitingiem

Agent browser otwiera drogę do automatyzacji webowej z poziomu CLI — scraping, testy, interakcje z interfejsami bez API. To funkcja eksperymentalna, więc należy używać jej ostrożnie w środowiskach produkcyjnych.

🔗 Lista zmian Gemini CLI


GitHub Copilot: wycofanie Gemini 3 Pro i modeli GPT-5.1

2 marca 2026 — GitHub ogłosił planowane wycofanie kilku modeli we wszystkich doświadczeniach Copilot (Chat, inline edits, tryby ask/agent, uzupełnianie kodu).

ModelData wycofaniaSugerowana alternatywa
Gemini 3 Pro26 marca 2026Gemini 3.1 Pro
GPT-5.11 kwietnia 2026GPT-5.3-Codex
GPT-5.1-Codex1 kwietnia 2026GPT-5.3-Codex
GPT-5.1-Codex-Mini1 kwietnia 2026GPT-5.3-Codex
GPT-5.1-Codex-Max1 kwietnia 2026GPT-5.3-Codex

Przyspieszone wycofanie Gemini 3 Pro na 26 marca (zamiast późniejszej daty) jest wymuszone przez decyzję Google. Administratorzy Copilot Enterprise powinni sprawdzić swoje polityki modeli w ustawieniach Copilot i włączyć alternatywy przed wskazanymi terminami.

Mierniki Copilot obejmują teraz także telemetrię trybu Plan — dostępnego w JetBrains, Eclipse, Xcode i VS Code Insiders, z ogólną premierą dla VS Code planowaną wkrótce.

🔗 GitHub Changelog — wycofanie modeli 🔗 Mierniki Copilot — tryb Plan


NVIDIA Nemotron LTM 30B i Blueprints telekomunikacyjne na MWC Barcelona

28 lutego 2026 — Przed Mobile World Congress Barcelona (2–5 marca 2026) NVIDIA przedstawiła dwie zapowiedzi dotyczące AI w telekomach.

Nemotron LTM 30B to model open source o 30 miliardach parametrów opracowany wspólnie z AdaptKey AI, oparty na NVIDIA Nemotron 3 i dopasowany (fine-tuned) na otwartych danych telekomowych (standardy branżowe i syntetyczne logi). To pierwszy raz, gdy NVIDIA publikuje duży model telco open source dedykowany sektorowi.

Wraz z tym wprowadzono dwa nowe NVIDIA Blueprints:

BlueprintPartnerZastosowanie
Energy saving RANVIAVI TeraVMOptymalizacja energetyczna sieci radiowych
Network configuration multi-agentTech MahindraRozumowanie jako inżynierowie NOC

Wśród pierwszych adoptujących: Cassava Technologies (Afryka), NTT DATA (Japonia), Telenor Maritime. Modele publikowane są w ramach inicjatywy GSMA Open Telco AI.

Raport State of AI in Telecom 2026 opublikowany 27 lutego stwierdza, że automatyzacja sieci to przypadek użycia AI o największym zwrocie z inwestycji w telekomach.

🔗 Blog NVIDIA Nemotron LTM


Runway: nowy współ-CEO i cztery nominacje do zarządu

26 lutego 2026 — Runway ogłosiło zmiany w przywództwie. Anastasis Germanidis, współzałożyciel firmy, zostaje współ-CEO obok Cristóbala Valenzueli.

Cztery nowe nominacje do zarządu wykonawczego:

RolaOsoba
CTOKamil Sindi
COOMichelle Kwon
CPOAnna Chalon
CCOJamie Umpherson

Runway opisuje te nominacje jako formalizację istniejącej już struktury, zgodnie z wizją „world simulation”.

🔗 Ogłoszenie Runway


Brzężki

Midjourney: Moodboards i Personalization w Niji V7

26 lutego — Midjourney dodało Moodboards i Personalization do modelu Niji V7 (specjalizacja: anime/ilustracja). Web roomy są stopniowo usuwane na rzecz nadchodzących narzędzi współpracy.

🔗 Tweet @midjourney

Genspark: Nano Banana 2 za darmo + Workspace 3.0 nadchodzi

27 lutego / 2 marca — Nano Banana 2 (generator obrazów AI) jest teraz dostępny w AI Image Agent od Genspark, bezpłatnie dla wszystkich użytkowników (nielimitowane dla subskrybentów Plus i Pro). Ponadto CEO Eric Jing zapowiedział Genspark Workspace 3.0 na tydzień rozpoczynający się 9 marca — trzecią dużą wersję po Workspace 1.0 (listopad 2025) i 2.0 (styczeń 2026).

🔗 Tweet Genspark Workspace 3.0

Perplexity organizuje “Ask”, pierwszą konferencję dla deweloperów

27 lutego — Perplexity zapowiedziało “Ask”, swoją pierwszą konferencję dla deweloperów, zaplanowaną na 11 marca 2026 w San Francisco. Rejestracja na events.perplexity.ai/ask2026. Kontekst: Perplexity informuje, że jego API trafiają do setek milionów urządzeń Samsung i są używane przez 6 z 7 „Magnificent Seven”.

🔗 Tweet @perplexity_ai

Stargate Texas: pierwsze stalowe belki

27 lutego — Greg Brockman (@gdb) podzielił się wizualną aktualizacją z placu budowy Stargate w Milam County, Texas: pierwsze stalowe belki zostały zamontowane na terenie, we współpracy z SoftBank i SBEnergy.

🔗 Tweet @gdb

ChatGPT: zaufany kontakt w sytuacjach kryzysowych

27 lutego — OpenAI ogłosiło funkcję “Trusted Contact” dla ChatGPT: pełnoletni użytkownicy będą mogli wskazać kontakt, który otrzyma powiadomienia, jeśli użytkownik będzie wydawał się potrzebować wsparcia. Funkcja rozwijana z „Council on Well-Being and AI” i „Global Physicians Network”. Równocześnie sąd kalifornijski skonsolidował kilka spraw związanych ze zdrowiem psychicznym obejmujących ChatGPT do jednej procedury.

🔗 Aktualizacja OpenAI dotycząca pracy w obszarze zdrowia psychicznego

Google AI: redesign Flow, Opal, producer.ai, Gemini K-12

27 lutego — Google ogłosił kilka pozycji w swoim cotygodniowym podsumowaniu @GoogleAI: Flow by Google (narzędzie do tworzenia wideo) otrzymał poważny redesign, mający przekształcić go w pełnoprawne studio kreatywne oparte na AI. Opal (Google Labs) wprowadza „agent step” do przekształcania statycznych workflowów w interaktywne doświadczenia. producer.ai oficjalnie dołączył do Google Labs. Szkolenie Gemini jest teraz dostępne dla 6 milionów nauczycieli K-12 i szkolnictwa wyższego w USA. 🔗 Podsumowanie @GoogleAI

Zwiastun @OpenAIDevs “Soon.”

2 marca — @OpenAIDevs opublikował zwiastun z obrazem Windows XP i jedynym słowem “Soon.” — 179 000 wyświetleń. Brak dodatkowych szczegółów.

🔗 Zwiastun @OpenAIDevs


Co to oznacza

Konfrontacja OpenAI/Anthropic z Departamentem Wojny ujawnia bardziej różnicę strategii niż wartości: oba laboratoria wyznaczają podobne czerwone linie (masowa inwigilacja, autonomiczne bronie), ale OpenAI wynegocjowało porozumienie z zabezpieczeniami kontraktowymi, podczas gdy Anthropic odmówił podpisania bez uzgodnionych gwarancji. Publiczne stanowisko OpenAI na rzecz Anthropic komplikuje obraz — oba laboratoria wydają się skoordynowane pod względem zasad, mimo że ich trajektorie komercyjne się różnią.

Claude Code v2.1.63 potwierdza szybkie tempo Anthropic w zakresie narzędzi CLI: hooki HTTP realnie poszerzają możliwe integracje, a fala poprawek dotyczących pamięci świadczy o poważnym wysiłku stabilizacyjnym dla długotrwałych przepływów pracy. Bezpłatna pamięć natomiast stawia Claude w bezpośredniej rywalizacji z ChatGPT o rynek konsumencki.

Po stronie modeli Qwen kontynuuje strategię zajmowania różnych segmentów: po dużych modelach MoE z połowy lutego, seria Small 0.8B–9B celuje w edge i lekkie agenty — segment nadal słabo pokryty przez zachodnie laboratoria w modelach open-weight.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator