Anthropic gruntownie rewiduje swoją politykę bezpieczeństwa z RSP v3.0, która wprowadza Frontier Safety Roadmap (publiczną mapę drogową bezpieczeństwa) i kwartalne Risk Reports (raporty ryzyka) z zewnętrznym przeglądem. OpenAI kończy okres ograniczonego dostępu do GPT-5.3-Codex — model jest teraz dostępny dla wszystkich deweloperów przez Responses API. Meta podpisuje wieloletnią umowę z AMD na ~6 GW mocy GPU przeznaczonej dla swoich modeli SI. Qwen wprowadza cztery modele MoE, w tym 35B-A3B, który przewyższa własny wcześniejszy model 235B. Claude Code pozwala teraz na Remote Control, by kontynuować sesję z telefonu.
Anthropic : Responsible Scaling Policy v3.0
24 lutego — Anthropic publikuje trzecią wersję Responsible Scaling Policy (RSP), dobrowolnego ramienia regulującego ryzyka katastroficzne związane z ich modelami.
Oryginalna RSP pochodzi z września 2023. W ciągu dwóch i pół roku modele zyskały nowe zdolności — przeglądanie sieci, wykonywanie kodu, obsługa komputerów, autonomiczne wieloetapowe akcje — i każda nowa zdolność przyniosła nowe ryzyka do zaadresowania.
Co zadziałało
RSP skłoniła Anthropic do opracowania bardziej solidnych zabezpieczeń, jak klasyfikatory blokujące treści związane z bronią biologiczną wymagane dla ASL-3. Standard ASL-3 został aktywowany w maju 2025 i jest w użyciu. OpenAI i Google DeepMind przyjęły podobne ramy w miesiącach po pierwotnym ogłoszeniu. RSP przyczyniła się także do kształtowania aktów prawnych (SB 53 w Kalifornii, EU AI Act).
Co nie zadziałało
Progi zdolności okazały się bardziej niejednoznaczne niż oczekiwano — stwierdzenie, czy model “definitywnie” przekroczył próg, pozostaje w praktyce trudne. Rządy nie podążyły tak szybko, jak oczekiwano, w kontekście politycznym mało sprzyjającym regulacji. Niektóre wymagania dla wysokich ASL (ASL-4, ASL-5) mogą być niemożliwe do spełnienia jednostronnie.
Trzy kluczowe zmiany w RSP v3.0
Wersja 3.0 rozróżnia teraz, co Anthropic zobowiązuje się zrobić niezależnie od innych aktorów, oraz mapowanie zdolności→łagodzenia, które cała branża powinna przyjąć.
Drugi dokument opublikowany równolegle — Frontier Safety Roadmap — wyznacza konkretne publiczne cele: uruchomienie projektów R&D „moonshot” dla zabezpieczenia wag modeli, rozwój zautomatyzowanego red-teamingu przewyższającego setki uczestników ludzkich, ustanowienie scentralizowanych rejestrów wszystkich krytycznych działań rozwoju SI.
Wreszcie, Anthropic zobowiązuje się publikować Risk Reports co 3–6 miesięcy: profil bezpieczeństwa modeli, powiązanie zdolności/zagrożeń/łagodzeń, a dla najbardziej zaawansowanych modeli — przegląd przez niezależnych ekspertów z nieocenzurowanym dostępem do raportu.
“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”
🇵🇱 Aktualizujemy naszą Responsible Scaling Policy do trzeciej wersji. Od jej wejścia w życie w 2023 roku wiele się nauczyliśmy o jej mocnych i słabych stronach. Ta aktualizacja ulepsza politykę, wzmacniając to, co zadziałało, i zobowiązując się do jeszcze większej przejrzystości. — @AnthropicAI na X
OpenAI : GPT-5.3-Codex en disponibilité générale
24 lutego — GPT-5.3-Codex jest teraz dostępny dla wszystkich deweloperów przez Responses API OpenAI. Model został uruchomiony na początku lutego w dostępie ograniczonym; teraz przechodzi do dostępności ogólnej.
GPT-5.3-Codex łączy frontierowe osiągi w kodowaniu i zdolności wiedzy zawodowej w jednym modelu. Według wczesnych integratorów jest „znacząco potężniejszy i 3–4 razy bardziej efektywny pod względem tokenów niż GPT-5.2”. Platforma Lovable była jedną z pierwszych, które wdrożyły go dla swoich najbardziej złożonych zastosowań.
Model jest też dostępny przez OpenRouter dla deweloperów, którzy chcą integrować go w istniejących workflow bez bezpośredniego korzystania z API OpenAI.
| Élément | Détail |
|---|---|
| Disponibilité | Responses API (accès général) |
| Efficacité | 3-4x plus efficace en tokens vs GPT-5.2 |
| Accès alternatif | OpenRouter |
Meta + AMD : accord multi-annuel pour ~6 GW de GPU
24 lutego — Meta ogłasza wieloletnie partnerstwo z AMD w celu integracji najnowszych GPU AMD Instinct w swojej globalnej infrastrukturze.
Wdrożenie przewiduje około 6 GW mocy data center dedykowanej, z celem rozwijania modeli SI najwyższej klasy i dostarczenia „osobistej superinteligencji” miliardom użytkowników na całym świecie.
“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”
🇵🇱 Dziś ogłaszamy wieloletnie porozumienie z @AMD na integrację ich najnowszych GPU Instinct w naszej globalnej infrastrukturze. Przy około 6 GW mocy data center planowanej dla tego wdrożenia zwiększamy nasze moce obliczeniowe, aby przyspieszyć rozwój zaawansowanych modeli SI i dostarczyć osobistą superinteligencję miliardom ludzi na świecie. — @AIatMeta na X
To porozumienie oznacza znaczącą dywersyfikację dostawców GPU dla Meta, która dotychczas opierała się głównie na NVIDIA. Kontrakt tej skali — 6 GW, czyli ogromna infrastruktura w ramach jednego partnerstwa — jest mocnym sygnałem o ambicjach Meta w zakresie compute dla modeli następnej generacji.
Qwen 3.5 Medium Series : 4 modèles MoE, “More intelligence, less compute”
24 lutego — Alibaba Qwen wprowadza serię Qwen 3.5 Medium, obejmującą cztery modele z architekturą MoE (Mixture of Experts).
Najbardziej uderzający rezultat to Qwen3.5-35B-A3B: przy zaledwie 3B aktywnych parametrów (z 35B łącznie) przewyższa Qwen3-235B-A22B — poprzedni gigant z rodziny. Architektura MoE i trening RL na dużą skalę umożliwiają tę gęstość efektywności.
| Modèle | Paramètres actifs | Note |
|---|---|---|
| Qwen3.5-Flash | — | Contexte 1M tokens, outils intégrés, hébergé |
| Qwen3.5-35B-A3B | 3B actifs / 35B total | Surpasse Qwen3-235B-A22B |
| Qwen3.5-122B-A10B | 10B actifs / 122B total | — |
| Qwen3.5-27B | 27B | — |
Qwen3.5-Flash to wersja hostowana serii, z kontekstem domyślnym miliona tokenów i zintegrowanymi narzędziami. Modele są dostępne na HuggingFace, ModelScope i Qwen Chat.
Claude Code v2.1.51 : Remote Control depuis mobile
24 lutego — Claude Code v2.1.51 wprowadza remote-control, najbardziej oczekiwaną funkcję wersji: kontynuowanie sesji lokalnej z telefonu.
Rozpoczęta w terminalu sesja Claude Code może być wznowiona w aplikacji mobilnej Claude Code za pomocą /remote-control. Funkcja jest dostępna dla użytkowników Max w research preview.
Poza Remote Control, ta wersja wnosi kilka usprawnień technicznych:
| Changement | Détail |
|---|---|
| Plugin marketplace timeout | Git : 30s → 120s, configurable via CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS |
| npm registries | Support registres personnalisés et pinning de version pour plugins |
| BashTool | Skip login shell par défaut quand snapshot disponible |
| Hooks sécurité | Fix : statusLine et fileSuggestion hooks sans acceptation workspace trust |
| Réduction contexte | Tool results > 50K chars persistés sur disque (était 100K) |
Claude Cowork : marketplace privée de plugins et orchestration cross-apps
24 lutego — Anthropic wprowadza dużą aktualizację Cowork z prywatnymi marketplace’ami pluginów dla firm, nowymi konektorami i orkiestracją cross-aplikacyjną.
Administratorzy mogą teraz tworzyć prywatne marketplace’y pluginów dla swojej organizacji: tworzenie z szablonów lub od zera, z Claude prowadzącym konfigurację. Nowe zunifikowane menu “Customize” centralizuje pluginy, skills i connecteurs (MCP). Admini mają też provisioning per user, auto-install oraz źródła pluginów z prywatnych repozytoriów GitHub (w beta prywatnej).
W zakresie konektorów lista rozszerza się o Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress i Harvey. Firmy takie jak Slack, LSEG, S&P Global i Tribe AI opublikowały również pluginy.
Nowe szablony pluginów według działu są dostępne:
| Département | Exemples de workflows |
|---|---|
| RH | Lettres d’offre, onboarding, évaluations performance |
| Design | Critiques UX, audits accessibilité, plans recherche utilisateur |
| Engineering | Standups, incident response, checklists deploy, postmortems |
| Opérations | Documentation processus, évaluation fournisseurs |
| Finance | Analyse de marché, modélisation financière, slides PowerPoint |
| Investment Banking | Documents de transaction, analyses comparables |
| Private Equity | Due diligence, scoring par critères d’investissement |
Claude potrafi teraz także orkiestrować zadania między Excel a PowerPoint — analizować dane w Excelu, a następnie wygenerować prezentację w PowerPoint, przekazując kontekst z jednego dodatku do drugiego. Funkcja jest dostępna w research preview dla wszystkich planów płatnych na Mac i Windows.
Wreszcie, wsparcie OpenTelemetry pozwala administratorom śledzić użycie, koszty i aktywność narzędzi według zespołu.
🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai
OpenAI : Codex CLI v0.99.0
24 lutego — Codex CLI przechodzi do wersji 0.99.0 z kilkoma nowymi funkcjami.
Polecenie /statusline pozwala teraz personalizować metadane wyświetlane w stopce interfejsu TUI. Obrazy GIF i WebP są akceptowane jako załączniki. Wykonywanie poleceń shell bezpośrednio nie blokuje już trwającej tury — mogą wykonywać się współbieżnie. Snapshot środowiska shell i plików konfiguracyjnych rc jest teraz włączony.
| Feature | Détail |
|---|---|
/statusline | Configurer le footer TUI interactivement |
| Images GIF/WebP | Nouveaux formats acceptés en pièces jointes |
| Shell snapshot | Snapshot de l’environnement shell et rc files |
| App-server APIs | Turn/steer, feature discovery, resume_agent |
| Web search control | Modes restreints via requirements.toml (Enterprise) |
Poprawka bezpieczeństwa (RUSTSEC-2026-0009) jest również dołączona.
npm install -g @openai/codex@0.99.0
DeepSeek-V3.2 : version officielle
24 lutego — DeepSeek ogłasza oficjalne wydanie DeepSeek-V3.2, następcę wersji eksperymentalnej V3.2-Exp z listopada 2025.
Według baneru na stronie deepseek.com, V3.2 wzmacnia możliwości Agent i integruje rozumowanie refleksyjne (thinking/reasoning). Wersja jest dostępna w web, aplikacji mobilnej i przez API. Pełne szczegóły techniczne opublikowano na WeChat (główny kanał ogłoszeń DeepSeek w języku chińskim).
Perplexity et Comet : mode vocal pour tous
24 lutego — Perplexity wdraża znaczącą aktualizację trybu głosowego na Perplexity i w swojej przeglądarce Comet, dostępną dla wszystkich użytkowników — nie tylko subskrybentów.
Nowy tryb głosowy Comet pozwala zadawać pytania AI dotyczące tego, co jest wyświetlane na ekranie, nawigować po stronach głosowo i utrzymywać spójną konwersację przez wiele kart bez utraty kontekstu. Ta utrwalona wielokartowa persystencja kontekstu to postęp względem klasycznych asystentów głosowych.
| Aspect | Détail |
|---|---|
| Disponibilité | Tous les utilisateurs (pas uniquement abonnés) |
| Plateformes | Android, Mac, Windows |
| Fonctionnalité clé | Navigation vocale multi-onglets avec contexte persistant |
🔗 Tweet @perplexity_ai 🔗 Tweet @comet
Google DeepMind : Music AI Sandbox × Wyclef Jean
24 lutego — Google DeepMind i YouTube ujawniają współpracę z producentem i artystą Wyclef Jean wokół Music AI Sandbox.
Music AI Sandbox — napędzany przez Lyria 3, model generacji muzycznej ogłoszony 18 lutego — pozwala profesjonalnym muzykom eksperymentować z SI jako partnerem kreatywnym. Wyclef Jean użył tych narzędzi do stworzenia swojej piosenki “Back from Abu Dhabi”. Proces tworzenia udokumentowano w wideo dostępnym na YouTube.
To partnerstwo wpisuje się w serię współprac artystów inicjowanych przez Google DeepMind, mających na celu eksplorację kreatywnych zastosowań SI w rzeczywistych warunkach studyjnych.
🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind
Google DeepMind : Robotics Accelerator en Europe
24 lutego — Google DeepMind ogłasza uruchomienie Robotics Accelerator w Europie, programu dedykowanego startupom z sektora robotyki.
Zadanie programu to zmniejszenie luki między technologią a rynkowymi zastosowaniami oraz przyspieszenie następnej generacji agentów fizycznych. Program ma charakter skrojony pod startupy, z dostępem do zasobów i ekspertyzy Google DeepMind.
NVIDIA + Red Hat : AI Factory pour l’entreprise
24 lutego — Red Hat i NVIDIA ogłaszają wspólnie Red Hat AI Factory with NVIDIA, zintegrowane rozwiązanie przyspieszające adopcję SI w firmach.
Platforma łączy Red Hat AI Enterprise (orkiestracja i wdrażanie modeli) z NVIDIA AI Enterprise (warstwa oprogramowania zoptymalizowana pod GPU NVIDIA). Celem jest zmniejszenie złożoności operacyjnej i całkowitego kosztu posiadania dla organizacji wdrażających aplikacje SI w produkcji.
Black Forest Labs : Safety Evaluation — 10x moins de vulnérabilités
24 lutego — Black Forest Labs publikuje wyniki niezależnej oceny zewnętrznej dotyczącej ryzyk emergentnych dla swoich modeli FLUX.
Wyniki pokazują ponad 10x mniej luk niż inne popularne modele obrazowe o otwartych wagach. BFL affirme que haute performance, innovation ouverte et garde-fous peuvent aller de pair — une démarche de transparence rare dans l’industrie des modèles image open source.
W skrócie
Claude Code v2.1.52 — Ukierunkowany patch wydany bezpośrednio po v2.1.51: naprawa awarii rozszerzenia VS Code na Windows (command 'claude-vscode.editor.openLast' not found). Brak nowych funkcji.
GitHub Copilot SDK — agent PowerPoint — GitHub udostępnił demonstrację (23 lutego) pokazującą, jak zbudować agenta z użyciem Copilot SDK, zdolnego do wyszukiwania najnowszej dokumentacji, analizowania istniejących slajdów w celu odtworzenia ich stylu oraz generowania nowych slajdów bezpośrednio w PowerPoint. 🔗 Tweet @github
Runway — Interior Designer — Runway przedstawia kreatywne zastosowanie: przekształcenie zdjęcia pomieszczenia w spersonalizowany projekt wnętrza za pomocą kombinacji Nano Banana Pro, Kling 3.0 i Gen-4.5. Demo marketingowe ilustrujące platformę multimodelową uruchomioną 20 lutego. 🔗 Tweet @runwayml
Co to oznacza
RSP v3.0 Anthropic oznacza przełom w podejściu do bezpieczeństwa AI: udostępniając publicznie swoje cele poprzez Frontier Safety Roadmap i zobowiązując się do raportów ryzyka z zewnętrznym przeglądem, Anthropic przechodzi z polityki wewnętrznej na mechanizm publicznej odpowiedzialności. To subtelna presja na cały przemysł — i jednocześnie pośrednia odpowiedź na krytykę dotyczącą nieprzejrzystości decyzji o wdrożeniach.
Umowa Meta+AMD na 6 GW to sygnał alarmowy dla NVIDIA: jedyny dotąd używany przez Meta dostawca GPU zaczyna być bezpośrednio konkurowany. Dla AMD to potwierdzenie na dużą skalę dla ich GPU Instinct, które nadal mają trudności z przebiciem się wobec H100/H200 w obciążeniach treningowych.
Qwen 3.5 Medium potwierdza, że architektura MoE nie jest już domeną tylko bardzo dużych modeli: 35B-A3B przewyższający 235B to imponujące skompresowanie inteligencji, dostępne dla tych, którzy nie mają infrastruktury, by uruchamiać gigantów.
Źródła
- RSP v3.0 — Anthropic
- Tweet @AnthropicAI — RSP v3.0
- Tweet @OpenAIDevs — GPT-5.3-Codex GA
- Tweet @OpenAIDevs — Lovable + OpenRouter
- Tweet @AIatMeta — Meta + AMD
- Tweet @Alibaba_Qwen — Qwen 3.5 Medium
- Tweet @noahzweben — Claude Code Remote Control
- CHANGELOG Claude Code
- Blog Cowork — wtyczki w przedsiębiorstwie
- Tweet @claudeai — Cowork
- Codex CLI Changelog v0.99.0
- deepseek.com — baner V3.2
- Tweet @perplexity_ai — voice mode
- Tweet @comet — voice mode
- Tweet @GoogleAI — Music AI Sandbox × Wyclef Jean
- Tweet @GoogleDeepMind — Music AI Sandbox
- Tweet @GoogleDeepMind — Robotics Accelerator
- Tweet @NVIDIAAI — Red Hat AI Factory
- Tweet @RedHat — Red Hat AI Factory
- Tweet @bfl_ml — Safety Evaluation
- Tweet @github — Copilot SDK PowerPoint
- Tweet @runwayml — Interior Designer
Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator