Szukaj

RSP v3.0 w Anthropic, GPT-5.3-Codex dostępny dla wszystkich, Meta podpisuje 6 GW GPU z AMD

RSP v3.0 w Anthropic, GPT-5.3-Codex dostępny dla wszystkich, Meta podpisuje 6 GW GPU z AMD

Anthropic gruntownie rewiduje swoją politykę bezpieczeństwa z RSP v3.0, która wprowadza Frontier Safety Roadmap (publiczną mapę drogową bezpieczeństwa) i kwartalne Risk Reports (raporty ryzyka) z zewnętrznym przeglądem. OpenAI kończy okres ograniczonego dostępu do GPT-5.3-Codex — model jest teraz dostępny dla wszystkich deweloperów przez Responses API. Meta podpisuje wieloletnią umowę z AMD na ~6 GW mocy GPU przeznaczonej dla swoich modeli SI. Qwen wprowadza cztery modele MoE, w tym 35B-A3B, który przewyższa własny wcześniejszy model 235B. Claude Code pozwala teraz na Remote Control, by kontynuować sesję z telefonu.


Anthropic : Responsible Scaling Policy v3.0

24 lutego — Anthropic publikuje trzecią wersję Responsible Scaling Policy (RSP), dobrowolnego ramienia regulującego ryzyka katastroficzne związane z ich modelami.

Oryginalna RSP pochodzi z września 2023. W ciągu dwóch i pół roku modele zyskały nowe zdolności — przeglądanie sieci, wykonywanie kodu, obsługa komputerów, autonomiczne wieloetapowe akcje — i każda nowa zdolność przyniosła nowe ryzyka do zaadresowania.

Co zadziałało

RSP skłoniła Anthropic do opracowania bardziej solidnych zabezpieczeń, jak klasyfikatory blokujące treści związane z bronią biologiczną wymagane dla ASL-3. Standard ASL-3 został aktywowany w maju 2025 i jest w użyciu. OpenAI i Google DeepMind przyjęły podobne ramy w miesiącach po pierwotnym ogłoszeniu. RSP przyczyniła się także do kształtowania aktów prawnych (SB 53 w Kalifornii, EU AI Act).

Co nie zadziałało

Progi zdolności okazały się bardziej niejednoznaczne niż oczekiwano — stwierdzenie, czy model “definitywnie” przekroczył próg, pozostaje w praktyce trudne. Rządy nie podążyły tak szybko, jak oczekiwano, w kontekście politycznym mało sprzyjającym regulacji. Niektóre wymagania dla wysokich ASL (ASL-4, ASL-5) mogą być niemożliwe do spełnienia jednostronnie.

Trzy kluczowe zmiany w RSP v3.0

Wersja 3.0 rozróżnia teraz, co Anthropic zobowiązuje się zrobić niezależnie od innych aktorów, oraz mapowanie zdolności→łagodzenia, które cała branża powinna przyjąć.

Drugi dokument opublikowany równolegle — Frontier Safety Roadmap — wyznacza konkretne publiczne cele: uruchomienie projektów R&D „moonshot” dla zabezpieczenia wag modeli, rozwój zautomatyzowanego red-teamingu przewyższającego setki uczestników ludzkich, ustanowienie scentralizowanych rejestrów wszystkich krytycznych działań rozwoju SI.

Wreszcie, Anthropic zobowiązuje się publikować Risk Reports co 3–6 miesięcy: profil bezpieczeństwa modeli, powiązanie zdolności/zagrożeń/łagodzeń, a dla najbardziej zaawansowanych modeli — przegląd przez niezależnych ekspertów z nieocenzurowanym dostępem do raportu.

“We’re updating our Responsible Scaling Policy to its third version. Since it came into effect in 2023, we’ve learned a lot about the RSP’s benefits and its shortcomings. This update improves the policy, reinforcing what worked and committing us to even greater transparency.”

🇵🇱 Aktualizujemy naszą Responsible Scaling Policy do trzeciej wersji. Od jej wejścia w życie w 2023 roku wiele się nauczyliśmy o jej mocnych i słabych stronach. Ta aktualizacja ulepsza politykę, wzmacniając to, co zadziałało, i zobowiązując się do jeszcze większej przejrzystości.@AnthropicAI na X

🔗 RSP v3.0 (Anthropic)


OpenAI : GPT-5.3-Codex en disponibilité générale

24 lutego — GPT-5.3-Codex jest teraz dostępny dla wszystkich deweloperów przez Responses API OpenAI. Model został uruchomiony na początku lutego w dostępie ograniczonym; teraz przechodzi do dostępności ogólnej.

GPT-5.3-Codex łączy frontierowe osiągi w kodowaniu i zdolności wiedzy zawodowej w jednym modelu. Według wczesnych integratorów jest „znacząco potężniejszy i 3–4 razy bardziej efektywny pod względem tokenów niż GPT-5.2”. Platforma Lovable była jedną z pierwszych, które wdrożyły go dla swoich najbardziej złożonych zastosowań.

Model jest też dostępny przez OpenRouter dla deweloperów, którzy chcą integrować go w istniejących workflow bez bezpośredniego korzystania z API OpenAI.

ÉlémentDétail
DisponibilitéResponses API (accès général)
Efficacité3-4x plus efficace en tokens vs GPT-5.2
Accès alternatifOpenRouter

🔗 Tweet @OpenAIDevs


Meta + AMD : accord multi-annuel pour ~6 GW de GPU

24 lutego — Meta ogłasza wieloletnie partnerstwo z AMD w celu integracji najnowszych GPU AMD Instinct w swojej globalnej infrastrukturze.

Wdrożenie przewiduje około 6 GW mocy data center dedykowanej, z celem rozwijania modeli SI najwyższej klasy i dostarczenia „osobistej superinteligencji” miliardom użytkowników na całym świecie.

“Today we’re announcing a multi-year agreement with @AMD to integrate their latest Instinct GPUs into our global infrastructure. With approximately 6GW of planned data center capacity dedicated to this deployment, we’re scaling our compute capacity to accelerate the development of cutting-edge AI models and deliver personal superintelligence to billions around the world.”

🇵🇱 Dziś ogłaszamy wieloletnie porozumienie z @AMD na integrację ich najnowszych GPU Instinct w naszej globalnej infrastrukturze. Przy około 6 GW mocy data center planowanej dla tego wdrożenia zwiększamy nasze moce obliczeniowe, aby przyspieszyć rozwój zaawansowanych modeli SI i dostarczyć osobistą superinteligencję miliardom ludzi na świecie.@AIatMeta na X

To porozumienie oznacza znaczącą dywersyfikację dostawców GPU dla Meta, która dotychczas opierała się głównie na NVIDIA. Kontrakt tej skali — 6 GW, czyli ogromna infrastruktura w ramach jednego partnerstwa — jest mocnym sygnałem o ambicjach Meta w zakresie compute dla modeli następnej generacji.

🔗 Tweet @AIatMeta


Qwen 3.5 Medium Series : 4 modèles MoE, “More intelligence, less compute”

24 lutego — Alibaba Qwen wprowadza serię Qwen 3.5 Medium, obejmującą cztery modele z architekturą MoE (Mixture of Experts).

Najbardziej uderzający rezultat to Qwen3.5-35B-A3B: przy zaledwie 3B aktywnych parametrów (z 35B łącznie) przewyższa Qwen3-235B-A22B — poprzedni gigant z rodziny. Architektura MoE i trening RL na dużą skalę umożliwiają tę gęstość efektywności.

ModèleParamètres actifsNote
Qwen3.5-FlashContexte 1M tokens, outils intégrés, hébergé
Qwen3.5-35B-A3B3B actifs / 35B totalSurpasse Qwen3-235B-A22B
Qwen3.5-122B-A10B10B actifs / 122B total
Qwen3.5-27B27B

Qwen3.5-Flash to wersja hostowana serii, z kontekstem domyślnym miliona tokenów i zintegrowanymi narzędziami. Modele są dostępne na HuggingFace, ModelScope i Qwen Chat.

🔗 Tweet @Alibaba_Qwen


Claude Code v2.1.51 : Remote Control depuis mobile

24 lutego — Claude Code v2.1.51 wprowadza remote-control, najbardziej oczekiwaną funkcję wersji: kontynuowanie sesji lokalnej z telefonu.

Rozpoczęta w terminalu sesja Claude Code może być wznowiona w aplikacji mobilnej Claude Code za pomocą /remote-control. Funkcja jest dostępna dla użytkowników Max w research preview.

Poza Remote Control, ta wersja wnosi kilka usprawnień technicznych:

ChangementDétail
Plugin marketplace timeoutGit : 30s → 120s, configurable via CLAUDE_CODE_PLUGIN_GIT_TIMEOUT_MS
npm registriesSupport registres personnalisés et pinning de version pour plugins
BashToolSkip login shell par défaut quand snapshot disponible
Hooks sécuritéFix : statusLine et fileSuggestion hooks sans acceptation workspace trust
Réduction contexteTool results > 50K chars persistés sur disque (était 100K)

🔗 CHANGELOG Claude Code


Claude Cowork : marketplace privée de plugins et orchestration cross-apps

24 lutego — Anthropic wprowadza dużą aktualizację Cowork z prywatnymi marketplace’ami pluginów dla firm, nowymi konektorami i orkiestracją cross-aplikacyjną.

Administratorzy mogą teraz tworzyć prywatne marketplace’y pluginów dla swojej organizacji: tworzenie z szablonów lub od zera, z Claude prowadzącym konfigurację. Nowe zunifikowane menu “Customize” centralizuje pluginy, skills i connecteurs (MCP). Admini mają też provisioning per user, auto-install oraz źródła pluginów z prywatnych repozytoriów GitHub (w beta prywatnej).

W zakresie konektorów lista rozszerza się o Google Workspace (Calendar, Drive, Gmail), Docusign, Apollo, Clay, Outreach, Similarweb, MSCI, LegalZoom, FactSet, WordPress i Harvey. Firmy takie jak Slack, LSEG, S&P Global i Tribe AI opublikowały również pluginy.

Nowe szablony pluginów według działu są dostępne:

DépartementExemples de workflows
RHLettres d’offre, onboarding, évaluations performance
DesignCritiques UX, audits accessibilité, plans recherche utilisateur
EngineeringStandups, incident response, checklists deploy, postmortems
OpérationsDocumentation processus, évaluation fournisseurs
FinanceAnalyse de marché, modélisation financière, slides PowerPoint
Investment BankingDocuments de transaction, analyses comparables
Private EquityDue diligence, scoring par critères d’investissement

Claude potrafi teraz także orkiestrować zadania między Excel a PowerPoint — analizować dane w Excelu, a następnie wygenerować prezentację w PowerPoint, przekazując kontekst z jednego dodatku do drugiego. Funkcja jest dostępna w research preview dla wszystkich planów płatnych na Mac i Windows.

Wreszcie, wsparcie OpenTelemetry pozwala administratorom śledzić użycie, koszty i aktywność narzędzi według zespołu.

🔗 Blog Cowork plugins enterprise 🔗 Tweet @claudeai


OpenAI : Codex CLI v0.99.0

24 lutego — Codex CLI przechodzi do wersji 0.99.0 z kilkoma nowymi funkcjami.

Polecenie /statusline pozwala teraz personalizować metadane wyświetlane w stopce interfejsu TUI. Obrazy GIF i WebP są akceptowane jako załączniki. Wykonywanie poleceń shell bezpośrednio nie blokuje już trwającej tury — mogą wykonywać się współbieżnie. Snapshot środowiska shell i plików konfiguracyjnych rc jest teraz włączony.

FeatureDétail
/statuslineConfigurer le footer TUI interactivement
Images GIF/WebPNouveaux formats acceptés en pièces jointes
Shell snapshotSnapshot de l’environnement shell et rc files
App-server APIsTurn/steer, feature discovery, resume_agent
Web search controlModes restreints via requirements.toml (Enterprise)

Poprawka bezpieczeństwa (RUSTSEC-2026-0009) jest również dołączona.

npm install -g @openai/codex@0.99.0

🔗 Codex Changelog v0.99.0


DeepSeek-V3.2 : version officielle

24 lutego — DeepSeek ogłasza oficjalne wydanie DeepSeek-V3.2, następcę wersji eksperymentalnej V3.2-Exp z listopada 2025.

Według baneru na stronie deepseek.com, V3.2 wzmacnia możliwości Agent i integruje rozumowanie refleksyjne (thinking/reasoning). Wersja jest dostępna w web, aplikacji mobilnej i przez API. Pełne szczegóły techniczne opublikowano na WeChat (główny kanał ogłoszeń DeepSeek w języku chińskim).

🔗 deepseek.com


Perplexity et Comet : mode vocal pour tous

24 lutego — Perplexity wdraża znaczącą aktualizację trybu głosowego na Perplexity i w swojej przeglądarce Comet, dostępną dla wszystkich użytkowników — nie tylko subskrybentów.

Nowy tryb głosowy Comet pozwala zadawać pytania AI dotyczące tego, co jest wyświetlane na ekranie, nawigować po stronach głosowo i utrzymywać spójną konwersację przez wiele kart bez utraty kontekstu. Ta utrwalona wielokartowa persystencja kontekstu to postęp względem klasycznych asystentów głosowych.

AspectDétail
DisponibilitéTous les utilisateurs (pas uniquement abonnés)
PlateformesAndroid, Mac, Windows
Fonctionnalité cléNavigation vocale multi-onglets avec contexte persistant

🔗 Tweet @perplexity_ai 🔗 Tweet @comet


Google DeepMind : Music AI Sandbox × Wyclef Jean

24 lutego — Google DeepMind i YouTube ujawniają współpracę z producentem i artystą Wyclef Jean wokół Music AI Sandbox.

Music AI Sandbox — napędzany przez Lyria 3, model generacji muzycznej ogłoszony 18 lutego — pozwala profesjonalnym muzykom eksperymentować z SI jako partnerem kreatywnym. Wyclef Jean użył tych narzędzi do stworzenia swojej piosenki “Back from Abu Dhabi”. Proces tworzenia udokumentowano w wideo dostępnym na YouTube.

To partnerstwo wpisuje się w serię współprac artystów inicjowanych przez Google DeepMind, mających na celu eksplorację kreatywnych zastosowań SI w rzeczywistych warunkach studyjnych.

🔗 Tweet @GoogleAI 🔗 Tweet @GoogleDeepMind


Google DeepMind : Robotics Accelerator en Europe

24 lutego — Google DeepMind ogłasza uruchomienie Robotics Accelerator w Europie, programu dedykowanego startupom z sektora robotyki.

Zadanie programu to zmniejszenie luki między technologią a rynkowymi zastosowaniami oraz przyspieszenie następnej generacji agentów fizycznych. Program ma charakter skrojony pod startupy, z dostępem do zasobów i ekspertyzy Google DeepMind.

🔗 Tweet @GoogleDeepMind


NVIDIA + Red Hat : AI Factory pour l’entreprise

24 lutego — Red Hat i NVIDIA ogłaszają wspólnie Red Hat AI Factory with NVIDIA, zintegrowane rozwiązanie przyspieszające adopcję SI w firmach.

Platforma łączy Red Hat AI Enterprise (orkiestracja i wdrażanie modeli) z NVIDIA AI Enterprise (warstwa oprogramowania zoptymalizowana pod GPU NVIDIA). Celem jest zmniejszenie złożoności operacyjnej i całkowitego kosztu posiadania dla organizacji wdrażających aplikacje SI w produkcji.

🔗 Tweet @NVIDIAAI


Black Forest Labs : Safety Evaluation — 10x moins de vulnérabilités

24 lutego — Black Forest Labs publikuje wyniki niezależnej oceny zewnętrznej dotyczącej ryzyk emergentnych dla swoich modeli FLUX.

Wyniki pokazują ponad 10x mniej luk niż inne popularne modele obrazowe o otwartych wagach. BFL affirme que haute performance, innovation ouverte et garde-fous peuvent aller de pair — une démarche de transparence rare dans l’industrie des modèles image open source.

🔗 Tweet @bfl_ml


W skrócie

Claude Code v2.1.52 — Ukierunkowany patch wydany bezpośrednio po v2.1.51: naprawa awarii rozszerzenia VS Code na Windows (command 'claude-vscode.editor.openLast' not found). Brak nowych funkcji.

GitHub Copilot SDK — agent PowerPoint — GitHub udostępnił demonstrację (23 lutego) pokazującą, jak zbudować agenta z użyciem Copilot SDK, zdolnego do wyszukiwania najnowszej dokumentacji, analizowania istniejących slajdów w celu odtworzenia ich stylu oraz generowania nowych slajdów bezpośrednio w PowerPoint. 🔗 Tweet @github

Runway — Interior Designer — Runway przedstawia kreatywne zastosowanie: przekształcenie zdjęcia pomieszczenia w spersonalizowany projekt wnętrza za pomocą kombinacji Nano Banana Pro, Kling 3.0 i Gen-4.5. Demo marketingowe ilustrujące platformę multimodelową uruchomioną 20 lutego. 🔗 Tweet @runwayml


Co to oznacza

RSP v3.0 Anthropic oznacza przełom w podejściu do bezpieczeństwa AI: udostępniając publicznie swoje cele poprzez Frontier Safety Roadmap i zobowiązując się do raportów ryzyka z zewnętrznym przeglądem, Anthropic przechodzi z polityki wewnętrznej na mechanizm publicznej odpowiedzialności. To subtelna presja na cały przemysł — i jednocześnie pośrednia odpowiedź na krytykę dotyczącą nieprzejrzystości decyzji o wdrożeniach.

Umowa Meta+AMD na 6 GW to sygnał alarmowy dla NVIDIA: jedyny dotąd używany przez Meta dostawca GPU zaczyna być bezpośrednio konkurowany. Dla AMD to potwierdzenie na dużą skalę dla ich GPU Instinct, które nadal mają trudności z przebiciem się wobec H100/H200 w obciążeniach treningowych.

Qwen 3.5 Medium potwierdza, że architektura MoE nie jest już domeną tylko bardzo dużych modeli: 35B-A3B przewyższający 235B to imponujące skompresowanie inteligencji, dostępne dla tych, którzy nie mają infrastruktury, by uruchamiać gigantów.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator