Wyjątkowy dzień w AI: Anthropic ogłasza zbiórkę funduszy w wysokości 30 miliardów dolarów, podnosząc swoją wycenę do 380 miliardów, OpenAI wdraża model coding w czasie rzeczywistym z prędkością 1000+ tokenów/sekundę na Cerebras, a Google popycha Gemini 3 Deep Think ku nowym rekordom w naukach ścisłych. Po stronie ekosystemu, xAI restrukturyzuje swoje zespoły wokół 4 produktów, Mistral inwestuje 1,2 miliarda euro w Szwecji, a GitHub tymczasowo zawiesza GPT-5.3-Codex z powodów niezawodności.
Anthropic pozyskuje 30 mld $ w Serii G
12 lutego — Anthropic ogłasza zbiórkę funduszy Serii G w wysokości 30 miliardów dolarów, podnosząc wycenę post-money firmy do 380 miliardów dolarów. Runda jest współprowadzona przez GIC i Coatue, z udziałem D. E. Shaw Ventures, Dragoneer, Founders Fund, ICONIQ i MGX. Lista dodatkowych inwestorów obejmuje m.in. Sequoia Capital, BlackRock, Goldman Sachs, Fidelity, Microsoft i NVIDIA.
| Metryka | Wartość |
|---|---|
| Pozyskana kwota | 30 miliardów $ |
| Wycena post-money | 380 miliardów $ |
| Roczny przychód (run-rate) | 14 miliardów $ |
| Roczny wzrost | 10x rocznie (ostatnie 3 lata) |
| Klienci >100k$/rok | Wzrost 7x w ciągu roku |
| Klienci Enterprise >1M$/rok | Ponad 500 (vs 12 dwa lata temu) |
| Klienci Fortune 10 | 8 na 10 |
| Run-rate Claude Code | 2,5 miliarda $ (podwojony od stycznia 2026) |
| Tygodniowi użytkownicy Claude Code | 2x od 1 stycznia 2026 |
| Commity GitHub przez Claude Code | 4% (podwojone w 1 miesiąc) |
| Subskrypcje business Claude Code | 4x od początku 2026 |
| Udział przedsiębiorstw w Claude Code | >50% przychodów Claude Code |
Fundusze zostaną przeznaczone na badania podstawowe, rozwój produktów i ekspansję infrastruktury. Claude pozostaje jedynym modelem AI frontier dostępnym na trzech głównych platformach chmurowych: AWS (Bedrock), Google Cloud (Vertex AI) i Microsoft Azure (Foundry). Anthropic trenuje i uruchamia Claude na zróżnicowanej gamie sprzętu AI (AWS Trainium, Google TPUs, NVIDIA GPUs).
This fundraising reflects the incredible demand we are seeing from these customers, and we will use this investment to continue building the enterprise-grade products and models they have come to depend on.
🇵🇱 To pozyskanie funduszy odzwierciedla niesamowity popyt, jaki obserwujemy ze strony tych klientów, i wykorzystamy tę inwestycję, aby kontynuować budowę produktów i modeli klasy enterprise, na których zaczęli polegać. — Krishna Rao, CFO w Anthropic (@AnthropicAI na X)
GPT-5.3-Codex-Spark: model czasu rzeczywistego na Cerebras
12 lutego — OpenAI uruchamia GPT-5.3-Codex-Spark w research preview, model codingu w czasie rzeczywistym zoptymalizowany pod kątem ultraszybkiej inferencji na Cerebras Wafer-Scale Engine 3. To pierwszy model OpenAI wdrożony na sprzęcie innym niż NVIDIA.
Codex-Spark to kompaktowa wersja GPT-5.3-Codex, zaprojektowana do pracy interaktywnej, gdzie opóźnienia liczą się tak samo jak inteligencja: celowane edycje, refaktoryzacja logiki, dostosowywanie interfejsów z natychmiastową informacją zwrotną.
| Specyfikacja | Szczegół |
|---|---|
| Tokeny/sekundę | > 1 000 (vs 50-100 dla standardowych modeli) |
| Okno kontekstu | 128k tokenów |
| Format | Tylko tekst (multimodalny planowany później) |
| Redukcja narzutu klient/serwer | 80% (Trwały WebSocket) |
| Redukcja narzutu na token | 30% |
| Redukcja czasu do pierwszego tokena | 50% |
Model działa na Cerebras Wafer-Scale Engine 3, monolitycznym procesorze, który utrzymuje obliczenia ściśle sprzężone dla inferencji o wysokiej przepustowości. To uruchomienie oznacza pierwszy krok partnerstwa OpenAI-Cerebras ogłoszonego w styczniu 2026.
Codex-Spark jest dostępny w research preview dla subskrybentów ChatGPT Pro, w najnowszych wersjach aplikacji Codex, CLI i rozszerzenia VS Code. Dostęp API jest ograniczony do wybranych partnerów, z planowanym szerszym wdrożeniem.
W SWE-Bench Pro i Terminal-Bench 2.0 model wykazuje solidną wydajność, wykonując zadania w ułamku czasu w porównaniu do GPT-5.3-Codex. Podczas fazy research preview obowiązują oddzielne limity szybkości.
Docelowo Codex zaoferuje dwa uzupełniające się tryby: rozumowanie długohoryzontalne (autonomiczne zadania trwające kilka godzin/dni) i współpraca w czasie rzeczywistym (szybka iteracja). Oba tryby będą mogły się łączyć, z delegowaniem długich zadań do podagentów w tle.
Gemini 3 Deep Think: rekordowe wyniki w naukach ścisłych
12 lutego — Google ogłasza dużą aktualizację Gemini 3 Deep Think, swojego wyspecjalizowanego trybu rozumowania. Model jest teraz zaprojektowany do rozwiązywania konkretnych wyzwań w nauce, badaniach i inżynierii, wykraczając poza abstrakcyjną teorię.
Deep Think został zaktualizowany w ścisłej współpracy z naukowcami i badaczami. Celem jest zmierzenie się ze złożonymi problemami badawczymi, gdzie dane są często nieuporządkowane lub niekompletne i gdzie nie istnieje jedno rozwiązanie. Model łączy głęboką wiedzę naukową i użyteczność w inżynierii.
Rekordowe Benchmarki
| Benchmark | Wynik | Uwaga |
|---|---|---|
| Humanity’s Last Exam | 48,4% (bez narzędzi) | Nowy standard dla modeli frontier |
| ARC-AGI-2 | 84,6% | Zweryfikowane przez ARC Prize Foundation |
| Codeforces | Elo 3455 | Programowanie konkurencyjne |
| IMO 2025 | Złoty Medal | Międzynarodowa Olimpiada Matematyczna |
| IPhO 2025 (pisemny) | Złoty Medal | Międzynarodowa Olimpiada Fizyczna |
| IChO 2025 (pisemny) | Złoty Medal | Międzynarodowa Olimpiada Chemiczna |
| CMT-Benchmark | 50,5% | Zaawansowana Fizyka Teoretyczna |
Rzeczywiste przypadki użycia
- Matematyka (Lisa Carbone, Rutgers University): Deep Think zidentyfikował subtelny błąd logiczny w wysoce technicznym artykule matematycznym, który umknął ludzkiej recenzji. Pracuje ona nad strukturami matematycznymi niezbędnymi dla fizyki wysokich energii.
- Inżynieria materiałowa (Wang Lab, Duke University): Optymalizacja metod produkcji do wzrostu złożonych kryształów, kandydatów na materiały półprzewodnikowe. Deep Think zaprojektował przepis na hodowanie cienkich warstw o grubości ponad 100 mikrometrów.
- Inżynieria mechaniczna (Anupam Pathak, Google Platforms & Devices): Iteracja na fizycznych prototypach z prędkością oprogramowania. Możliwość przekształcenia szkicu w obiekt do druku 3D (generowanie pliku STL).
Gemini 3 Deep Think jest dostępny od dzisiaj dla subskrybentów Google AI Ultra w aplikacji Gemini, oraz po raz pierwszy przez API we wczesnym dostępie dla badaczy, inżynierów i przedsiębiorstw.
Restrukturyzacja xAI: 4 zespoły i Macrohard
11 lutego — xAI publikuje 45-minutowe all-hands na X, ujawniając dużą restrukturyzację firmy po odejściu połowy jej współzałożycieli (6 z 12). Ostatnie odejścia to Tony Wu i Jimmy Ba.
Elon Musk ogłasza reorganizację xAI w 4 główne zespoły:
| Zespół | Fokus | Lider |
|---|---|---|
| Grok | Chatbot + głos | - |
| Coding | System kodu aplikacji | - |
| Imagine | Generowanie wideo | - |
| Macrohard | Symulacja komputerowa → przedsiębiorstwa | Toby Pohlen |
Macrohard to najbardziej ambitny projekt: według Toby’ego Pohlena system “jest w stanie zrobić wszystko, co komputer może zrobić na komputerze”. Ambicje sięgają projektowania silników rakietowych przez AI.
Kluczowe ogłoszone metryki
- X przekroczył 1 miliard USD rocznego powtarzalnego przychodu (subskrypcje)
- Imagine generuje 50 milionów filmów dziennie
- Ponad 6 miliardów obrazów w ciągu ostatnich 30 dni
Międzyplanetarna wizja Muska rozciąga się od orbitalnych centrów danych po bazy księżycowe. Te ogłoszenia pojawiają się po przejęciu xAI przez SpaceX (2 lutego) i odejściu 6 współzałożycieli z 12 w ciągu ostatniego roku (Kyle Kosic do OpenAI, Christian Szegedy, Igor Babuschkin, Greg Yang, Tony Wu, Jimmy Ba).
Mistral inwestuje 1,2 mld EUR w Szwecji
11 lutego — Mistral AI ogłasza inwestycję w wysokości 1,2 miliarda euro (1,4 miliarda USD) w budowę infrastruktury AI w Szwecji, we współpracy z EcoDataCenter. To pierwsza inwestycja infrastrukturalna AI Mistrala poza Francją.
Centrum danych będzie zlokalizowane w Borlänge (Szwecja) na terenie EcoDataCenter, z planowanym otwarciem w 2027 roku. Obiekt zapewni 23 megawaty mocy obliczeniowej i będzie hostował GPU NVIDIA Vera Rubin najnowszej generacji.
| Szczegół | Wartość |
|---|---|
| Kwota | 1,2 mld EUR / 1,4 mld USD |
| Partner | EcoDataCenter |
| Lokalizacja | Borlänge, Szwecja |
| Otwarcie | 2027 |
| Pojemność | 23 MW |
| GPU | NVIDIA Vera Rubin |
| Prognozowany przychód | 2 mld EUR w ciągu 5 lat |
Arthur Mensch, CEO Mistral AI, oświadczył, że ta inwestycja jest “konkretnym krokiem w kierunku budowy niezależnych zdolności w Europie, dedykowanych AI”. Wybór Szwecji tłumaczy się jej dostępem do czystej i stosunkowo taniej energii. Celem jest dostarczenie w pełni europejskiego stosu AI — zaprojektowanego, zbudowanego i obsługiwanego w całym łańcuchu wartości AI, z danymi przetwarzanymi i przechowywanymi lokalnie w Europie.
Qwen-Image-2.0: ujednolicone generowanie i edycja obrazów
10 lutego — Alibaba uruchamia Qwen-Image-2.0, model fundacyjny nowej generacji do generowania obrazów, który łączy generowanie text-to-image i edycję obrazów w jednej architekturze.
Główne zmiany w porównaniu do v1:
- Ujednolicona architektura generowania + edycji (wcześniej oddzielne modele)
- Bardziej kompaktowy model: 7B parametrów (wobec 20B dla v1)
- Ulepszone renderowanie tekstu z obsługą promptów do 1K tokenów
- Natywna rozdzielczość 2K (2048x2048)
| Benchmark | Qwen-Image-2.0 | FLUX.1 |
|---|---|---|
| DPG-Bench | 88,32 | 83,84 |
| AI Arena (blind eval) | #1 | - |
Model wyróżnia się w renderowaniu tekstu w języku chińskim i angielskim w różnych formatach: infografiki, plakaty, kaligrafia, oznakowanie. Qwen-Image-2.0 jest dostępny w testach API na platformie Alibaba Cloud BaiLian oraz bezpłatnie przez Qwen Chat (chat.qwen.ai).
Deep Research przechodzi na GPT-5.2
10 lutego — OpenAI aktualizuje ChatGPT Deep Research modelem GPT-5.2, zastępując poprzednie wersje o3 i o4-mini. Aktualizacja wprowadza połączenia z aplikacjami, wyszukiwanie na określonych stronach i kontrole w czasie rzeczywistym.
| Funkcjonalność | Szczegół |
|---|---|
| Model | GPT-5.2 (zastępuje o3 / o4-mini) |
| Połączenia aplikacji | Gmail, Google Calendar, Google Contacts + dowolne MCP |
| Wyszukiwanie celowane | Ograniczenie do określonych stron i zaufanych źródeł |
| Kontrole w czasie rzeczywistym | Śledzenie postępów, przerywanie i przekierowywanie w trakcie |
| Plan badań | Możliwy do utworzenia i edycji przed uruchomieniem |
| Interfejs | Przeprojektowany pasek boczny + widok raportu na pełnym ekranie |
| Eksport | PDF i DOCX |
Użytkownicy mogą teraz łączyć Deep Research z dowolnym serwerem MCP lub aplikacją i ograniczać wyszukiwania w sieci do zaufanych stron dla bardziej precyzyjnych i wiarygodnych raportów. Aplikacje działają w trybie tylko do odczytu jako wiarygodne źródła.
Wdrażanie rozpoczęło się 10 lutego dla użytkowników Plus i Pro, a dla użytkowników Free i Go nastąpi w kolejnych dniach.
ChatGPT dołącza do GenAI.mil Pentagonu
10 lutego — OpenAI ogłasza wdrożenie niestandardowej wersji ChatGPT na GenAI.mil, platformie AI enterprise Departamentu Obrony USA. ChatGPT dołącza do Google Gemini (uruchomionego w grudniu 2025) i xAI Grok (dodanego pod koniec grudnia 2025) na platformie.
| Szczegół | Wartość |
|---|---|
| Platforma | GenAI.mil (DoD) |
| Potencjalni użytkownicy | ~3 miliony (wojskowi, cywile, kontrahenci) |
| Aktywni użytkownicy platformy | 1,1 miliona unikalnych od uruchomienia |
| Klasyfikacja | Tylko dane niejawne |
| Infrastruktura | Autoryzowana chmura rządowa |
| Izolacja danych | Dane izolowane, nieużywane do trenowania modeli OpenAI |
Przypadki użycia obejmują syntezę i analizę dokumentów politycznych, redagowanie materiałów zamówieniowych, generowanie raportów wewnętrznych i list kontrolnych zgodności oraz pomoc w badaniach i planowaniu.
ElevenLabs for Government
11 lutego — ElevenLabs uruchamia ElevenLabs for Government, inicjatywę dedykowaną sektorowi publicznemu ogłoszoną na ElevenLabs Summit w Londynie. Ta platforma oferuje agentów głosowych i czatowych AI zaprojektowanych dla organizacji rządowych, dostępnych 24/7, w wielu językach, przez telefon, czat, e-mail i WhatsApp.
Platforma ma trzy cele:
- Dostępność i inkluzywność: wielojęzyczni agenci omnikanałowi zdolni do natychmiastowego rozwiązywania zapytań obywateli
- Wydajność i produktywność: automatyzacja kontaktów o dużej objętości i redukcja transferów między usługami
- Zaufanie i zaangażowanie: poprawa dostępu do komunikacji zgodnej z polityką publiczną
| Wdrożenie | Szczegóły |
|---|---|
| Republika Czeska | Krajowe infolinie ds. zatrudnienia i świadczeń, ~5 000 połączeń/dzień, 85% autonomicznego rozwiązywania |
| Ukraina | Cyfrowy bliźniak wysokiego urzędnika + usługi publiczne, we współpracy z Ministerstwem Transformacji Cyfrowej |
| Midland, Teksas (USA) | Obywatelski konsjerż głosowy “Jacky”, szacowana redukcja 7 000 nieodebranych połączeń/miesiąc |
Platforma posiada certyfikaty SOC 2 Type 2, RODO (GDPR), CPRA i HIPAA, aby spełniać wymagania bezpieczeństwa sektora publicznego.
Anthropic pokrywa podwyżki cen prądu
11 lutego — Anthropic ogłasza, że pokryje podwyżki cen energii elektrycznej dla konsumentów spowodowane przez swoje centra danych. Firma podejmuje cztery konkretne zobowiązania:
| Zobowiązanie | Szczegół |
|---|---|
| Koszty infrastruktury sieciowej | Pokrycie 100% kosztów przyłączenia do sieci |
| Nowa produkcja energii | Uruchomienie nowych mocy wytwórczych dostosowanych do potrzeb |
| Redukcja presji na sieć | Inwestycja w systemy redukcji zużycia w szczycie |
| Inwestycja społeczna | Utworzenie setek stałych miejsc pracy i tysięcy miejsc pracy w budownictwie |
Anthropic przekazuje 20 mln $ na regulację AI
12 lutego — Anthropic ogłasza darowiznę w wysokości 20 milionów dolarów na rzecz Public First Action, nowej ponadpartyjnej organizacji 501(c)(4) w USA. Celem jest mobilizacja obywateli i decydentów w kwestiach AI w interesie publicznym.
Tweet Anthropic podkreśla, że AI jest przyjmowana szybciej niż jakakolwiek technologia w historii, a okno na właściwe ukształtowanie polityki publicznej się zamyka.
Claude Code Desktop: lokalne pluginy i marketplace
11 lutego — Boris Cherny (lead Claude Code w Anthropic) publikuje wątek szczegółowo opisujący, co inżynierowie kochają w Claude Code: jego konfigurowalność. Wymienia hooki, pluginy, LSP, MCP, skills, effort, custom agents, status lines, output styles jako mechanizmy dostosowywania.
Równolegle Lydia Hallie ogłasza, że Claude Code na desktopie obsługuje teraz lokalne pluginy. Użytkownicy mogą instalować niestandardowe polecenia slash, skills i serwery MCP z marketplace, z automatyczną synchronizacją między desktopem a CLI.
GitHub Mobile: Wybór Modelu dla Copilot
11 lutego — GitHub dodaje selektor modeli do Copilot Coding Agent w aplikacji GitHub Mobile, na iOS i Android.
Użytkownicy Copilot Pro i Pro+ mogą teraz wybierać model AI zasilający ich sesje coding agent bezpośrednio z telefonu, bez konieczności przechodzenia na desktop.
| Dostępny Model | Wydawca |
|---|---|
| Auto (domyślny — optymalizuje szybkość i wydajność) | GitHub |
| Claude Opus 4.5 | Anthropic |
| Claude Opus 4.6 | Anthropic |
| Claude Sonnet 4.5 | Anthropic |
| GPT-5.1-Codex-Max | OpenAI |
| GPT-5.2-Codex | OpenAI |
Tryb Auto automatycznie wybiera model, aby zoptymalizować szybkość i wydajność w zależności od dostępności. Funkcjonalność jest dostępna od teraz dla subskrybentów Copilot Pro i Pro+. Wsparcie dla Business i Enterprise nadejdzie wkrótce. Uwaga: GPT-5.3-Codex, udostępniony w trybie GA 9 lutego, nie znajduje się jeszcze na liście mobilnej.
GitHub zawiesza GPT-5.3-Codex (niezawodność)
10 lutego — GitHub ogłasza tymczasowe zawieszenie wdrażania GPT-5.3-Codex w GitHub Copilot z powodów niezawodności platformy, zaledwie dzień po ogłoszeniu jego ogólnej dostępności.
Tweet, który cytuje w odpowiedzi ogłoszenie z 9 lutego o GA GPT-5.3-Codex, wygenerował 357 500 wyświetleń i 1000 polubień, świadcząc o wpływie na społeczność deweloperów. Kilku użytkowników zgłosiło problemy z dostępnością usługi w odpowiedziach.
Fakt, że model nie widnieje jeszcze na liście Mobile Model Picker (ogłoszonej 11 lutego), może być związany z tym zawieszeniem.
Manus uruchamia Project Skills
12 lutego — Manus (teraz pod Meta) uruchamia Project Skills, funkcjonalność pozwalającą na tworzenie dedykowanych bibliotek umiejętności dla projektu.
Każdy projekt może skompletować zestaw skills wybranych z pul “Team Skills” lub kolekcji osobistych. Idea: przekształcenie standardowego folderu projektu w inteligentną i autonomiczną przestrzeń roboczą.
| Funkcjonalność | Opis |
|---|---|
| Biblioteki na projekt | Kompletowanie niestandardowych zestawów narzędzi z pul zespołowych lub osobistych |
| Zawarte przepływy pracy | Tylko skills wyraźnie dodane do projektu mogą być wyzwalane |
| Zablokowane przepływy pracy | Administratorzy mogą zablokować zestaw skills, aby standaryzować procesy |
Wyróżnione korzyści: szybszy onboarding, skalowanie indywidualnej wiedzy eksperckiej na organizację i budowanie “wiedzy instytucjonalnej”, która poprawia się z czasem. Dostępne natychmiast dla wszystkich użytkowników Manus.
Gemini CLI v0.28.0 + Extension Settings
10-11 lutego — Google publikuje wersję 0.28.0 Gemini CLI i ogłasza Extension Settings, nową funkcjonalność upraszczającą konfigurację rozszerzeń.
Gemini CLI v0.28.0 (10 lutego)
| Nowość | Szczegół |
|---|---|
Polecenie /prompt-suggest | Nowe polecenie slash dla sugestii promptów |
| Automatyczny motyw | Adaptacja na podstawie tła terminala |
| Kompatybilność IDE | Dodano wsparcie dla Positron IDE |
| Ulepszone OAuth | Interaktywna i nieinteraktywna zgoda OAuth |
| Checklist component | Komponent do zarządzania zadaniami strukturalnymi w trybie plan |
| Podagenci | Dynamiczna rejestracja polityk dla podagentów |
| Wykonywanie w tle | Polecenia powłoki w tle |
Extension Settings (11 lutego)
Rozszerzenia Gemini CLI mogą teraz definiować parametry konfiguracyjne, które użytkownicy podają podczas instalacji. Automatyczna konfiguracja z interaktywnymi promptami, wbudowane bezpieczeństwo (dane wrażliwe, takie jak klucze API, są przechowywane w pęku kluczy systemu) i scentralizowane zarządzanie przez gemini extensions config. Rozszerzenia Data Cloud (BigQuery, Cloud SQL, Firestore, Looker, Spanner) już implementują tę funkcjonalność.
Zakupy AI w Google Search i Gemini
11 lutego — Google ogłasza integrację funkcji zakupowych bezpośrednio w swoich produktach AI — Search AI Mode i chatbocie Gemini.
Użytkownicy mogą teraz kupować artykuły Etsy i Wayfair bezpośrednio w chatbocie Gemini. Direct Offers, nowa funkcja w AI Mode, pozwala markom oferować zniżki potencjalnym kupującym. Nowe formaty reklam są testowane w AI Mode w Search dla sprzedawców detalicznych.
Google współpracuje z Walmart, Target i Shopify nad protokołem checkout pozwalającym konsumentom na finalizację zakupów bezpośrednio w produktach AI Google.
Raport GTIG: ataki destylacyjne na Gemini
12 lutego — Google Threat Intelligence Group (GTIG) publikuje raport ujawniający, że Gemini był celem ataków destylacyjnych — masowych prób klonowania poprzez powtarzane prompty.
Jedna kampania przesłała ponad 100 000 promptów do Gemini, zanim została wykryta. Ataki celowały specyficznie w algorytmy rozumowania Gemini. Atakującymi są głównie prywatne firmy i badacze szukający przewagi konkurencyjnej.
Systemy Google wykryły aktywność w czasie rzeczywistym i dostosowały zabezpieczenia. Google uważa destylację za kradzież własności intelektualnej.
Codex CLI v0.99.0: współbieżne wykonywanie powłoki
11 lutego — OpenAI publikuje Codex CLI v0.99.0 ze współbieżnym wykonywaniem powłoki, konfigurowalnym paskiem statusu i dedykowanymi API app-server.
| Funkcjonalność | Szczegół |
|---|---|
| Współbieżne wykonywanie powłoki | Bezpośrednie polecenia powłoki nie blokują już trwającej tury |
| /statusline | Interaktywna konfiguracja metadanych w stopce TUI |
| Adaptacyjny resume picker | Nowy selektor do wznawiania sesji |
| App-server API | Dedykowane API do integracji aplikacji |
| Admin controls | Kontrole administratora dla wyszukiwania w sieci i sieci |
| Obrazy | Wsparcie GIF/WebP |
| Snapshotting | Migawki środowiska |
| Steer mode | Stabilny i domyślnie aktywny (Enter wysyła, Tab kolejkuje) |
Pakowanie npm zostało przerobione: binarne pliki specyficzne dla platformy są dystrybuowane przez dist-tagi @openai/codex, zmniejszając rozmiar pakietów.
Qwen Chat AI Slides
12 lutego — Qwen ogłasza nadchodzące przybycie AI Slides w Qwen Chat. Funkcjonalność pozwala na konwersję różnych typów dokumentów w prezentacje: project docs → meeting slides, paper → oral deck, product info → sales deck, topic → teaching deck.
Funkcjonalność jest zbudowana z Qwen Agent + Qwen-Image 2.0 (model obrazu uruchomiony kilka dni wcześniej). Chen Cheng zademonstrował zdolność przekształcania artykułów akademickich w prezentacje ustne w kilka minut, ze zintegrowanym agentem wyszukiwania.
Co to oznacza
Zbiórka funduszy w wysokości 30 miliardów dolarów przez Anthropic przy wycenie 380 miliardów potwierdza dominację modeli frontier w gospodarce AI. Roczny run-rate 14 miliardów dolarów i udział 2,5 miliarda generowany przez Claude Code pokazują, że coding wspomagany przez AI stał się infrastrukturą krytyczną dla deweloperów i przedsiębiorstw.
Pojawienie się GPT-5.3-Codex-Spark na Cerebras oznacza punkt zwrotny w dywersyfikacji sprzętu AI poza NVIDIA. Inferencja przy 1000+ tokenach/sekundę zmienia naturę interakcji z modelami kodu, umożliwiając płynną współpracę w czasie rzeczywistym.
Gemini 3 Deep Think ze swoimi złotymi medalami na olimpiadach naukowych i wynikiem 84,6% w ARC-AGI-2 demonstruje, że modele frontier zaczynają osiągać poziom rozumowania naukowego porównywalny z najlepszymi ludźmi w wyspecjalizowanych dziedzinach.
Restrukturyzacja xAI w 4 zespoły z Macrohard — mającym na celu robienie “wszystkiego, co komputer może zrobić” — i masowa inwestycja Mistral w Europie pokazują, że wyścig o infrastrukturę AI przyspiesza globalnie. Zawieszenie GPT-5.3-Codex przez GitHub przypomina jednak, że niezawodność pozostaje głównym wyzwaniem dla wdrożeń na dużą skalę.
Źródła
- Anthropic — Seria G $30B
- Anthropic — Elektryczność
- Anthropic — Public First Action
- Anthropic — Claude Code Plugins
- OpenAI — GPT-5.3-Codex-Spark
- OpenAI — Deep Research
- OpenAI — GenAI.mil
- OpenAI — Codex CLI v0.99.0
- Google — Gemini 3 Deep Think
- Google — Zakupy AI
- Google — Rozszerzenia Gemini CLI
- Google — Destylacja GTIG
- xAI — Restrukturyzacja
- Mistral — Inwestycja Szwecja
- Qwen — Image 2.0
- Qwen — AI Slides
- ElevenLabs — For Government
- GitHub — Mobile Model Picker
- GitHub — Pauza GPT-5.3-Codex
- Manus — Project Skills