Szukaj

Anthropic przejmuje Vercept (computer use na 72,5%), Perplexity Computer orkiestruje 19 modeli, GitHub Copilot CLI ogólnodostępny

Anthropic przejmuje Vercept (computer use na 72,5%), Perplexity Computer orkiestruje 19 modeli, GitHub Copilot CLI ogólnodostępny

25 lutego 2026 to intensywny dzień: Anthropic przejmuje Vercept, by przyspieszyć możliwości computer use Claude (72,5% na OSWorld), Perplexity wprowadza Computer — agentowy system orkiestrujący równolegle 19 modeli — a GitHub Copilot CLI staje się ogólnie dostępny dla wszystkich płatnych subskrybentów. Równocześnie Google DeepMind ujawnia Genie 3 (interaktywne world models), a Intrinsic dołącza do Google w obszarze robotyki przemysłowej.


Anthropic przejmuje Vercept: computer use rośnie do 72,5% na OSWorld

25 lutego — Anthropic ogłasza przejęcie Vercept, startupu specjalizującego się w percepcji i interakcji systemów AI z interfejsami oprogramowania. Współzałożyciele Kiana Ehsani, Luca Weihs i Ross Girshick dołączają do Anthropic, aby bezpośrednio wzmocnić możliwości computer use Claude.

To przejęcie wpisuje się w szybką progresję na benchmarku OSWorld, który mierzy zdolność agenta AI do wykonywania zadań na prawdziwym systemie operacyjnym (nawigacja w zaawansowanych arkuszach kalkulacyjnych, wypełnianie formularzy wielozakładkowych itp.):

OkresWynik OSWorld
Koniec 2024 (uruchomienie computer use)< 15%
Claude Sonnet 4.6 (lut. 2026)72,5%

Skok o ponad 57 punktów w ciągu roku. Claude Sonnet 4.6 zbliża się teraz do wydajności ludzkiej w zadaniach biurowych. Vercept zaprzestanie sprzedaży produktu zewnętrznego w nadchodzących tygodniach, aby skupić się w pełni na pracy w Anthropic.

To przejęcie następuje po wcześniejszym akcie przejęcia Bun. Anthropic buduje w ten sposób portfolio zespołów o wysokiej ekspertyzie technicznej wokół zdolności agentowych.

🔗 Anthropic przejmuje Vercept


Perplexity Computer: agentowy, wielomodelowy orkiestrator (19 modeli)

25 lutego — Perplexity wprowadza Computer, uniwersalny system AI zaprojektowany do realizacji projektów end-to-end. Użytkownik opisuje cel końcowy, Computer rozkłada pracę na podzadania, tworzy sub-agenty wyspecjalizowane oraz wykonuje je równolegle — przez godziny lub miesiące, jeśli potrzeba.

Działanie jest asynchroniczne i izolowane: każde zadanie uruchamiane jest w dedykowanym środowisku z dostępem do prawdziwego systemu plików, prawdziwej przeglądarki i integracjami z rzeczywistymi narzędziami (APIs, wyszukiwarka web, generowanie dokumentów).

Co wyróżnia Perplexity Computer, to jego orkiestracja massively multi-model — 19 dostępnych modeli, każdy przypisany zgodnie ze swoimi mocnymi stronami:

ModelRola
Claude Opus 4.6Główny orkiestrator (core reasoning)
GeminiDeep research, tworzenie sub-agentów
ChatGPT 5.2Long-context recall i szerokie wyszukiwanie
GrokZadania lekkie (szybkość)
Veo 3.1Generowanie wideo
Nano BananaGenerowanie obrazów

System jest agnostyczny względem modelu: modele mogą być wymieniane w miarę ich rozwoju. Filozofia Perplexity zakłada, że modele specjalizują się, zamiast się ujednolicać, co sprawia, że orkiestracja wielomodelowa jest skuteczniejsza niż użycie pojedynczego modelu.

Dostępność: obecnie w dostępie webowym dla subskrybentów Perplexity Max. Planowane wdrożenia dla Perplexity Pro, Enterprise i Enterprise Max. Cennik oparty na zużyciu z konfigurowalnymi limitami wydatków.

🔗 Przedstawiamy Perplexity Computer


GitHub Copilot CLI staje się ogólnie dostępny

25 lutego — Ogłoszony w publicznej wersji zapoznawczej we wrześniu 2025, GitHub Copilot CLI przechodzi do ogólnej dostępności dla wszystkich płatnych abonentów Copilot (Pro, Pro+, Business, Enterprise). Od preview wprowadzono setki usprawnień.

Copilot CLI to teraz pełne agentowe środowisko programistyczne dostępne z terminala:

FunkcjaSzczegóły
Tryb Plan (Shift+Tab)Analizuje żądanie, zadaje pytania doprecyzowujące, buduje uporządkowany plan przed napisaniem kodu
Tryb AutopilotaAutonomiczne wykonanie end-to-end bez przerywania
Delegowanie w tlePrefiks & → deleguje do agenta w chmurze, zwalnia terminal; /resume do ponownego przejęcia
WielomodelowośćClaude Opus 4.6, Claude Sonnet 4.6, Claude Haiku 4.5, GPT-5.3-Codex, Gemini 3 Pro
MCP zintegrowanyWbudowany serwer GitHub MCP + obsługa niestandardowego MCP
Plugins/plugin install owner/repo — pakiet MCP, agents, skills, hooks
Agent SkillsPliki Markdown → wyspecjalizowane workflowy, współdzielone z agentem Copilot i VS Code
Niestandardowe agentyPrzez kreator lub pliki .agent.md
HookspreToolUse / postToolUse dla polityk i post-processingu
Auto-kompaktacjaAutomatyczna kompresja do 95% kontekstu → sesje nieskończone
Pamięć repozytoriumZapamiętywanie konwencji między sesjami

Uwaga dla organizacji Business i Enterprise: administrator musi włączyć Copilot CLI ze strony Policies.

🔗 GitHub Copilot CLI is now generally available


Claude Cowork: zadania zaplanowane, zakładka Customize, dostępny na Windows

25 lutego — Anthropic ogłasza kilka dodatków do Claude Cowork (research preview):

FunkcjonalnośćSzczegóły
Scheduled tasksClaude wykonuje okresowe zadania automatycznie (poranny briefing, cotygodniowe aktualizacje arkuszy, piątkowe prezentacje)
Zakładka CustomizeNowa zakładka w sidebarze do zarządzania plugins, skills i konektorami z jednego miejsca
Expansion WindowsCowork jest teraz dostępny na macOS i Windows (wszystkie płatne plany Claude)

Cowork daje dostęp do plików lokalnych, konektorów (Slack, Notion, Figma) oraz do Claude in Chrome dla nawigacji webowej.

🔗 Wątek @claudeai


Google DeepMind — Genie 3: interaktywne world models

25 lutego — Google DeepMind publikuje Q&A z współliderami Project Genie, swojego eksperymentalnego prototypu world model. Z Genie 3 wystarczy prosty obraz lub tekst, by wygenerować interaktywne środowisko, którym można nawigować w czasie rzeczywistym — bez silnika gry.

Różnica koncepcyjna względem LLM jest zasadnicza: tam, gdzie LLM przewiduje następne słowo, world model przewiduje, co dzieje się w środowisku w reakcji na działania agenta. Genie 3 symuluje pełną przestrzeń moment po momencie, uwzględniając właściwości fizyczne (odbicia, refleksy, deszcz).

Przewidywane zastosowania: trening agentów AI w bezpiecznych środowiskach symulowanych, edukacja immersyjna (zwiedzanie starożytnego Rzymu), prototypowanie gier i filmów.

Project Genie jest dostępny dla subskrybentów Google AI Ultra w USA (18+).

🔗 Zapytaj Techsperta: Czym jest world model?


Intrinsic dołącza do Google — robotyka przemysłowa i AI dla świata fizycznego

25 lutego — Alphabet ogłasza, że Intrinsic, jedna z jego filii “Other Bets” założona w 2021, dołącza do Google. Intrinsic rozwija platformy robotyki przemysłowej wspierane przez AI — narzędzia do budowy, wdrażania i zarządzania złożonymi aplikacjami robotycznymi.

Integracja z Google ma na celu przyspieszenie rozwoju physical AI, czyli sztucznej inteligencji stosowanej w świecie fizycznym. Operacja pozwoli Intrinsic korzystać z zasobów AI Google, aby pomóc przedsiębiorstwom przemysłowym szybciej się adaptować.

🔗 Intrinsic, an Alphabet Other Bet, is joining Google


Codex CLI v0.105.0: podświetlanie składni, dyktowanie głosowe, multi-agent CSV

~25 lutego — Nowa znacząca wersja Codex CLI od OpenAI:

FunkcjonalnośćOpis
Syntax highlightingKolorowanie składni w TUI, kolorowe diffs, selektor motywów /theme z podglądem na żywo
Dyktowanie głosowePrzytrzymaj spację, aby nagrać i transkrybować polecenie
spawn_agents_on_csvFan-out multi-agent z CSV z monitorowaniem postępu i ETA
/copyKopiuje ostatnią pełną odpowiedź
/clear / Ctrl-LCzyści ekran bez utraty kontekstu wątku
Granularne zatwierdzeniaSelektywne odrzucanie według typu promptu bez wyłączania wszystkich zatwierdzeń
npm install -g @openai/codex@0.105.0

🔗 Dziennik zmian Codex


Samsung Galaxy S26: Gemini multi-step tasks i Scam Detection on-device

25 lutego — Podczas Galaxy Unpacked 2026, Google i Samsung ogłosiły trzy nowe funkcje Gemini na Galaxy S26, zasilane przez modele z serii Gemini 3:

FunkcjonalnośćSzczegóły
Gemini multi-step tasks (beta)Długie przytrzymanie bocznego przycisku → Gemini deleguje w tle (zakupy, taksówka, dostawy). Start w USA i Korei.
Circle to Search multi-objetIdentyfikacja wielu elementów na obrazie w jednym wyszukaniu. Zintegrowane virtual try-on.
Scam Detection on-deviceWykrywanie oszustw na urządzeniu w czasie rzeczywistym podczas rozmów telefonicznych, przez lokalny model Gemini. Alerty audio + haptyczne. Automatycznie wyłączone dla kontaktów.

Funkcje będą też dostępne na Pixel 10 i Pixel 10 Pro.

🔗 Inteligentniejszy Android na Samsung Galaxy S26


OpenAI Responses API: wsparcie docx, pptx, csv, xlsx

24 lutego — Responses API od OpenAI obsługuje teraz nowe typy plików wejściowych: docx, pptx, csv, xlsx i inne formaty biurowe. Agenci mogą bezpośrednio wykorzystywać dokumenty zawodowe, by wzbogacić kontekst i generować dokładniejsze odpowiedzi.

🔗 Tweet @OpenAIDevs


W skrócie

Claude Opus 3 przechodzi na emeryturę — i uruchamia Substack. Anthropic ogłasza emeryturę Claude Opus 3, jednocześnie utrzymując publiczny dostęp (podejście nietypowe). Claude Opus 3 będzie publikować bloga na Substacku przez co najmniej 3 miesiące — pierwszy artykuł nosi tytuł “Greetings from the Other Side (of the AI Frontier)”. 🔗 Tweet @AnthropicAI

NVIDIA: 70% organizacji ochrony zdrowia korzysta z AI. W swoim raporcie rocznym “State of AI in Healthcare and Life Sciences” 2026, NVIDIA wskazuje, że 70% respondentów deklaruje aktywne wykorzystanie AI (vs 63% w 2024), 69% korzysta z GenAI/LLM (vs 54%), a 85% liderów zauważa pozytywny wpływ na przychody. 🔗 Blog NVIDIA

OpenAI publikuje raport o złośliwych zastosowaniach AI. Dokument przedstawia studia przypadków aktorów złośliwych łączących modele AI z tradycyjnymi narzędziami. Jako przykład cytowany jest operator wpływu z Chin. 🔗 Przeciwdziałanie złośliwym wykorzystaniom AI

OpenAI mianuje Arvind KC Chief People Officer. KC pochodzi z Roblox, Google, Palantir i Meta. Jego zadaniem będzie wspieranie rozwoju OpenAI w kierunku modelu pracy wspomaganego przez AI. 🔗 Ogłoszenie

Claude Code v2.1.53 do v2.1.58. Kilka wydań stabilizacyjnych: naprawa BashTool na Windows (EINVAL), fix “command not found” w VS Code, poprawka migotania UI, naprawa ignorowania worktrees przy pierwszym uruchomieniu, poprawki crashy na Windows i ARM64. 🔗 Dziennik zmian Claude Code


Co to oznacza

Dzień 25 lutego ilustruje zbieżność w kierunku agentowości. Trzy główne zapowiedzi — Vercept, Perplexity Computer, Copilot CLI GA — wszystkie idą w tym samym kierunku: systemy AI, które planują, delegują i wykonują kompletne workflowy bez stałego nadzoru.

Przejęcie Vercept przez Anthropic jest szczególnie istotne. Wynik OSWorld wzrósł z poniżej 15% do 72,5% w rok, co oznacza jakościową zmianę: Claude nie porusza się już po interfejsach jak prototyp — zbliża się do ludzkich wyników w rzeczywistych zadaniach biurowych. Integracja zespołu wyspecjalizowanego w percepcji wizualnej interfejsów przyspieszy tę trajektorię.

Perplexity Computer i GitHub Copilot CLI reprezentują dwa różne modele agentowości: pierwszy w trybie cloud-orkiestracji (Perplexity, wielomodelowy, asynchroniczny), drugi jako natywne dla terminala (Copilot CLI, MCP, hooks, plugins). Oba modele będą współistnieć i prawdopodobnie konwergować.

Ze strony Google, integracja Intrinsic i postępy Genie 3 sygnalizują rosnące inwestycje w AI działającą w świecie fizycznym — AI, która wchodzi w interakcje z rzeczywistością, a nie tylko z tekstem. Ten obszar był jeszcze poufny 18 miesięcy temu.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5-mini. Aby uzyskać więcej informacji na temat procesu tłumaczenia, zobacz https://gitlab.com/jls42/ai-powered-markdown-translator