Szukaj

OpenAI DeployCo startuje z 4 miliardami, Claude Platform na AWS dostępna, Grok Voice Think Fast 1.0

OpenAI DeployCo startuje z 4 miliardami, Claude Platform na AWS dostępna, Grok Voice Think Fast 1.0

ai-powered-markdown-translator

Artykuł przetłumaczony z fr na pl za pomocą gpt-5.4-mini.

Zobacz projekt na GitHubie ↗

11 maja 2026 to intensywny dzień: OpenAI uruchamia enterprise’ową spółkę zależną do wdrożeń z początkową inwestycją USD 4 miliardów, Anthropic udostępnia Claude Platform na AWS wszystkim klientom AWS, a xAI prezentuje Grok Voice Think Fast 1.0 do obsługi klienta głosowej w czasie rzeczywistym. Po stronie narzędzi GitHub Copilot robi krok naprzód dzięki zarządzaniu sekretami na poziomie organizacji, Gemini wprowadza Personal Intelligence do planowania spersonalizowanych podróży, a NVIDIA publikuje OpenShell v0.0.37.


OpenAI Deployment Company — enterprise’owa spółka zależna z USD 4 miliardami

11 maja — OpenAI uruchamia OpenAI Deployment Company (nazywaną „DeployCo”), podmiot stworzony po to, by pomagać organizacjom integrować i wdrażać systemy AI bezpośrednio w ich kluczowych operacjach. To nie jest kolejna oferta chmurowa: DeployCo wysyła Forward Deployed Engineers bezpośrednio do klientów, aby identyfikować wartościowe możliwości związane z AI, przeprojektowywać workflow i wdrażać rozwiązania produkcyjnie.

Struktura i partnerzy:

KategoriaPartnerzy
Lead investorTPG
WspółzałożycieleAdvent, Bain Capital, Brookfield
Partnerzy założycielscyB Capital, BBVA, Emergence Capital, Goldman Sachs, SoftBank Corp., Warburg Pincus, WCAS, Goanna
Doradztwo / integracjaBain & Company, Capgemini, McKinsey & Company

Przejęcie Tomoro: OpenAI od startu integruje Tomoro, firmę doradczą specjalizującą się w AI stosowanej, której klientami są m.in. Tesco, Virgin Atlantic i Supercell. Przejęcie wnosi około 150 doświadczonych inżynierów (Forward Deployed Engineers i Deployment Specialists). Finalizacja zależy od zatwierdzeń regulacyjnych.

Kluczowe liczby: USD 4 miliardy początkowej inwestycji, ponad 2 000 firm wspieranych przez partnerów, ponad milion firm już korzystających z produktów i API OpenAI. DeployCo jest w większości własnością i pod kontrolą OpenAI.

“AI is becoming capable of doing increasingly meaningful work inside organizations. The challenge now is helping companies integrate these systems into the infrastructure and workflows that power their businesses. DeployCo is designed to help organizations bridge that gap and turn AI capability into real operational impact.”

🇵🇱 „Sztuczna inteligencja staje się zdolna do wykonywania coraz bardziej znaczącej pracy w organizacjach. Wyzwaniem jest teraz pomoc firmom w integrowaniu tych systemów z infrastrukturą i workflow, które napędzają ich działalność. DeployCo została zaprojektowana po to, aby pomóc organizacjom przekroczyć tę barierę i przekształcić możliwości AI w realny wpływ operacyjny.” — Denise Dresser, Chief Revenue Officer w OpenAI

🔗 Oficjalne ogłoszenie OpenAI


Claude Platform on AWS — ogólna dostępność

11 maja — Anthropic oficjalnie udostępnia Claude Platform on AWS wszystkim klientom AWS. Oferta ta różni się od Claude na Amazon Bedrock: zapewnia bezpośredni dostęp do całego natywnego API Claude, z uwierzytelnianiem przez AWS IAM, logowaniem przez CloudTrail i skonsolidowanym rozliczaniem na koncie AWS.

Uwzględnione funkcje:

FunkcjaStatusOpis
Claude Managed AgentsBetaTworzenie i wdrażanie agentów na dużą skalę
Advisor strategyBetaKonsultacja z modelem doradczym w celu wzbogacenia agentów
Web search + web fetchGADostęp do danych w czasie rzeczywistym
Code executionGAPython, wizualizacje, analiza danych
Files APIBetaPrzesyłanie trwałych dokumentów między rozmowami
SkillsBetaNauczanie Claude najlepszych praktyk
MCP connectorBetaPołączenie z dowolnym zdalnym serwerem MCP bez kodu klienckiego
Prompt cachingGAObniżenie kosztów przy powtarzanym kontekście
CitationsGAOsadzanie odpowiedzi w dokumentach źródłowych
Batch processingGAAsynchroniczne workloady o dużej skali

Dostępne modele to Claude Opus 4.7, Sonnet 4.6 i Haiku 4.5. Nowe modele będą wdrażane jednocześnie na Claude Platform on AWS oraz przez bezpośrednie API Anthropic.

Różnica względem Amazon Bedrock: Bedrock działa w ramach AWS z AWS jako procesorem danych — odpowiednio dla firm podlegających ścisłym wymaganiom dotyczącym rezydencji danych. Claude Platform on AWS daje dostęp do wszystkich natywnych funkcji API Claude z infrastruktury AWS, z AWS jako warstwą wyłącznie dostępową.

Dostępność: Większość komercyjnych regionów AWS, z globalną i amerykańską zgodnością (w tym GovCloud).

🔗 Blog Claude Platform on AWS


Grok Voice Think Fast 1.0 — agent głosowy czasu rzeczywistego do obsługi klienta

8 maja — xAI uruchamia Grok Voice Think Fast 1.0, agenta głosowego stworzonego do produkcyjnej obsługi klienta. Pozycjonowanie jest jednoznaczne: agent głosowy „stworzony dla prawdziwego świata”, zdolny prowadzić rozmowy w czasie rzeczywistym z użytkownikami końcowymi — nie tylko wewnętrzne demo. Ogłoszenie zebrało 70 milionów wyświetleń w 3 dni na X, co sygnalizuje znaczące zainteresowanie rynku.

Ogłoszenie opisuje agenta radzącego sobie z klasycznymi scenariuszami obsługi klienta głosowo: pytaniami o produkty, rozwiązywaniem problemów, eskalacją. Pozycjonowanie „Think Fast” sugeruje architekturę zoptymalizowaną pod kątem opóźnień — krytyczny czynnik dla produkcyjnych wdrożeń głosowych, w których każda pauza dłuższa niż 500 ms pogarsza doświadczenie użytkownika.

Kontekst rynkowy: Ogłoszenie Grok Voice Think Fast 1.0 wpisuje się w wyścig po głosowe agentowe rozwiązania do obsługi klienta. OpenAI uruchomiło GPT-Realtime-2 7 maja (omówione w artykule z 10 maja). ElevenLabs wdraża agentów głosowych u Mahindry przy okazji premiery samochodu (por. Krótkie wiadomości). Każdy z głównych graczy pozycjonuje teraz enterprise’ową ofertę głosowego agenta.

Dostępność: Dostępne przez API xAI. Ceny nie zostały podane w ogłoszeniu.

🔗 Tweet @xai


Gemini Personal Intelligence — podróże szyte na miarę

11 maja — Gemini uruchamia Personal Intelligence, funkcję, która łączy aplikację Gemini z osobistymi danymi użytkownika, aby tworzyć w pełni spersonalizowane plany podróży. Dostępne źródła danych: Gmail (historia podróży, potwierdzenia rezerwacji), Google Photos (odwiedzone miejsca), Google Search (preferencje wyszukiwania) oraz YouTube (oglądane treści).

Działanie:

AspektSzczegół
Główne zastosowanieSpersonalizowane planowanie podróży
Źródła danychGmail, Google Photos, Google Search, YouTube
Kontrola użytkownikaWybór połączonych aplikacji, zarządzanie ustawieniami w dowolnym momencie
DostępnośćAplikacja Gemini (iOS/Android)

Użytkownik wybiera, które aplikacje połączyć, i może w dowolnym momencie zmienić swoje preferencje personalizacji. Funkcja wpisuje się w roadmapę przed Google I/O 2026 (19 maja), gdzie oczekiwane są szersze ogłoszenia dotyczące agentowych możliwości Gemini. Personal Intelligence rozwija Gemini Agent (uruchomiony wraz z Gemini 3 w listopadzie 2025) poprzez udostępnienie personalizacji za pośrednictwem istniejących danych Google użytkownika.

🔗 Tweet @GeminiApp


GitHub Copilot cloud agent — sekrety i zmienne na poziomie organizacji

8 maja — GitHub robi znaczący krok dla zespołów enterprise: Copilot cloud agent ma teraz własną, dedykowaną sekcję „Agents” dla sekretów i zmiennych, odrębną od sekcji „Actions”, „Codespaces” i „Dependabot”. Główną nowością jest konfiguracja na poziomie organizacji — pierwsza taka dla Copilot cloud agent.

Co to zmienia w praktyce:

PrzedtemPotem
Sekrety konfigurowane repozytorium po repozytoriumCentralna konfiguracja na poziomie organizacji
Duplikacja na każdym repozytoriumJeden sekret organizacyjny dostępny dla wszystkich wybranych repozytoriów
Rozproszona administracjaDedykowana sekcja „Agents” w ustawieniach repozytorium i organizacji

Ułatwia to wdrażanie na dużą skalę współdzielonych konfiguracji: prywatnych rejestrów pakietów, wspólnych serwerów MCP, współdzielonych tokenów API. Nadal dostępna jest szczegółowa kontrola: dla każdego sekretu lub zmiennej administrator wybiera, które repozytoria mają do niej dostęp.

🔗 GitHub Changelog — Sekrety i zmienne Copilot cloud agent


Narzędzia dla deweloperów — aktualizacje

GitHub Mobile — tworzenie repozytoriów z poziomu aplikacji

11 maja — GitHub Mobile umożliwia teraz tworzenie repozytoriów bezpośrednio z iOS i Androida. Na iOS przycisk + jest dostępny z ekranu głównego lub profilu. Na Androidzie — z ekranu głównego lub sekcji Repositories w profilu. Użytkownik może ustawić nazwę, widoczność (publiczne/prywatne), opis, wybrać template oraz zainicjować projekt z README, .gitignore lub licencją.

🔗 GitHub Changelog — Tworzenie repozytoriów na mobile

Manus Website Builder — funkcja „Zrób kopię”

11 maja — Manus Website Builder wprowadza duplikowanie projektów WebDev w oddzielnej sesji. Co jest przenoszone podczas kopiowania: pełny kod źródłowy, schemat bazy danych, sekrety i wartości oraz podsumowanie historii rozmowy. Co nie jest przenoszone: dane bazy, ustawienia własnej domeny, połączenie GitHub i pełna historia czatu.

Skopiowany projekt startuje w stanie nieopublikowanym. Typowe przypadki użycia: bezpieczny redesign, ponowne wykorzystanie jako template, testy oddzielnych ścieżek płatności, warianty zależne od rynku.

🔗 Blog Manus — Make a copy WebDev

Codex + OpenAI Developers MCP Server

11 maja — Codex integruje OpenAI Developers MCP Server, umożliwiając przyspieszenie budowy aplikacji AI i agentów bezpośrednio przez API OpenAI. Do ogłoszenia dołączono demo wideo pokazujące przyspieszony workflow deweloperski.

🔗 Tweet @OpenAIDevs


NVIDIA OpenShell v0.0.37 — open source’owy framework do obliczeń

11 maja — NVIDIA publikuje OpenShell v0.0.37, open source’owy framework do rozproszonych obliczeń. Ta wersja wprowadza podłączane sterowniki compute dla Docker, Podman, Kubernetes i MicroVM — umożliwiając uruchamianie workloadów AI w różnych środowiskach wykonawczych (runtime) bez modyfikowania kodu aplikacji.

Inne nowości: uwierzytelnianie gateway OIDC + RBAC, chart Helm z namespace’ami użytkownika Kubernetes, pakiety Debian/RPM/Homebrew dla uproszczonej instalacji. Breaking change: gateway musi zostać utworzony ponownie przed aktualizacją do v0.0.37.

🔗 Tweet @NVIDIAAI


Grok 20+ nowych konektorów

11 maja — Grok rozszerza swoje możliwości integracji o 20+ nowych konektorów: dokumenty, kalendarz, e-mail, kod i inne źródła danych. Rozszerzenie to jest kontynuacją początkowych konektorów (e-maile, slajdy, kalendarz, Notion) ogłoszonych 8 maja. Deklarowanym celem jest automatyzacja większej liczby zadań bezpośrednio z interfejsu Grok, bez korzystania z narzędzi firm trzecich.

🔗 Tweet @grok


Claude’s Constitution — wersja audiobooka

11 maja — Claude’s Constitution, dokument definiujący wartości i zachowanie modelu, jest teraz dostępny w formacie audiobooka (audiobook). Nagrań dokonali dwaj główni autorzy: Amanda Askell i Joe Carlsmith, oboje badacze w Anthropic.

Audiobook zawiera pełny odczyt dokumentu, rozmowę (Q&A) o procesie jego tworzenia, filozofie, które nim kierowały, oraz refleksję nad możliwą ewolucją Constitution wraz ze wzrostem możliwości modeli. Constitution pozostaje dostępna w formie tekstowej na anthropic.com/constitution, na licencji Creative Commons CC0 1.0.

🔗 Tweet @AnthropicAI


Krótkie wiadomości

  • Gemini — digitalizacja papierowych notatek — Google publikuje tutorial o digitalizacji odręcznych notatek za pomocą Gemini, aby automatycznie generować przewodniki do nauki lub fiszki. Wystarczy sfotografować strony, przesłać je do Gemini i poprosić o uporządkowany przewodnik. 🔗 Blog Google

  • ElevenLabs × Mahindra — Mahindra (100+ krajów) wdrożyła agentów głosowych napędzanych przez ElevenLabs, aby skalować swój program prospectingu podczas premiery nowego SUV-a. 🔗 Tweet @ElevenLabs

  • OpenAI Campus Network — OpenAI otwiera formularz zainteresowania dla uniwersyteckich klubów studenckich w ramach Campus Network, aby rozszerzyć swoją obecność akademicką. 🔗 openai.com


Co to oznacza

Dwie przeciwstawne strategie enterprise. OpenAI DeployCo i Claude Platform on AWS reprezentują dwie wizje wdrażania AI w przedsiębiorstwach. OpenAI wysyła zespoły ludzi bezpośrednio do klientów, aby przeprojektowywać kluczowe workflow — model doradczy wzmacniany przez AI, kapitałochłonny i relacyjny. Anthropic stawia na infrastrukturę chmurową, dając deweloperom AWS natywny dostęp do całego API Claude z ich istniejącego środowiska. Jedno przyspiesza time-to-value dzięki zespołom terenowym, drugie — przez integrację z już używanymi narzędziami. Te dwa podejścia mogą współistnieć u tego samego klienta enterprise.

Agenci głosowi w czasie rzeczywistym wchodzą do produkcji. Grok Voice Think Fast 1.0 i GPT-Realtime-2 (uruchomiony 7 maja) pokazują, że główni gracze przekraczają granicę między pilotażem a produkcyjnym wdrożeniem w głosowej obsłudze klienta. ElevenLabs u Mahindry ilustruje to w praktyce: agenci głosowi AI wdrożeni przy prawdziwej premierze samochodu w 100+ krajach. Następna bitwa będzie rozgrywać się wokół odczuwalnej latencji, zdolności do przekazania sprawy człowiekowi i obsługi przypadków brzegowych.

Narzędzia dla agentów standaryzują się wokół MCP. W tym samym tygodniu Anthropic ogłasza natywny MCP connector w Claude Platform on AWS, a OpenAI integruje MCP Server w Codex, aby przyspieszyć rozwój aplikacji. GitHub Copilot cloud agent centralizuje sekrety na poziomie organizacji, ułatwiając konfigurację agentów na dużą skalę. MCP stopniowo staje się warstwą interoperacyjności agentów — trend ten potwierdzają te trzy równoczesne ogłoszenia.

AI osobista opiera się na istniejących danych. Gemini Personal Intelligence nie wymyśla nowego modelu: łączy to, co już istnieje (Gmail, Photos, Search, YouTube), aby personalizować sugestie podróży. To jasny kierunek strategiczny — najbardziej użyteczna AI nie jest tą, która wie najwięcej ogólnie, ale tą, która zna konkretnego użytkownika. Google I/O 2026 (19 maja) powinno tę tendencję jeszcze wzmocnić.


Źródła