Szukaj

Zmieniona umowa Microsoft × OpenAI, GitHub przechodzi na rozliczanie usage-based, DeepMind w Korei

Zmieniona umowa Microsoft × OpenAI, GitHub przechodzi na rozliczanie usage-based, DeepMind w Korei

27 kwietnia 2026 r. to dzień pełen istotnych ogłoszeń: OpenAI i Microsoft rewizują swoją umowę partnerską, dając OpenAI większą elastyczność multi-cloud przy jednoczesnym utrzymaniu Azure jako głównej chmury, GitHub ogłasza koniec “premium request units” na rzecz nowego systemu kredytów rozliczanych za użycie, a Google DeepMind formalizuje ważne partnerstwo naukowe z Republiką Korei. Symphony, otwartoźródłowa specyfikacja OpenAI do orkiestracji Codex, dopełnia dzień, który przerysowuje kontury infrastruktury AI.


OpenAI × Microsoft — zmieniona umowa do 2032 roku

27 kwietnia — OpenAI i Microsoft ogłaszają zmienioną umowę, która upraszcza i reorganizuje ich długoterminowe partnerstwo. Dotychczas struktura kontraktowa silnie wiązała OpenAI z Azure poprzez wyłączną licencję i mechanizm podziału przychodów (revenue share) w obie strony. Nowa umowa zmienia reguły gry.

AspectPrzedPo (zmieniona umowa)
Główna chmuraWyłącznie AzureAzure pozostaje priorytetem, ale OpenAI może obsługiwać także inne chmury
Licencja MicrosoftWyłącznaNiewyłączna do 2032 roku
Revenue share Microsoft → OpenAITakUsunięty
Revenue share OpenAI → MicrosoftTakUtrzymany do 2030 roku, ten sam procent, ale z limitem
Udział MicrosoftBez zmian (główny udziałowiec)

Centralną zmianą jest swoboda multi-cloud: OpenAI może teraz podpisywać umowy z innymi dostawcami infrastruktury, nie naruszając zobowiązań wobec Microsoftu. Dla Microsoftu usunięcie incoming revenue share (MS → OAI) upraszcza księgowość, a licencja niewyłączna pozwala mu rozwijać własne konkurencyjne modele bez ograniczeń.

“The greater predictability in the amended agreement strengthens our joint ability to build and operate AI platforms at scale while providing both companies the flexibility to pursue new opportunities.”

🇵🇱 Zwiększona przewidywalność zmienionej umowy wzmacnia naszą wspólną zdolność do budowania i obsługiwania platform AI na dużą skalę, jednocześnie dając obu firmom elastyczność w wykorzystywaniu nowych możliwości.OpenAI


GitHub Copilot — rozliczanie za użycie przez GitHub AI Credits od 1 czerwca

27 kwietnia — GitHub ogłasza, że wszystkie plany Copilot przejdą na model rozliczania za użycie (usage-based billing) od 1 czerwca 2026 roku. Pojęcie “premium request units” (PRUs) znika na rzecz GitHub AI Credits, zużywanych w zależności od rzeczywistego użycia tokenów (wejście, wyjście, cache) według stawek dla poszczególnych modeli.

Starting June 1st, GitHub Copilot will move to a usage-based billing model as GitHub Copilot supports more agentic and advanced workflows.

🇵🇱 Od 1 czerwca GitHub Copilot przejdzie na model rozliczania za użycie, wraz z tym jak Copilot obsługuje coraz więcej agentowych i zaawansowanych workflow.@github na X

Ceny planów pozostają bez zmian — nowością jest to, że zawarte kredyty odpowiadają teraz miesięcznej cenie planu:

PlanCena miesięcznaDołączone AI CreditsBonus przejściowy
Copilot Pro$10/miesiąc$10 w kredytach
Copilot Pro+$39/miesiąc$39 w kredytach
Copilot Business$19/użytkownik/miesiąc$19 w kredytachDodatkowe $30/miesiąc (okres przejściowy)
Copilot Enterprise$39/użytkownik/miesiąc$39 w kredytachDodatkowe $70/miesiąc (okres przejściowy)

Najważniejsze punkty dla zespołów:

  • Uzupełnianie kodu i sugestie Next Edit pozostają wliczone bez zużywania kredytów
  • Mechanizm fallback do tańszych modeli (gdy PRUs się kończyły) znika — gdy kredyty się wyczerpią, użycie zatrzymuje się natychmiast
  • Copilot code review będzie zużywać GitHub Actions minutes oprócz AI Credits
  • Kredyty są poolowane na poziomie organizacji — koniec tracenia kredytów przez niewykorzystane miejsca
  • W maju dostępny będzie preview bill, aby oszacować rzeczywiste koszty przed przejściem
  • Administratorzy otrzymają nowe kontrolki budżetowe (enterprise, cost center, zespół, użytkownik)

🔗 Ogłoszenie blog.github.com


OpenAI Symphony — otwarta specyfikacja do orkiestracji Codex

27 kwietnia — Zespół inżynierski OpenAI publikuje Symphony, otwartoźródłową specyfikację do orkiestracji wielu sesji Codex równolegle. Projekt narodził się z radykalnego ograniczenia wewnętrznego: zbudować cały repozytorium bez jednej linii ludzkiego kodu, przy czym każdy wkład miał być generowany przez Codex.

Symphony rozwiązuje wąskie gardło, które szybko pojawiło się w tym ćwiczeniu: zmiana kontekstu (context switching) między niezależnymi sesjami Codex zajmowała zbyt dużo czasu nadzoru człowieka. Rozwiązanie automatycznie orkiestruje wielu agentów do zadań równoległych, uruchamia ich nieprzerwanie na devboxes, i pozwala zgłaszać tickety z dowolnego urządzenia — telefonu, słabego łącza — aby agenci mogli je obsługiwać bez interwencji.

MetrykaWartość
Wzrost liczby dostarczonych PR-ów+500 % w 3 tygodnie (niektóre zespoły OpenAI)
Adopcja zewnętrznaLinear zgłosił wzrost tworzenia workspace’ów podczas premiery

Kluczowy wniosek zespołu: gdy inżynierowie nie muszą już aktywnie nadzorować sesji Codex, postrzegany koszt każdej zmiany kodu gwałtownie spada. Zespoły częściej eksplorują, prototypują swobodniej i łatwiej porzucają ścieżki bez wartości dodanej.

🔗 Ogłoszenie OpenAI Engineering


Google DeepMind × Republika Korei — narodowe partnerstwo naukowe

27 kwietnia — Google DeepMind ogłasza partnerstwo z koreańskim Ministerstwem Nauki i ICT (MSIT) z okazji 10. rocznicy historycznego meczu AlphaGo w Seulu. Porozumienie obejmuje kilka konkretnych obszarów:

ObszarSzczegóły
AI CampusUtworzenie kampusu AI w Seulu wspierającego koreańskie badania akademickie
Wdrożone narzędziaAlphaEvolve, AlphaGenome, AlphaFold, AI co-scientist, WeatherNext
Istniejąca adopcjaAlphaFold używany już przez 85 000 koreańskich badaczy
Stypendia50 000 stypendiów AI Essentials na rozwój talentów
Bezpieczeństwo AIWspółpraca z Koreańskim Instytutem Bezpieczeństwa AI (AISI)
NAISKrajowe centrum AI dla nauki planowane na maj 2026

“Ten years ago, the historic AlphaGo match in Seoul captured the world’s imagination and showcased the profound potential of artificial intelligence. Together with the Korean government, we’re now looking at how this technology can help accelerate scientific discovery and create new opportunities for economic growth across the region.”

🇵🇱 Dziesięć lat temu historyczny mecz AlphaGo w Seulu porwał wyobraźnię całego świata i uwypuklił głęboki potencjał sztucznej inteligencji. Wspólnie z koreańskim rządem przyglądamy się teraz temu, jak ta technologia może pomóc przyspieszyć odkrycia naukowe i stworzyć nowe możliwości wzrostu gospodarczego w regionie.Google DeepMind

🔗 Tweet @GoogleDeepMind


OpenAI “Our Principles” — pięć zasad na erę AGI

26 kwietnia — Sam Altman publikuje “Our Principles”, dokument, który artykułuje wizję OpenAI dotyczącą roli AI w społeczeństwie. Teza centralna: AI może przekształcić społeczeństwo w skali większej niż maszyna parowa czy elektryczność, a fundamentalne pytanie brzmi, czy władza wynikająca z AGI będzie skoncentrowana w kilku firmach, czy szeroko rozproszona.

Zasada (EN)Tłumaczenie FR
DemocratizationDemokratyzacja
EmpowermentUmożliwienie działania (Empowerment)
Universal ProsperityPowszechny dobrobyt
ResilienceOdporność
AdaptabilityAdaptacyjność

🔗 Nasze zasady — OpenAI


Kimi K2.6 — lider tygodniowego rankingu OpenRouter

27 kwietnia — Kimi K2.6 zajmuje pierwsze miejsce w tygodniowym rankingu (weekly leaderboard) modeli językowych na OpenRouter, który agreguje zapytania tysięcy deweloperów, aby ustanowić miarę rzeczywistego użycia. Pozycja ta odzwierciedla istotną adopcję wśród deweloperów, zwłaszcza w obszarach agentowych i długiego okna kontekstu, gdzie K2.6 wyróżnił się dzięki 300 równoległym sub-agentom (ogłoszonym 23 kwietnia).

🔗 Tweet @Kimi_Moonshot


Krótkie wiadomości

  • Z.ai — przedłużenie okresu “triple usage” GLM-5.1 i GLM-5-Turbo — Z.ai przedłuża do 30 czerwca 2026 r. ofertę, która pozwala subskrybentom GLM Coding Plan korzystać z tego samego wolumenu zapytań co GLM-5-Plus po niższej cenie. 🔗 źródło
  • Genspark × Anthropic — pierwszy hackathon w Singapurze — ponad 40 projektów, $18 000 w kredytach API, partnerzy Temasek i Devfolio. Zespoły zbudowały narzędzia do automatyzacji rozmów handlowych, zastępowania wizytówek i wykorzystywania zbiorowej wiedzy zespołów. 🔗 źródło
  • Google i Kaggle — GenAI Intensive Vibe Coding Course (15–19 czerwca 2026) — Powrót bezpłatnego 5-dniowego kursu, tym razem z naciskiem na “vibe coding” (programowanie w języku naturalnym). Pierwsza edycja zgromadziła 1,5 miliona uczących się w listopadzie 2025 r. 🔗 źródło
  • Midjourney — ranking wysokiej rozdzielczości 2K dla v8.1/8.2 — Pierwsza sesja społecznościowego rankingu w pełnej rozdzielczości 2K, mająca dopracować natywną estetykę wysokiej rozdzielczości nadchodzących wersji v8.1 i v8.2. 🔗 źródło

Co to oznacza

Dzień 27 kwietnia pokazuje przebudowę sojuszy i modeli biznesowych w AI. Zmieniona umowa OpenAI × Microsoft sygnalizuje, że duże platformy AI chcą dziś uwolnić się od wyłącznych zależności cloudowych — ruch ten służy AWS, Google Cloud i Oracle tak samo jak OpenAI. Dla deweloperów najbardziej konkretna jest zmiana GitHub Copilot na AI Credits: koniec fallbacku modelowego oznacza, że długa sesja agentowa może wyczerpać miesięczny budżet, a zespoły będą musiały skalibrować użycie przed 1 czerwca. Symphony od OpenAI pcha w tym samym kierunku: równoległa orkiestracja agentów staje się pełnoprawną praktyką inżynierską, z mierzalnymi wynikami (+500 % dostarczonych PR-ów), które uzasadniają inwestycje w infrastrukturę wokół Codex. Geopolitycznie partnerstwo DeepMind × Korea potwierdza trend dużych laboratoriów do zawierania krajowych umów, aby zakotwiczyć swoją obecność akademicką i polityczną w kluczowych regionalnych ekosystemach.


Źródła

Ten dokument został przetłumaczony z wersji fr na język pl przy użyciu modelu gpt-5.4-mini. Aby uzyskać więcej informacji o procesie tłumaczenia, odwiedź https://gitlab.com/jls42/ai-powered-markdown-translator