Suchen

Mistral Medium 3.5 und Vibe Remote Agents, Google TPU der 8. Generation, Claude for Creative Work

Mistral Medium 3.5 und Vibe Remote Agents, Google TPU der 8. Generation, Claude for Creative Work

Diese Woche markiert eine Beschleunigung an drei gleichzeitigen Fronten: offene Modelle (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), Hardware-Infrastruktur (Google TPU der 8. Generation) und Agenten-Ökosysteme (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). ElevenLabs überschreitet zudem eine neue Schwelle, indem es seine KI-Musikengine in eine Plattform für die breite Öffentlichkeit mit Monetarisierung verwandelt.


Mistral Medium 3.5, Vibe Remote Agents und Le Chat Work Mode

29. April — Mistral AI veröffentlicht gleichzeitig drei wichtige Ankündigungen: das Modell Mistral Medium 3.5, die Remote Agents Vibe und den Work Mode in Le Chat.

Mistral Medium 3.5 in öffentlicher Vorschau

Medium 3.5 ist ein dichtes Modell mit 128 Milliarden Parametern, das Instruction Following, Reasoning und Code in einem einzigen Gewichtssatz vereint, mit einem Kontextfenster von 256.000 tokens. Es kann lokal auf nur vier GPU ausgeführt werden.

MerkmalWert
ArchitekturDense 128B
Kontext256.000 tokens
SWE-Bench Verified77,6 %
τ³-Telecom91,4
LizenzModifizierte MIT (open weights)
API — Eingabe-tokens$1,50 / Million
API — Ausgabe-tokens$7,50 / Million
Self-hosting (min. GPU)4 GPU

Das Modell übertrifft Devstral 2 und Qwen3.5-397B-A17B bei SWE-Bench Verified und positioniert sich damit zum Zeitpunkt des Starts als Referenz unter den open weights-Code-Modellen. Es ist über die Mistral API, Le Chat, Vibe, NVIDIA-Endpunkte (build.nvidia.com) und den NVIDIA NIM-Mikroservice verfügbar.

Remote Agents in Vibe

Vibe-Code-Sessions können jetzt in der Cloud ausgeführt werden, ohne lokal offen bleiben zu müssen. Mehrere Sessions laufen parallel, während der Entwickler etwas anderes macht. Eine lokale Session kann mit ihrem Verlauf und ihrem gesamten Zustand in die Cloud „teleportiert“ werden. Am Ende der Aufgabe öffnet der Agent automatisch einen Pull Request auf GitHub und benachrichtigt den Entwickler.

Vibe integriert sich nativ mit GitHub (Code + PR), Linear und Jira (Tickets), Sentry (Incidents), Slack und Teams (Benachrichtigungen). Jede Session läuft in einer isolierten Sitzung.

Work Mode in Le Chat (Vorschau)

Ein neuer agentischer Modus für komplexe Aufgaben in Le Chat: Multi-Source-Recherche, Dokumentensynthese, Sortieren des Posteingangs, Erstellen von Jira-Tickets, Versenden von Zusammenfassungen über Slack. Die Konnektoren sind im Work Mode standardmäßig aktiviert. Jede sichtbare Aktion erfordert eine ausdrückliche Genehmigung für sensible Vorgänge.

🔗 Mistral-Ankündigung auf X


Google TPU der 8. Generation — TPU 8t und TPU 8i

29. April — Google enthüllt seine achte Generation von TPU-Chips (Tensor Processing Unit), die in der Vorwoche auf der Google Cloud Next ‘26 angekündigt wurden. Zwei unterschiedliche Chips bilden diese Generation, jeweils für eine andere Phase des KI-Zyklus optimiert.

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇩🇪 Ein Jahrzehnt in der Entstehung, die Chips für das agentische Zeitalter sind da. Auf der Next-‘26-Veranstaltung von @GoogleCloud in der vergangenen Woche haben wir unsere TPU der achten Generation vorgestellt. TPU 8t: 3-mal leistungsfähiger als die vorherige Generation, 10-mal schnellere Datenbewegung, 97 % produktive Ressourcenauslastung, Trainingszeit von Monaten auf Wochen reduziert. TPU 8i: verdreifachter interner Speicher, 80 % bessere Leistung pro Dollar, 5-fache Latenzreduzierung.@GoogleAI auf X

TPU 8t — Training der Modelle

VerbesserungDetail
Rohleistung3× höher als die vorherige Generation
Datendurchsatz10× schneller (Speicher → Chips)
Produktive Auslastung97 % der Ressourcen (automatische Erkennung und Umleitung bei Ausfällen)
AuswirkungTrainingszeit von mehreren Monaten auf wenige Wochen reduziert

TPU 8i — Inferenz für KI-Agenten

VerbesserungDetail
Interner SpeicherVerdreifacht, um komplexes mehrstufiges Reasoning zu bewältigen
Kosteneffizienz+80 % Leistung pro ausgegebenem Dollar
LatenzDank neuer integrierter Engine um 5× reduziert

Diese Chips sind für das agentische Zeitalter konzipiert: Der TPU 8t beschleunigt die Erstellung von Modellen, der TPU 8i ermöglicht es diesen Modellen, in nahezu Echtzeit zu handeln (einen Flug zu buchen, einen Kalender zu verwalten). Google positioniert diese Doppelarchitektur als technologische Grundlage des kommenden Jahrzehnts.


Claude for Creative Work — Blender, Autodesk Fusion, Adobe und 5 weitere MCP-Konnektoren

28. April — Anthropic startet eine Reihe offizieller MCP-Konnektoren (Model Context Protocol) für Fachleute aus den Kreativbranchen, in Partnerschaft mit Blender, Autodesk, Adobe, Ableton und Splice.

ToolNutzung
BlenderDebugging von 3D-Szenen, Erstellen von Tools, Batch-Änderungen an allen Objekten
Autodesk FusionErstellung und Änderung von 3D-Modellen per natürlicher Sprache
Adobe Creative CloudUmsetzung von Bildern, Videos und Designs über 50+ CC-Tools
Ableton Live und PushErkunden der offiziellen Produktdokumentation
SpliceSuche nach lizenzfreien Samples direkt aus Claude
Canva AffinityAutomatisierung wiederkehrender Produktionsaufgaben
SketchUpAusgangspunkt für 3D-Modellierung per Textbeschreibung
Resolume / TouchdesignerEchtzeitsteuerung per natürlicher Sprache für VJs und visuelle Künstler

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇩🇪 Claude verbindet sich jetzt mit den Tools, die Kreativprofis bereits nutzen. Mit dem neuen Blender-Konnektor können Sie eine Szene debuggen, neue Tools erstellen oder Batch-Änderungen auf alle Objekte anwenden, direkt aus Claude heraus.@claudeai auf X

Anthropic ist außerdem dem Blender Development Fund als Patron-Spender beigetreten und unterstützt damit die Entwicklung freier Software. Der Haupttweet erzeugte in weniger als 24 Stunden mehr als 10 Millionen Aufrufe (der Tweet zu Autodesk Fusion erreichte 11 Millionen), was ihn zu einer der viralsten Ankündigungen von Anthropic seit mehreren Monaten macht.

Die hervorgehobenen Anwendungsfälle: Erlernen komplexer Software, Erweiterung von Tools durch Code (Scripts, plugins, generative Systeme über Claude Code), Brücke zwischen Tools in einer Pipeline, Automatisierung wiederkehrender Aufgaben (Batch-Verarbeitung, Scaffolding).

🔗 Anthropic-Artikel


NVIDIA Nemotron 3 Nano Omni — omnimodales Open-Source-Modell 30B

28. April — NVIDIA startet Nemotron 3 Nano Omni, ein omnimodales Open-Source-Modell, das Vision, Audio und Sprache in einer einzigen Architektur vereint.

ParameterWert
ArchitekturHybrides MoE 30B-A3B (30B insgesamt, 3B aktiv)
Kontext256K tokens
Modalitäten (Eingabe)Text, Bilder, Audio, Video, Dokumente, Diagramme, Interfaces
Modalitäten (Ausgabe)Text
Effizienz9× mehr Durchsatz als andere offene omnimodale Modelle
VerfügbarkeitHugging Face, OpenRouter, build.nvidia.com, 25+ Partnerplattformen

Das Modell überzeugt in drei Anwendungsfällen: computer use (Navigation grafischer Benutzeroberflächen in nativer Auflösung 1920×1080), Dokumentenintelligenz (Interpretation von PDF, Tabellen, Diagrammen, Screenshots) und die Beibehaltung des Audio-Video-Kontexts in einem einzigen Reasoning-Flow.

Organisationen wie Aible, H Company, Palantir, Foxconn und Oracle evaluieren das Modell bereits zum Start. H Company integriert es in seinen computer use-Agenten.

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇩🇪 Um nützliche Agenten zu bauen, kann man nicht mehrere Sekunden warten, bis ein Modell einen Bildschirm interpretiert. Auf Basis von Nemotron 3 Nano Omni können unsere Agenten Full-HD-Bildschirmaufzeichnungen schnell interpretieren — etwas, das zuvor nicht praktikabel war. — Gautier Cloix, CEO von H Company

Die Nemotron-Familie erreicht zudem innerhalb eines Jahres 50 Millionen kumulierte Downloads über alle Varianten Nano/Super/Ultra hinweg.

🔗 NVIDIA-Blog


ElevenMusic — KI-Musikplattform (Entdeckung, Remix, Erstellung, Monetarisierung)

29. April — ElevenLabs startet ElevenMusic, eine KI-Musikplattform, die Hören, Remix und originäre Erstellung in einem einzigen System verbindet, mit direkter Monetarisierung für Künstler.

FunktionalitätBeschreibung
Entdeckung4.000+ unabhängige Künstler, kuratierter Katalog
RemixGenre ändern, Tempo anpassen, einen Track neu interpretieren
ErstellungAusgehend von Songtext, Melodie oder Stimmung
VeröffentlichungVerbreitung + Monetarisierung über Fan-Engagement

Das Geschäftsmodell ist von der Voice Library von ElevenLabs inspiriert, die bereits $11 Millionen an ihre Creator ausgeschüttet hat. Künstler veröffentlichen und verdienen je nach Hörer-Engagement, ohne zwischengeschaltetes Label.

ElevenMusic startet mit Eleven Album Vol. 2, einer Compilation mit Danger Twins und Justin Love, die dafür konzipiert ist, innerhalb der Plattform erlebt und remixt zu werden. Kevin Jonas Sr. (Jonas Group Entertainment) und Amy Stroup (Danger Twins) gehören zu den Künstlerpartnern zum Start.

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇩🇪 Fans wollen sich als Teil der Musik, der Songwriter und der Künstler fühlen. ElevenMusic eröffnet ihnen einen Zugang und verwandelt einen Song in etwas, in das man eintreten kann, nicht nur etwas, das man anhört. — Kevin Jonas Sr., Gründer und Präsident von Jonas Group Entertainment

Die Plattform ist ab dem 29. April 2026 als mobile App und im Web verfügbar.

🔗 Ankündigung von @ElevenLabs auf X — 🔗 ElevenLabs-Blog


GitHub Copilot code review — doppelte Abrechnung ab dem 1. Juni 2026

27. April — GitHub kündigt an, dass ab dem 1. Juni 2026 jede automatisierte Code-Review durch GitHub Copilot zusätzlich zu den bereits im neuen nutzungsbasierten Modell vorgesehenen KI-Credits auch GitHub-Actions-Minuten verbrauchen wird.

Bislang verbrauchten Copilot-Code-Reviews nur Premium Request Units (premium request units, PRU). Ab dem 1. Juni werden für private Repositories zwei Zähler gleichzeitig aktiviert:

ZählerDetail
IA CreditsJede Copilot-Nutzung (einschließlich code review) wird gemäß dem nutzungsbasierten Modell in KI-Credits abgerechnet
Minutes GitHub ActionsWerden bei jeder Review auf einem privaten Repository aus dem Kontingent des Plans verbraucht; zusätzliche Minuten werden zu den Standardtarifen von Actions berechnet

Diese doppelte Zählung erklärt sich durch die agentische Architektur von Copilot code review: Das Tool stützt sich auf GitHub-hosted Runner, um den erweiterten Kontext des Repositories zu analysieren und relevanteres Feedback zu erzeugen.

Betroffene Pläne: Copilot Pro, Pro+, Business, Enterprise — einschließlich Reviews, die von nicht lizenzierten Nutzern initiiert werden, mit direkter Abrechnung an die Organisation.

Öffentliche Repositories: keine Änderung, Actions-Minuten bleiben kostenlos.

Zur Vorbereitung vor dem 1. Juni:

  • Den aktuellen Actions-Verbrauch in den Abrechnungseinstellungen prüfen
  • Falls nötig die Actions-Ausgabenobergrenzen (spending limits) anpassen
  • Die für die Abrechnung zuständigen Personen der Organisation informieren

🔗 GitHub-Changelog


OpenAI DevDay 2026 — San Francisco, 29. September

29. April — OpenAI kündigt die Rückkehr seines jährlichen Entwickler-Events an: OpenAI DevDay 2026 findet am 29. September in San Francisco statt. Die offiziellen Anmeldungen sind noch nicht geöffnet.

Um die Vorfreude zu steigern, startet OpenAI einen Wettbewerb: Entwickler, die etwas mit GPT-5.5 und Bildgenerierung bauen, können versuchen, eine vorzeitige Einladung zu gewinnen. Das Vorgehen: einen Link zum Projekt einreichen, zusammen mit einer Notiz, die erklärt, wie es gebaut wurde, mit dem offiziellen Hashtag #OpenAIDevDay2026.

DetailWert
Datum29. September 2026
OrtSan Francisco
Offizieller Hashtag#OpenAIDevDay2026
Tweet-Aufrufe (erste Stunden)239.000+

Die Ankündigung wird fünf Monate im Voraus veröffentlicht, was für einen DevDay ungewöhnlich früh ist. Frühere Ausgaben dienten als Rahmen für die prägendsten Produktstarts von OpenAI für die Entwickler-Community: 2023 wurden dort GPT-4 Turbo und die Assistants API vorgestellt. Mit dem derzeit beschleunigten Veröffentlichungstempo — GPT-5.5, Bildgenerierung, Codex CLI — zeichnet sich DevDay 2026 als wichtiger Termin im Kalender für technische Teams ab, die OpenAI-Modelle in Produktion integrieren.

Ein separater Thread lädt Entwickler ein, ihre Kreationen schon jetzt zu teilen. Der Account @OpenAIDevs verbreitete die Ankündigung innerhalb von Minuten nach der Hauptveröffentlichung weiter.

🔗 OpenAI-Ankündigung auf X


Agenten-Ökosystem und neue Integrationen

Claude Code CLI v2.1.120–2.1.123 — 50+ Fehlerbehebungen

28. April — Das Claude Code-Team erläutert die Fehlerbehebungen in den vier neuesten Versionen des CLI (v2.1.120 bis v2.1.123): mehr als 50 Stabilitäts- und Performance-Verbesserungen.

MetrikWert
Betroffene Versionenv2.1.120, v2.1.121, v2.1.122, v2.1.123
Anzahl der Fehlerbehebungen50+
Performance-Gewinn /resumeBis zu 67 % schneller
Thread-Aufrufe @ClaudeDevs493 k

Die fünf Schwerpunkte: beschleunigte lange Sitzungen (/resume bis zu 67 % schneller), stabilisierte macOS-Authentifizierung (ein Dutzend Keychain-Fehlerbehebungen), geringerer Speicherverbrauch unter Linux, WebFetch ohne Einfrieren auf umfangreichen Seiten, Copy-Paste mit beibehaltenen Zeilenumbrüchen aus Windows und Xcode.

🔗 Thread @ClaudeDevs

OpenAI × AWS — Codex und Managed Agents auf Amazon Bedrock

28. April — OpenAI und AWS erweitern ihre strategische Partnerschaft entlang von drei Achsen: Zugriff auf OpenAI-Modelle in AWS-Umgebungen, Codex auf Bedrock (begrenzte Vorschau, für Organisationen, die ihre Daten in der Amazon-Infrastruktur halten möchten) und von OpenAI betriebene Bedrock Managed Agents (sofort verfügbar). Codex zählt mehr als 4 Millionen wöchentliche Nutzer.

🔗 OpenAI-Ankündigung

Copilot cloud agent startet 20 % schneller

27. April — GitHub Copilot cloud agent startet dank vorkonfigurierter Runner-Umgebungen über benutzerdefinierte GitHub Actions-Images jetzt mehr als 20 % schneller. Diese Verbesserung kommt zusätzlich zu der bereits im März 2026 ausgelieferten Reduktion um 50 %.

🔗 GitHub-Changelog

Gemini — Generierung herunterladbarer Dateien

29. April — Gemini kann jetzt direkt im Chat herunterladbare Dateien erstellen: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF und Markdown. Sofort verfügbar für alle Web- und Mobile-Nutzer.

🔗 Google-Blog

Mistral Workflows in öffentlicher Vorschau

27. April — Mistral AI startet Workflows in öffentlicher Vorschau, eine Enterprise-Orchestrierungsschicht, die auf der durable execution engine von Temporal aufbaut (dieselbe Infrastruktur wie bei Netflix, Stripe, Salesforce). Die Flows werden in Python über das Mistral SDK v3.0 verfasst und dann von Fachteams aus Le Chat ausgelöst. Die Organisationen ASML, France Travail und La Banque Postale nutzen es bereits.

🔗 Mistral-Ankündigung

Qwen FlashQLA — lineare Attention-Kernels

29. April — Qwen veröffentlicht FlashQLA, eine Bibliothek hochperformanter linearer Attention-kernels, aufgebaut auf TileLang und konzipiert für agentische KI auf persönlichen Geräten: 2–3× Gewinne im forward-Pass und 2× im backward-Pass. Als Open Source auf GitHub veröffentlicht.

🔗 GitHub QwenLM/FlashQLA

GPT Image 2 in Manus Slides integriert

29. April — Manus integriert GPT Image 2 in Manus Slides: Point-and-Click-Bearbeitung von Visuals, Ersetzung per Prompt, Generierung von Präsentationsnotizen, Export nach Google Slides, PowerPoint, PDF, Google Drive und OneDrive.

🔗 Manus-Ankündigung

Salesforce mit Genspark verbunden

29. April — Genspark integriert Salesforce in sein Agenten-Ökosystem: Verbindung über Genspark Claw (CLI-Installation per Anweisung) oder Super Agent (direkte Verbindung). Anwendungsfälle: automatische Bearbeitung von Kundenanfragen, quartalsweise Dashboards, automatisiertes Management der Vertriebspipeline.

🔗 Genspark-Ankündigung

GPT-5.5 und ChatGPT Images 2.0 auf Genspark

28. April — Genspark integriert GPT-5.5 in seinen KI-Chat und ChatGPT Images 2.0 (GPT Image 2) in seinen Bildgenerator, zugänglich unter genspark.ai/agents bzw. genspark.ai/ai_image.

🔗 Genspark-Ankündigung

Pika Agents — kreative Gesprächsoberfläche

28. April — Pika startet die Pika Agents: eine Oberfläche zur Videoerstellung, die die Prompt-Box durch einen personalisierten KI-Agenten ersetzt (Stimme, Gesicht, Persönlichkeit vom Nutzer konfiguriert). Der Agent versteht kreative Absichten in natürlicher Sprache und stellt in einem einzigen Gespräch zusammen, verfeinert und produziert.

🔗 Pika-Ankündigung

Codex seats für $0 für ChatGPT Business bis Ende Juni

29. April — OpenAI erlaubt berechtigten ChatGPT-Business-Abonnenten, bis Ende Juni 2026 Codex-Sitze ohne Sitzkosten hinzuzufügen, begleitend zur Ausweitung von Codex auf AWS.

🔗 Ankündigung @OpenAIDevs

60 Jahre altes Erdős-Problem mit GPT-5.5 gelöst

28. April — OpenAI veröffentlicht eine Podcast-Episode, in der Sébastien Bubeck und Ernest Ryu auf die Lösung eines seit 60 Jahren offenen mathematischen Problems zurückblicken, das Paul Erdős zugeschrieben wird, mit Unterstützung von GPT-5.5. Der Tweet überschreitet 399.000 Aufrufe.

🔗 OpenAI-Tweet


Kurzmeldungen

  • DeepSeek-V4-Pro: -75-%-Aktion verlängert — Der Rabatt von 75 % auf die DeepSeek-V4-Pro-API wird bis zum 31. Mai 2026 verlängert. Promotion-Tarife: $0,003625/M tokens Eingabe (Cache-Hit), $0,435 (Cache-Miss), $0,87 Ausgabe. 🔗 DeepSeek-Tweet

  • Google DeepMind — Experience AI in Lateinamerika — Das Bildungsprogramm Experience AI (Raspberry Pi Foundation) wird auf Lateinamerika ausgeweitet mit dem Ziel, bis 2028 24.000 Lehrkräfte zu schulen und 1,25 Millionen Schüler zu erreichen, finanziert mit $4,6 Millionen von Google.org. 🔗 Google DeepMind-Tweet

  • GPT-5.3-Codex aus dem Copilot-Student-Auswahlmenü entfernt — Ab dem 27. April 2026 ist GPT-5.3-Codex im Copilot-Student-Plan nicht mehr manuell auswählbar; über die automatische Auswahl bleibt es zugänglich. 🔗 GitHub-Changelog

  • Responses API — blockierte Domains für die Websuche — Die Responses API von OpenAI erlaubt jetzt das Blockieren bestimmter Domains bei weiterhin aktivierter Websuche, um gezielte Quellen aus den Ergebnissen auszuschließen. 🔗 Tweet @charlierguo

  • OpenAI — Engagement für Community-Sicherheit — OpenAI veröffentlicht einen Artikel, der seine Sicherheitspraktiken in ChatGPT erläutert: Risikominderung im Modell, automatisierte Überwachung, Vermittlung an Hilfsressourcen und Meldung an Behörden in schweren Fällen. Transparenzveröffentlichung ohne neue Funktion. 🔗 OpenAI-Ankündigung


Was das bedeutet

Das Rennen um offene Modelle verschärft sich. Mistral Medium 3.5 (128B, SWE-Bench 77,6 %) und NVIDIA Nemotron 3 Nano Omni (30B, 9× effizienter als andere offene omnimodale Modelle) erscheinen gleichzeitig mit permissiven Lizenzen. Beide Modelle positionieren sich als glaubwürdige Alternativen zu geschlossenen Spitzenmodellen: Mistral bei Code und Reasoning, Nemotron bei agentischer Multimodalität. Dieser Druck hält den Abstand zwischen proprietären Modellen und open weights immer kleiner.

Die Hardware-Infrastruktur bleibt der strategische Engpass. Googles TPUs der 8. Generation (3× beim Training, 5× weniger Latenz bei der Inferenz) zeigen, dass das KI-Rennen auch auf der Siliziumebene entschieden wird. Die Ankündigung von Google Cloud Next ‘26 positioniert die Google-Infrastruktur als nachhaltigen Wettbewerbsvorteil gegenüber NVIDIA-GPUs — auch wenn beide in realen Deployments koexistieren.

Das agentische Ökosystem fragmentiert sich in vertikale Spezialisierungen. Diese Woche setzen sich KI-Agenten in kreativen Tools fest (Claude for Creative Work mit 8+ MCP-Konnektoren), in der Softwareentwicklung (Vibe Remote Agents, Copilot cloud agent 20 % schneller), in der Musik (ElevenMusic), im Video (Pika Agents), in CRMs (Salesforce in Genspark) und in Enterprise-Workflows (Mistral Workflows). Die Frage ist nicht mehr „Kann KI das tun?“, sondern „In welchem spezialisierten Tool und nach welchem Abrechnungsmodell?“.

Nutzungsbasierte Abrechnung verändert die Geschäftsmodelle von Entwicklern. Der Übergang von GitHub Copilot code review zu einer doppelten Zählung (KI-Credits + Actions-Minuten) ab dem 1. Juni, kombiniert mit dem Angebot Codex seats für $0 für ChatGPT Business, veranschaulicht eine Dynamik: Anbieter subventionieren die Einführung (vorübergehende Kostenlosigkeit, -75-%-DeepSeek-Aktion), um Gewohnheiten zu schaffen, bevor sie die nutzungsbasierte Abrechnung normalisieren. Technische Teams sind gut beraten, ihre KI-Ausgabenposten vor Juni zu prüfen.


Quellen

Dieses Dokument wurde von der fr-Version in die de-Sprache unter Verwendung des Modells gpt-5.4 übersetzt. Für weitere Informationen über den Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator