Suchen

GPT-5.5 Instant neues Standardmodell von ChatGPT, Grok 4.3 auf der xAI-API, Anthropic x Blackstone Enterprise

GPT-5.5 Instant neues Standardmodell von ChatGPT, Grok 4.3 auf der xAI-API, Anthropic x Blackstone Enterprise

ai-powered-markdown-translator

Mit gpt-5.4-mini vom Französischen ins Deutsche übersetzter Artikel.

Das Projekt auf GitHub ansehen ↗

Eine ereignisreiche Woche: OpenAI ersetzt GPT-5.3 Instant direkt durch GPT-5.5 Instant für alle ChatGPT-Nutzer, xAI startet Grok 4.3 auf seiner API mit einem Kontext von einer Million Tokens, und Anthropic kündigt ein neues Enterprise-IA-Services-Unternehmen an, das gemeinsam mit Blackstone, Hellman & Friedman und Goldman Sachs gegründet wurde. Auf der Tooling-Seite verdreifacht GitHub die Sicherheits-GA/Previews über seinen MCP-Server, Perplexity startet ein Produkt für Finanzteams, und Runway präsentiert Echtzeit-Videoagenten, die aus einem einzigen Bild erzeugt werden.


GPT-5.5 Instant — neues Standardmodell von ChatGPT

5. Mai — OpenAI ersetzt GPT-5.3 Instant durch GPT-5.5 Instant als Standardmodell von ChatGPT für alle Nutzer. Die Bereitstellung erstreckt sich über zwei Tage.

DimensionVerbesserung vs. GPT-5.3 Instant
Halluzinationen (Medizin, Recht, Finanzen)-52,5 %
Ungenaue Behauptungen (von Nutzern gemeldet)-37,3 %
Umfang der Antworten-30,2 % Wörter im Durchschnitt

Das Modell verbessert außerdem die Bildanalyse, STEM-Antworten und die Entscheidung, ob die Websuche verwendet wird. Die Antworten sind knapper ohne inhaltlichen Verlust, mit weniger überflüssigem Formatieren und weniger unnötigen Rückfragen.

Speicherquellen — OpenAI führt „memory sources“ für alle ChatGPT-Modelle ein: Wenn eine Antwort auf gespeicherten Erinnerungen, vergangenen Gesprächen oder verbundenem Gmail basiert, sieht der Nutzer genau, welche Quellen verwendet wurden, und kann sie korrigieren oder löschen. Die Personalisierung aus vergangenen Gesprächen und Dateien ist zunächst nur für Plus- und Pro-Abonnenten (Web) reserviert; andere Tarife folgen.

Verfügbarkeit:

  • Stufenweise Bereitstellung über 2 Tage für alle ChatGPT-Nutzer
  • Verfügbar per API unter dem Alias chat-latest
  • GPT-5.3 Instant bleibt für zahlende Abonnenten 3 Monate lang zugänglich

🔗 Offizielle GPT-5.5 Instant-Ankündigung


Grok 4.3 auf der xAI-API veröffentlicht — Kontext 1 Mio. Tokens, #1 agentic tool calling

5. Mai — xAI kündigt via X die Veröffentlichung von Grok 4.3 auf der xAI-API (console.x.ai) an. Das Modell wird als das bisher schnellste und intelligenteste der Reihe präsentiert.

MerkmalWert
Kontextfenster1 Million Tokens
Benchmark für agentic tool calling#1 (@ArtificialAnlys leaderboard)
Benchmark instruction following#1 (@ArtificialAnlys leaderboard)
Enterprise-Bereiche#1 case law und corporate finance (@ValsAI)
VerfügbarkeitxAI-API (console.x.ai) — noch nicht auf grok.com

Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.

🇩🇪 Grok 4.3 ist jetzt auf der xAI-API verfügbar. Es ist unser bisher schnellstes und intelligentestes Modell. Es führt die @ArtificialAnlys-Ranglisten bei agentic tool calling und instruction following an und belegt auf @ValsAI Platz 1 in Enterprise-Bereichen wie Wirtschaftsrecht und Unternehmensfinanzen. Grok 4.3 unterstützt einen Kontext von einer Million Tokens.@xai auf X

Der Tweet erzielte 25,7 Millionen Aufrufe und 6.029 Likes. Zu beachten: Zum Zeitpunkt der Ankündigung gab es keine eigene Seite auf x.ai/news — der Start erfolgte ausschließlich über X.


Anthropic und Blackstone, Hellman & Friedman, Goldman Sachs — neues Enterprise-IA-Services-Unternehmen

4. Mai — Anthropic, Blackstone, Hellman & Friedman und Goldman Sachs kündigen die Gründung eines neuen Enterprise-IA-Services-Unternehmens an, unterstützt von einem Konsortium zusätzlicher alternativer Akteure.

Das Ziel: Claude in den Kernprozessen großer Unternehmen für Aufgaben einzusetzen, die intensive Engineering-Arbeit und tiefes Branchenwissen erfordern. Laut Anthropic übersteigt die Enterprise-Nachfrage nach Claude das, was ein einzelnes Vertriebsmodell aufnehmen kann.

Das typische Betriebsmodell beginnt mit einem kleinen Team, das eng mit dem Kunden zusammenarbeitet, um Reibungspunkte zu identifizieren, und dann Claude-Agenten baut, die auf das jeweilige Geschäft zugeschnitten sind. Das konkrete Beispiel: ein Netzwerk aus medizinischen Praxen an mehreren Standorten, in dem Claude die klinische Dokumentation, wiederkehrende administrative Aufgaben und die Koordination zwischen Fachbereichen übernimmt, sodass sich Kliniker auf die Patientenversorgung konzentrieren können.

Das neue Unternehmen wird dem Claude Partner Network beitreten, zusammen mit Accenture, Deloitte und PwC. Es stellt einen strukturellen Schritt in der Enterprise-Vertriebsstrategie von Anthropic dar: Statt nur API-Lizenzen zu verkaufen, engagiert sich das Unternehmen nun in komplexen operativen Rollouts mit erstklassigen Finanzpartnern.

🔗 Offizielle Ankündigung


Claude-Agenten für Finanzdienstleistungen und Versicherungen

5. Mai — Anthropic startet zehn einsatzbereite (ready-to-run) Agenten-Templates für Finanzdienstleistungen und Versicherungen. Verfügbar als Plugins in Claude Cowork oder Claude Code oder als eigenständige Claude Managed Agents auf der Claude-Plattform.

Recherche und Kundenabdeckung:

AgentRolle
Pitch builderZiellisten, Vergleichswerte, Pitchbooks
Meeting preparerKunden- und Gegenparteien-Briefings
Earnings reviewerLesen von Transkripten und Modell-Updates
Model builderErstellung von Finanzmodellen aus Filings und Daten
Market researcherBranchenmonitoring und Zusammenfassung von Nachrichten

Finanzen und Betrieb:

AgentRolle
Valuation reviewerPrüfung von Bewertungen
General ledger reconcilerBuchhaltungsabstimmung und NAV-Berechnungen
Month-end closerMonatsabschluss und Buchungsjournale
Statement auditorPrüfung von Finanzabschlüssen
KYC screenerZusammenstellung von Entity-Dossiers und Compliance-Screening

Claude integriert sich nun über Add-ins in Microsoft Excel, PowerPoint, Word und Outlook (in Arbeit). Die Dispatch-Funktion von Claude Cowork ermöglicht es, Aufgaben per Text oder Sprache von überall aus zuzuweisen.

Neue Datenkonnektoren: Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk und ein Moody’s-MCP (Ratings und Daten zu mehr als 6.000 Entitäten).

Zu den genannten Kunden gehören: Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % der Mitarbeiter nutzen Claude Code), Hg, Morningstar, FactSet. Diese Agenten sind für Claude Opus 4.7 optimiert, das im Vals AI Finance Agent-Benchmark auf Platz 1 liegt.

🔗 Offizielle Ankündigung


Perplexity Computer for Professional Finance

5. Mai — Perplexity startet Computer für professionelle Finanzen, eine Version von Computer, die speziell für Analyse- und Investmentteams entwickelt wurde: Buy-side- und Sell-side-Analysten, Hedgefonds, Private Equity.

DimensionWert
Enthaltene Workflows35 (10 Segmente)
Integrierte Datenanbieter14 (darunter Quartr, Fiscal)
Premium-MCP-KonnektorenMorningstar, PitchBook, Daloopa, Carbon Arc
Verfügbare PlattformenMicrosoft Teams, Agent API
DemnächstExcel add-in
FinSearchComp T1-Benchmark1. Platz (Genauigkeit, Kosten, Latenz)

Teams mit lizenzierten Abonnements können ihre eigenen Zugangsdaten über MCP-Konnektoren verbinden, um auf Morningstar, PitchBook, Daloopa und Carbon Arc zuzugreifen. Andere nutzen die integrierten Finanz-Tools, die auf 14 Datenanbietern basieren.

Jeder Zahlenwert verweist auf seine Quelle: Bei Werten aus SEC-Dokumenten zeigt Computer die Berechnung und verweist auf die genauen Seiten des Dokuments. Im FinSearchComp T1-Benchmark (zeitkritische Datenextraktion) belegt Perplexity den ersten Platz bei Genauigkeit, Kosten pro korrekter Antwort und Latenz — einschließlich Echtzeitkursen, Krypto-Preisen und Wechselkursen.

🔗 Perplexity-Blog — Computer for Professional Finance


Runway Characters — Echtzeit-Videoagent aus nur einem Bild

4. Mai — Runway kündigt Characters an, eine Technologie, die es ermöglicht, ein einziges Bild in einen konversationellen Echtzeit-Videoagenten zu verwandeln.

MetrikWert
End-to-End-Latenz1,75 Sekunden
Videoqualität24 fps HD
Erforderliche Bildquelle1 einziges Bild
Kaltstarts60× schneller (GPU peer-to-peer)

Die 1,75 Sekunden werden ab dem Moment gemessen, in dem der Nutzer aufhört zu sprechen, bis zur ersten Antwort der Figur. Runway veröffentlichte gleichzeitig zwei Engineering-Artikel: Der erste beschreibt die Architektur des Echtzeit-Videoagenten, der zweite erklärt, wie die GPU-Peer-to-Peer-Infrastruktur die Kaltstartzeiten um den Faktor 60 reduziert.

Zu den angestrebten Anwendungsfällen zählen konversationelle Agenten, interaktive Figuren in Echtzeit und Videooberflächen für Anwendungen. Die Technologie markiert den Übergang von offline gerendertem Video zu synchroner Interaktion.

🔗 Ankündigungstweet Runway Characters


GitHub MCP Server — dreifacher Sicherheitsfortschritt

5. Mai — GitHub veröffentlicht gleichzeitig drei Sicherheitsupdates für seinen MCP-Server, alle am selben Tag durchgeführt.

Secret scanning GA

Das Secret Scanning über den GitHub MCP Server geht in die allgemeine Verfügbarkeit über (aus der Preview seit März 2026). In der GitHub Copilot CLI erfolgt die Installation mit /plugin install advanced-security@copilot-plugins; in VS Code stellt das Plugin advanced-security den Befehl /secret-scanning bereit.

AspektDetail
StatusGA (allgemeine Verfügbarkeit)
VerfügbarkeitRepositories mit aktiviertem GitHub Secret Protection
IntegrationenCopilot CLI, VS Code, jeder MCP-kompatible IDE

Die MCP-Tools berücksichtigen nun bestehende Anpassungen der Push Protection — das Bypass-Verhalten ist konsistent mit der Konfiguration des Repositories oder der Organisation.

🔗 Changelog — Secret scanning GA

Dependency scanning in öffentlicher Preview

Die Erkennung von Schwachstellen bei Abhängigkeiten über den MCP-Server geht in die öffentliche Preview über. Das System fragt die GitHub Advisory Database ab und gibt strukturierte Ergebnisse mit betroffenen Paketen, Schweregrad und empfohlenen korrigierten Versionen zurück.

AspektDetail
StatusÖffentliche Preview
VerfügbarkeitRepositories mit aktiviertem Dependabot alerts
CLI-Aktivierungcopilot --add-github-mcp-toolset dependabot

🔗 Changelog — Dependency scanning

GitHub Advanced Security × Microsoft Defender for Cloud GA

Die Integration GitHub Advanced Security × Microsoft Defender for Cloud wird ebenfalls GA. Sie korreliert in der Cloud-Umgebung bereitgestellte Container-Images mit dem GitHub-Quellcode und bringt Runtime-Kontext in die Sicherheitsansichten ein.

Neue Filter in der Organisationsansicht verfügbar: has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. Sicherheitskampagnen können direkt dem GitHub-Copilot-Coding-Agenten zugewiesen werden.

🔗 Changelog — Code-to-cloud GA


Model Spec Midtraining (MSM) — agentische Ausrichtung von 68 % auf 5 % reduziert

5. Mai — Forscher von Anthropic veröffentlichen „Model Spec Midtraining“ (MSM), eine Alignement-Methode, die zwischen Vortraining und Alignment-Fine-Tuning (alignment fine-tuning, AFT) eingefügt wird.

Das Prinzip: Modelle werden auf einem synthetischen Korpus von Dokumenten trainiert, die den Inhalt ihrer Model Spec diskutieren, bevor sie lernen, deren Regeln zu befolgen. Die Idee ist, dass das Verständnis dafür, warum eine Regel existiert, die Robustheit ihrer Anwendung verbessert.

ModellFehlanpassung (nur AFT)Mit MSM + AFT
Qwen2.5-32B68 %5 %
Qwen3-32B54 %7 %

MSM macht AFT auch datenmäßig deutlich effizienter: 40 bis 60 Mal weniger AFT-Daten sind nötig, um vergleichbare Leistungen zu erreichen. Die Autoren zeigen außerdem, dass das Erklären der Beweggründe hinter Regeln (statt immer mehr Unterregeln hinzuzufügen) die Generalisierung außerhalb der Verteilung verbessert.

🔗 MSM-Artikel — alignment.anthropic.com


NotebookLM Mind Maps — Personalisierung, Organisation, Navigation

5. Mai — NotebookLM verbessert seine Mind Maps mit drei gleichzeitig ausgerollten Funktionen.

FunktionBeschreibung
PersonalisierungDie Karte mit spezifischen Benutzeranweisungen steuern
OrganisationMind-Map-Karten sofort umbenennen und teilen
NavigationFlüssige Übergänge zwischen Knoten

Die Bereitstellung erfolgt schrittweise für alle Nutzer. Das Update ergänzt die Serie schneller Verbesserungen von NotebookLM seit Anfang April: automatische Organisation von Quellen (24. April, 100 % des Rollouts am 5. Mai erreicht), Integration in die Gemini-Mobile-App (30. April).

🔗 NotebookLM-Tweet


Genspark sb-git — Git-Server von Grund auf für KI-Agenten neu geschrieben

5. Mai — Genspark startet sb-git, einen von Grund auf neu geschriebenen Git-Server für KI-Agenten. Vollständige Git-Semantik: Versionierung, Branches, Diff, Blame, Rollback und Push.

AspektDetail
CLIgsk (init, clone-url, cat, commit)
KompatibilitätClaude Code, OpenClaw, jeder Git-Agent
Speicher1 GB (gratis), 10 GB (Plus/Pro)
Erforderliches KontoNein — kein GitHub-Konto erforderlich
VerfügbarkeitSofort (Web + Mobil)

Kein GitHub-Konto erforderlich, keine vorherige Repository-Konfiguration. Der Schwerpunkt liegt auf der Kompatibilität mit gängigen KI-Agenten (Claude Code, OpenClaw) ohne Installationsaufwand.

🔗 Genspark-sb-git-Tweet


NVIDIA + ServiceNow — Project Arc, autonomer Long-Running-Desktop-Agent

5. Mai — Auf der ServiceNow-Knowledge-2026-Konferenz kündigten Jensen Huang und Bill McDermott die Erweiterung ihrer Partnerschaft rund um autonome KI-Agenten in Unternehmen an.

ServiceNow startet Project Arc, einen autonomen Long-Running-Desktop-Agenten, der für Wissensarbeiter entwickelt wurde: Entwickler, IT-Teams, Administratoren. Der Agent nutzt NVIDIA OpenShell (Open-Source-Sandbox) für Governance und Sicherheit und verbindet sich nativ über ServiceNow Action Fabric mit der ServiceNow-Plattform.

MetrikWert
Effizienz Blackwell vs. Hopper50× Tokens/Watt
Reduktion der Kosten pro Million Tokens~35×
Nemotron 3 Super (Open Source)#1 EnterpriseOps-Gym (NOWAI-Bench)
Autonom gelöste Tickets90 % (ServiceNow + Apriel/Nemotron)

🔗 NVIDIA Blog — ServiceNow


NVIDIA NemoClaw + OpenClaw — persistenter Open-Source-Agent, der React auf GitHub überholt

30. April — OpenClaw (von Peter Steinberger entwickelt) hat in 60 Tagen 250.000 GitHub-Sterne überschritten und damit React überholt, um zum am häufigsten mit Sternen versehenen Projekt der Plattform zu werden. NVIDIA arbeitet mit der Community zusammen, um dieses persistente, selbst gehostete KI-Agentenprojekt abzusichern.

NVIDIA bringt NemoClaw auf den Markt, eine per Ein-Befehl installierbare Referenzimplementierung, die OpenClaw + NVIDIA OpenShell + Nemotron mit standardmäßig gehärteten Sicherheitskonfigurationen kombiniert.

MetrikWert
GitHub-Stars für OpenClaw250.000+ (März 2026)
Wachstum#1 GitHub-Projekt in 60 Tagen (überholt React)
Inferenz-Multiplikator Agenten vs. Reasoning-KI1.000×
NemoClaw-Installation1 einziger Befehl

🔗 NVIDIA-Blog — OpenClaw/NemoClaw


Luma AI Uni-1.1 API — Bildgenerierung, die kreative Briefings durchdenkt

5. Mai — Luma AI veröffentlicht die Uni-1.1 API, ein Bildgenerierungsmodell, das darauf ausgelegt ist, kreative Briefings zu durchdenken statt nur Tokens zu verarbeiten. Anders als herkömmliche APIs, die Prompt Engineering erfordern, versteht Uni-1.1 den ästhetischen Kontext jeder visuellen Tradition und liefert bereits beim ersten Versuch verwertbare Ergebnisse.

Genannte Anwendungsfälle: Mode-Tools, Architekturrenderings, Manga-Pipelines, filmischer Content. Kein Middleware erforderlich. Die API ist unter lumalabs.ai/api verfügbar.

🔗 Tweet zu Luma AI Uni-1.1


ChatGPT Ads Manager Self-Serve und CPC-Bidding

5. Mai — OpenAI erweitert sein Werbeprogramm um zwei Neuerungen: ein Self-Serve-Tool (Ads Manager, in den USA in der Beta) und die Einführung des CPC-Auktionsmodus (Cost-per-Click).

ModusStatusBeschreibung
CPM (Cost per Mille Impressionen)BestehendSeit dem Start des Programms verfügbar
CPC (Cost per Click)NeuDer Werbetreibende zahlt nur bei einem tatsächlichen Klick
Ads Manager Self-Serve (Beta)NeuFür US-Werbetreibende verfügbar

Agenturpartner: Dentsu, Omnicom, Publicis, WPP. Technologiepartner: Adobe, Criteo, Kargo, Pacvue, StackAdapt. OpenAI hat außerdem eine Conversions API und Pixel-Tracking eingeführt, um Post-Click-Aktionen zu messen, ohne einzelne Gespräche den Werbetreibenden offenzulegen.

🔗 OpenAI-Werbeankündigung


Perplexity Premium Health Sources

5. Mai — Perplexity führt Premium-Gesundheitsquellen ein. Mehr als eine von zehn Anfragen auf der Plattform betrifft Gesundheit. Die zum Start verfügbaren Quellen sind NEJM, BMJ Journals und BMJ Best Practice — medizinische Referenzen, die gewöhnlich institutionellen Abonnements vorbehalten sind.

In Computer werden diese Quellen für Gesundheitsfragen automatisch aktiviert, ohne manuelle Auswahl. Jede Antwort enthält nachverfolgbare Zitate. Kommende Quellen: Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.

🔗 Perplexity-Blog — Premium Health Sources


Kurzmeldungen

  • Manus — Automatische Empfehlung von Konnektoren — Manus erkennt jetzt, welcher Konnektor (Slack, Notion, Gmail, Google Drive) benötigt wird, um eine Aufgabe zu erledigen, und empfiehlt ihn im Gespräch, ohne den Gesprächsfaden zu verlassen. Die Aktivierung bleibt von der Bestätigung durch den Nutzer abhängig. 🔗 Quelle

  • Black Forest Labs — FLUX Creator Program — BFL eröffnet ein selektives Creator-Programm für frühen Zugang zu den kommenden FLUX-Modellen, mit Verstärkung der Arbeiten über die BFL-Kanäle. 🔗 Quelle

  • GPT-5.5 Instant System Card — Erste System Card der Instant-Reihe, eingestuft als „High capability“ in den Kategorien Cybersicherheit sowie Biologie & Chemie des Preparedness Framework von OpenAI. Entsprechend wurden verstärkte Schutzmaßnahmen implementiert. 🔗 Quelle

  • OpenAI — WebRTC-Architektur relay+transceiver — OpenAI veröffentlicht einen Engineering-Artikel, der die Neugestaltung seiner WebRTC-Infrastruktur für Echtzeitstimmen beschreibt (ChatGPT Voice, Realtime API), die mehr als 900 Millionen wöchentliche Nutzer bedient. Die Architektur trennt das Paket-Routing (leichter, zustandsloser Relay) von der Protokollbeendigung (Transceiver, mit Zustand), was einen Standard-Kubernetes-Betrieb mit reduzierter öffentlicher UDP-Öffnung ermöglicht. 🔗 Quelle


Was das bedeutet

Finanzwesen als bevorzugtes Spielfeld für Enterprise-KI. Innerhalb von 24 Stunden veröffentlichten Anthropic, Perplexity und xAI jeweils Ankündigungen, die sich explizit an Finanzteams richten: zehn Claude-Agent-Templates (Bewertung, KYC, Monatsabschluss), Computer for Professional Finance mit 35 Workflows und 14 Datenanbietern sowie Grok 4.3, das im Vals-AI-Benchmark für Corporate Finance und Case Law auf Platz #1 liegt. Die Konvergenz ist kein Zufall — Finanzwesen vereint große Mengen strukturierter Dokumente, hohe Anforderungen an Präzision und Toleranz für Premium-Toolkosten, was es zum idealen Feld für die ersten Einsätze autonomer, geschäftlich wertvoller Agenten macht.

Das Rennen um die Standardmodelle. GPT-5.5 Instant reduziert Halluzinationen gegenüber seinem direkten Vorgänger um 52,5 %, und Grok 4.3 erreicht einen Kontext von einer Million Tokens mit gemessener und veröffentlichter agentischer Leistung. Beide Modelle werden am selben Tag veröffentlicht. Es geht nicht mehr nur darum, die besten akademischen Benchmarks zu veröffentlichen, sondern darum, das standardmäßig geladene Modell in Verbraucheroberflächen (ChatGPT) oder das zuerst aktivierte Modell in Entwickler-Pipelines (xAI API) zu sein.

MCP als Sicherheitsstandard für Entwickler. GitHub veröffentlichte gleichzeitig drei Sicherheitsupdates über seinen MCP-Server (Secret Scanning GA, Dependency Scanning in der Vorschau, Code-to-Cloud GA). Diese koordinierte Bereitstellung macht den MCP-Server von GitHub zu einem nativen Sicherheitsintegrationskanal für Coding-Agenten — Copilot CLI, VS Code und jede MCP-kompatible IDE können nun Geheimnisse und verwundbare Abhängigkeiten vor jedem Commit direkt im Agenten-Workflow scannen.

Persistente Agenten und Echtzeit-Infrastruktur. Runway Characters (Video-Agent mit 1,75 s Latenz ausgehend von einem Bild), Project Arc von ServiceNow (langlaufender Desktop-Agent), OpenClaw/NemoClaw (250.000 GitHub-Sterne, 1.000× mehr Inferenznachfrage als Reasoning-KI) und Genspark sb-git (für Agenten neu geschriebenes Git) signalisieren alle dieselbe Wende: KI-Agenten verlassen die Ära der punktuellen Anfragen und treten in die der persistierenden Prozesse ein, mit grundlegend anderen Infrastrukturanforderungen — Zustandspeicherung, Echtzeit-Latenz, natives Versioning.


Quellen