ai-powered-markdown-translatorMit gpt-5.4-mini vom Französischen ins Deutsche übersetzter Artikel.
Eine ereignisreiche Woche: OpenAI ersetzt GPT-5.3 Instant direkt durch GPT-5.5 Instant für alle ChatGPT-Nutzer, xAI startet Grok 4.3 auf seiner API mit einem Kontext von einer Million Tokens, und Anthropic kündigt ein neues Enterprise-IA-Services-Unternehmen an, das gemeinsam mit Blackstone, Hellman & Friedman und Goldman Sachs gegründet wurde. Auf der Tooling-Seite verdreifacht GitHub die Sicherheits-GA/Previews über seinen MCP-Server, Perplexity startet ein Produkt für Finanzteams, und Runway präsentiert Echtzeit-Videoagenten, die aus einem einzigen Bild erzeugt werden.
GPT-5.5 Instant — neues Standardmodell von ChatGPT
5. Mai — OpenAI ersetzt GPT-5.3 Instant durch GPT-5.5 Instant als Standardmodell von ChatGPT für alle Nutzer. Die Bereitstellung erstreckt sich über zwei Tage.
| Dimension | Verbesserung vs. GPT-5.3 Instant |
|---|---|
| Halluzinationen (Medizin, Recht, Finanzen) | -52,5 % |
| Ungenaue Behauptungen (von Nutzern gemeldet) | -37,3 % |
| Umfang der Antworten | -30,2 % Wörter im Durchschnitt |
Das Modell verbessert außerdem die Bildanalyse, STEM-Antworten und die Entscheidung, ob die Websuche verwendet wird. Die Antworten sind knapper ohne inhaltlichen Verlust, mit weniger überflüssigem Formatieren und weniger unnötigen Rückfragen.
Speicherquellen — OpenAI führt „memory sources“ für alle ChatGPT-Modelle ein: Wenn eine Antwort auf gespeicherten Erinnerungen, vergangenen Gesprächen oder verbundenem Gmail basiert, sieht der Nutzer genau, welche Quellen verwendet wurden, und kann sie korrigieren oder löschen. Die Personalisierung aus vergangenen Gesprächen und Dateien ist zunächst nur für Plus- und Pro-Abonnenten (Web) reserviert; andere Tarife folgen.
Verfügbarkeit:
- Stufenweise Bereitstellung über 2 Tage für alle ChatGPT-Nutzer
- Verfügbar per API unter dem Alias
chat-latest - GPT-5.3 Instant bleibt für zahlende Abonnenten 3 Monate lang zugänglich
🔗 Offizielle GPT-5.5 Instant-Ankündigung
Grok 4.3 auf der xAI-API veröffentlicht — Kontext 1 Mio. Tokens, #1 agentic tool calling
5. Mai — xAI kündigt via X die Veröffentlichung von Grok 4.3 auf der xAI-API (console.x.ai) an. Das Modell wird als das bisher schnellste und intelligenteste der Reihe präsentiert.
| Merkmal | Wert |
|---|---|
| Kontextfenster | 1 Million Tokens |
| Benchmark für agentic tool calling | #1 (@ArtificialAnlys leaderboard) |
| Benchmark instruction following | #1 (@ArtificialAnlys leaderboard) |
| Enterprise-Bereiche | #1 case law und corporate finance (@ValsAI) |
| Verfügbarkeit | xAI-API (console.x.ai) — noch nicht auf grok.com |
Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.
🇩🇪 Grok 4.3 ist jetzt auf der xAI-API verfügbar. Es ist unser bisher schnellstes und intelligentestes Modell. Es führt die @ArtificialAnlys-Ranglisten bei agentic tool calling und instruction following an und belegt auf @ValsAI Platz 1 in Enterprise-Bereichen wie Wirtschaftsrecht und Unternehmensfinanzen. Grok 4.3 unterstützt einen Kontext von einer Million Tokens. — @xai auf X
Der Tweet erzielte 25,7 Millionen Aufrufe und 6.029 Likes. Zu beachten: Zum Zeitpunkt der Ankündigung gab es keine eigene Seite auf x.ai/news — der Start erfolgte ausschließlich über X.
Anthropic und Blackstone, Hellman & Friedman, Goldman Sachs — neues Enterprise-IA-Services-Unternehmen
4. Mai — Anthropic, Blackstone, Hellman & Friedman und Goldman Sachs kündigen die Gründung eines neuen Enterprise-IA-Services-Unternehmens an, unterstützt von einem Konsortium zusätzlicher alternativer Akteure.
Das Ziel: Claude in den Kernprozessen großer Unternehmen für Aufgaben einzusetzen, die intensive Engineering-Arbeit und tiefes Branchenwissen erfordern. Laut Anthropic übersteigt die Enterprise-Nachfrage nach Claude das, was ein einzelnes Vertriebsmodell aufnehmen kann.
Das typische Betriebsmodell beginnt mit einem kleinen Team, das eng mit dem Kunden zusammenarbeitet, um Reibungspunkte zu identifizieren, und dann Claude-Agenten baut, die auf das jeweilige Geschäft zugeschnitten sind. Das konkrete Beispiel: ein Netzwerk aus medizinischen Praxen an mehreren Standorten, in dem Claude die klinische Dokumentation, wiederkehrende administrative Aufgaben und die Koordination zwischen Fachbereichen übernimmt, sodass sich Kliniker auf die Patientenversorgung konzentrieren können.
Das neue Unternehmen wird dem Claude Partner Network beitreten, zusammen mit Accenture, Deloitte und PwC. Es stellt einen strukturellen Schritt in der Enterprise-Vertriebsstrategie von Anthropic dar: Statt nur API-Lizenzen zu verkaufen, engagiert sich das Unternehmen nun in komplexen operativen Rollouts mit erstklassigen Finanzpartnern.
Claude-Agenten für Finanzdienstleistungen und Versicherungen
5. Mai — Anthropic startet zehn einsatzbereite (ready-to-run) Agenten-Templates für Finanzdienstleistungen und Versicherungen. Verfügbar als Plugins in Claude Cowork oder Claude Code oder als eigenständige Claude Managed Agents auf der Claude-Plattform.
Recherche und Kundenabdeckung:
| Agent | Rolle |
|---|---|
| Pitch builder | Ziellisten, Vergleichswerte, Pitchbooks |
| Meeting preparer | Kunden- und Gegenparteien-Briefings |
| Earnings reviewer | Lesen von Transkripten und Modell-Updates |
| Model builder | Erstellung von Finanzmodellen aus Filings und Daten |
| Market researcher | Branchenmonitoring und Zusammenfassung von Nachrichten |
Finanzen und Betrieb:
| Agent | Rolle |
|---|---|
| Valuation reviewer | Prüfung von Bewertungen |
| General ledger reconciler | Buchhaltungsabstimmung und NAV-Berechnungen |
| Month-end closer | Monatsabschluss und Buchungsjournale |
| Statement auditor | Prüfung von Finanzabschlüssen |
| KYC screener | Zusammenstellung von Entity-Dossiers und Compliance-Screening |
Claude integriert sich nun über Add-ins in Microsoft Excel, PowerPoint, Word und Outlook (in Arbeit). Die Dispatch-Funktion von Claude Cowork ermöglicht es, Aufgaben per Text oder Sprache von überall aus zuzuweisen.
Neue Datenkonnektoren: Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk und ein Moody’s-MCP (Ratings und Daten zu mehr als 6.000 Entitäten).
Zu den genannten Kunden gehören: Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % der Mitarbeiter nutzen Claude Code), Hg, Morningstar, FactSet. Diese Agenten sind für Claude Opus 4.7 optimiert, das im Vals AI Finance Agent-Benchmark auf Platz 1 liegt.
Perplexity Computer for Professional Finance
5. Mai — Perplexity startet Computer für professionelle Finanzen, eine Version von Computer, die speziell für Analyse- und Investmentteams entwickelt wurde: Buy-side- und Sell-side-Analysten, Hedgefonds, Private Equity.
| Dimension | Wert |
|---|---|
| Enthaltene Workflows | 35 (10 Segmente) |
| Integrierte Datenanbieter | 14 (darunter Quartr, Fiscal) |
| Premium-MCP-Konnektoren | Morningstar, PitchBook, Daloopa, Carbon Arc |
| Verfügbare Plattformen | Microsoft Teams, Agent API |
| Demnächst | Excel add-in |
| FinSearchComp T1-Benchmark | 1. Platz (Genauigkeit, Kosten, Latenz) |
Teams mit lizenzierten Abonnements können ihre eigenen Zugangsdaten über MCP-Konnektoren verbinden, um auf Morningstar, PitchBook, Daloopa und Carbon Arc zuzugreifen. Andere nutzen die integrierten Finanz-Tools, die auf 14 Datenanbietern basieren.
Jeder Zahlenwert verweist auf seine Quelle: Bei Werten aus SEC-Dokumenten zeigt Computer die Berechnung und verweist auf die genauen Seiten des Dokuments. Im FinSearchComp T1-Benchmark (zeitkritische Datenextraktion) belegt Perplexity den ersten Platz bei Genauigkeit, Kosten pro korrekter Antwort und Latenz — einschließlich Echtzeitkursen, Krypto-Preisen und Wechselkursen.
🔗 Perplexity-Blog — Computer for Professional Finance
Runway Characters — Echtzeit-Videoagent aus nur einem Bild
4. Mai — Runway kündigt Characters an, eine Technologie, die es ermöglicht, ein einziges Bild in einen konversationellen Echtzeit-Videoagenten zu verwandeln.
| Metrik | Wert |
|---|---|
| End-to-End-Latenz | 1,75 Sekunden |
| Videoqualität | 24 fps HD |
| Erforderliche Bildquelle | 1 einziges Bild |
| Kaltstarts | 60× schneller (GPU peer-to-peer) |
Die 1,75 Sekunden werden ab dem Moment gemessen, in dem der Nutzer aufhört zu sprechen, bis zur ersten Antwort der Figur. Runway veröffentlichte gleichzeitig zwei Engineering-Artikel: Der erste beschreibt die Architektur des Echtzeit-Videoagenten, der zweite erklärt, wie die GPU-Peer-to-Peer-Infrastruktur die Kaltstartzeiten um den Faktor 60 reduziert.
Zu den angestrebten Anwendungsfällen zählen konversationelle Agenten, interaktive Figuren in Echtzeit und Videooberflächen für Anwendungen. Die Technologie markiert den Übergang von offline gerendertem Video zu synchroner Interaktion.
🔗 Ankündigungstweet Runway Characters
GitHub MCP Server — dreifacher Sicherheitsfortschritt
5. Mai — GitHub veröffentlicht gleichzeitig drei Sicherheitsupdates für seinen MCP-Server, alle am selben Tag durchgeführt.
Secret scanning GA
Das Secret Scanning über den GitHub MCP Server geht in die allgemeine Verfügbarkeit über (aus der Preview seit März 2026). In der GitHub Copilot CLI erfolgt die Installation mit /plugin install advanced-security@copilot-plugins; in VS Code stellt das Plugin advanced-security den Befehl /secret-scanning bereit.
| Aspekt | Detail |
|---|---|
| Status | GA (allgemeine Verfügbarkeit) |
| Verfügbarkeit | Repositories mit aktiviertem GitHub Secret Protection |
| Integrationen | Copilot CLI, VS Code, jeder MCP-kompatible IDE |
Die MCP-Tools berücksichtigen nun bestehende Anpassungen der Push Protection — das Bypass-Verhalten ist konsistent mit der Konfiguration des Repositories oder der Organisation.
🔗 Changelog — Secret scanning GA
Dependency scanning in öffentlicher Preview
Die Erkennung von Schwachstellen bei Abhängigkeiten über den MCP-Server geht in die öffentliche Preview über. Das System fragt die GitHub Advisory Database ab und gibt strukturierte Ergebnisse mit betroffenen Paketen, Schweregrad und empfohlenen korrigierten Versionen zurück.
| Aspekt | Detail |
|---|---|
| Status | Öffentliche Preview |
| Verfügbarkeit | Repositories mit aktiviertem Dependabot alerts |
| CLI-Aktivierung | copilot --add-github-mcp-toolset dependabot |
🔗 Changelog — Dependency scanning
GitHub Advanced Security × Microsoft Defender for Cloud GA
Die Integration GitHub Advanced Security × Microsoft Defender for Cloud wird ebenfalls GA. Sie korreliert in der Cloud-Umgebung bereitgestellte Container-Images mit dem GitHub-Quellcode und bringt Runtime-Kontext in die Sicherheitsansichten ein.
Neue Filter in der Organisationsansicht verfügbar: has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. Sicherheitskampagnen können direkt dem GitHub-Copilot-Coding-Agenten zugewiesen werden.
🔗 Changelog — Code-to-cloud GA
Model Spec Midtraining (MSM) — agentische Ausrichtung von 68 % auf 5 % reduziert
5. Mai — Forscher von Anthropic veröffentlichen „Model Spec Midtraining“ (MSM), eine Alignement-Methode, die zwischen Vortraining und Alignment-Fine-Tuning (alignment fine-tuning, AFT) eingefügt wird.
Das Prinzip: Modelle werden auf einem synthetischen Korpus von Dokumenten trainiert, die den Inhalt ihrer Model Spec diskutieren, bevor sie lernen, deren Regeln zu befolgen. Die Idee ist, dass das Verständnis dafür, warum eine Regel existiert, die Robustheit ihrer Anwendung verbessert.
| Modell | Fehlanpassung (nur AFT) | Mit MSM + AFT |
|---|---|---|
| Qwen2.5-32B | 68 % | 5 % |
| Qwen3-32B | 54 % | 7 % |
MSM macht AFT auch datenmäßig deutlich effizienter: 40 bis 60 Mal weniger AFT-Daten sind nötig, um vergleichbare Leistungen zu erreichen. Die Autoren zeigen außerdem, dass das Erklären der Beweggründe hinter Regeln (statt immer mehr Unterregeln hinzuzufügen) die Generalisierung außerhalb der Verteilung verbessert.
🔗 MSM-Artikel — alignment.anthropic.com
NotebookLM Mind Maps — Personalisierung, Organisation, Navigation
5. Mai — NotebookLM verbessert seine Mind Maps mit drei gleichzeitig ausgerollten Funktionen.
| Funktion | Beschreibung |
|---|---|
| Personalisierung | Die Karte mit spezifischen Benutzeranweisungen steuern |
| Organisation | Mind-Map-Karten sofort umbenennen und teilen |
| Navigation | Flüssige Übergänge zwischen Knoten |
Die Bereitstellung erfolgt schrittweise für alle Nutzer. Das Update ergänzt die Serie schneller Verbesserungen von NotebookLM seit Anfang April: automatische Organisation von Quellen (24. April, 100 % des Rollouts am 5. Mai erreicht), Integration in die Gemini-Mobile-App (30. April).
Genspark sb-git — Git-Server von Grund auf für KI-Agenten neu geschrieben
5. Mai — Genspark startet sb-git, einen von Grund auf neu geschriebenen Git-Server für KI-Agenten. Vollständige Git-Semantik: Versionierung, Branches, Diff, Blame, Rollback und Push.
| Aspekt | Detail |
|---|---|
| CLI | gsk (init, clone-url, cat, commit) |
| Kompatibilität | Claude Code, OpenClaw, jeder Git-Agent |
| Speicher | 1 GB (gratis), 10 GB (Plus/Pro) |
| Erforderliches Konto | Nein — kein GitHub-Konto erforderlich |
| Verfügbarkeit | Sofort (Web + Mobil) |
Kein GitHub-Konto erforderlich, keine vorherige Repository-Konfiguration. Der Schwerpunkt liegt auf der Kompatibilität mit gängigen KI-Agenten (Claude Code, OpenClaw) ohne Installationsaufwand.
NVIDIA + ServiceNow — Project Arc, autonomer Long-Running-Desktop-Agent
5. Mai — Auf der ServiceNow-Knowledge-2026-Konferenz kündigten Jensen Huang und Bill McDermott die Erweiterung ihrer Partnerschaft rund um autonome KI-Agenten in Unternehmen an.
ServiceNow startet Project Arc, einen autonomen Long-Running-Desktop-Agenten, der für Wissensarbeiter entwickelt wurde: Entwickler, IT-Teams, Administratoren. Der Agent nutzt NVIDIA OpenShell (Open-Source-Sandbox) für Governance und Sicherheit und verbindet sich nativ über ServiceNow Action Fabric mit der ServiceNow-Plattform.
| Metrik | Wert |
|---|---|
| Effizienz Blackwell vs. Hopper | 50× Tokens/Watt |
| Reduktion der Kosten pro Million Tokens | ~35× |
| Nemotron 3 Super (Open Source) | #1 EnterpriseOps-Gym (NOWAI-Bench) |
| Autonom gelöste Tickets | 90 % (ServiceNow + Apriel/Nemotron) |
NVIDIA NemoClaw + OpenClaw — persistenter Open-Source-Agent, der React auf GitHub überholt
30. April — OpenClaw (von Peter Steinberger entwickelt) hat in 60 Tagen 250.000 GitHub-Sterne überschritten und damit React überholt, um zum am häufigsten mit Sternen versehenen Projekt der Plattform zu werden. NVIDIA arbeitet mit der Community zusammen, um dieses persistente, selbst gehostete KI-Agentenprojekt abzusichern.
NVIDIA bringt NemoClaw auf den Markt, eine per Ein-Befehl installierbare Referenzimplementierung, die OpenClaw + NVIDIA OpenShell + Nemotron mit standardmäßig gehärteten Sicherheitskonfigurationen kombiniert.
| Metrik | Wert |
|---|---|
| GitHub-Stars für OpenClaw | 250.000+ (März 2026) |
| Wachstum | #1 GitHub-Projekt in 60 Tagen (überholt React) |
| Inferenz-Multiplikator Agenten vs. Reasoning-KI | 1.000× |
| NemoClaw-Installation | 1 einziger Befehl |
🔗 NVIDIA-Blog — OpenClaw/NemoClaw
Luma AI Uni-1.1 API — Bildgenerierung, die kreative Briefings durchdenkt
5. Mai — Luma AI veröffentlicht die Uni-1.1 API, ein Bildgenerierungsmodell, das darauf ausgelegt ist, kreative Briefings zu durchdenken statt nur Tokens zu verarbeiten. Anders als herkömmliche APIs, die Prompt Engineering erfordern, versteht Uni-1.1 den ästhetischen Kontext jeder visuellen Tradition und liefert bereits beim ersten Versuch verwertbare Ergebnisse.
Genannte Anwendungsfälle: Mode-Tools, Architekturrenderings, Manga-Pipelines, filmischer Content. Kein Middleware erforderlich. Die API ist unter lumalabs.ai/api verfügbar.
ChatGPT Ads Manager Self-Serve und CPC-Bidding
5. Mai — OpenAI erweitert sein Werbeprogramm um zwei Neuerungen: ein Self-Serve-Tool (Ads Manager, in den USA in der Beta) und die Einführung des CPC-Auktionsmodus (Cost-per-Click).
| Modus | Status | Beschreibung |
|---|---|---|
| CPM (Cost per Mille Impressionen) | Bestehend | Seit dem Start des Programms verfügbar |
| CPC (Cost per Click) | Neu | Der Werbetreibende zahlt nur bei einem tatsächlichen Klick |
| Ads Manager Self-Serve (Beta) | Neu | Für US-Werbetreibende verfügbar |
Agenturpartner: Dentsu, Omnicom, Publicis, WPP. Technologiepartner: Adobe, Criteo, Kargo, Pacvue, StackAdapt. OpenAI hat außerdem eine Conversions API und Pixel-Tracking eingeführt, um Post-Click-Aktionen zu messen, ohne einzelne Gespräche den Werbetreibenden offenzulegen.
Perplexity Premium Health Sources
5. Mai — Perplexity führt Premium-Gesundheitsquellen ein. Mehr als eine von zehn Anfragen auf der Plattform betrifft Gesundheit. Die zum Start verfügbaren Quellen sind NEJM, BMJ Journals und BMJ Best Practice — medizinische Referenzen, die gewöhnlich institutionellen Abonnements vorbehalten sind.
In Computer werden diese Quellen für Gesundheitsfragen automatisch aktiviert, ohne manuelle Auswahl. Jede Antwort enthält nachverfolgbare Zitate. Kommende Quellen: Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.
🔗 Perplexity-Blog — Premium Health Sources
Kurzmeldungen
-
Manus — Automatische Empfehlung von Konnektoren — Manus erkennt jetzt, welcher Konnektor (Slack, Notion, Gmail, Google Drive) benötigt wird, um eine Aufgabe zu erledigen, und empfiehlt ihn im Gespräch, ohne den Gesprächsfaden zu verlassen. Die Aktivierung bleibt von der Bestätigung durch den Nutzer abhängig. 🔗 Quelle
-
Black Forest Labs — FLUX Creator Program — BFL eröffnet ein selektives Creator-Programm für frühen Zugang zu den kommenden FLUX-Modellen, mit Verstärkung der Arbeiten über die BFL-Kanäle. 🔗 Quelle
-
GPT-5.5 Instant System Card — Erste System Card der Instant-Reihe, eingestuft als „High capability“ in den Kategorien Cybersicherheit sowie Biologie & Chemie des Preparedness Framework von OpenAI. Entsprechend wurden verstärkte Schutzmaßnahmen implementiert. 🔗 Quelle
-
OpenAI — WebRTC-Architektur relay+transceiver — OpenAI veröffentlicht einen Engineering-Artikel, der die Neugestaltung seiner WebRTC-Infrastruktur für Echtzeitstimmen beschreibt (ChatGPT Voice, Realtime API), die mehr als 900 Millionen wöchentliche Nutzer bedient. Die Architektur trennt das Paket-Routing (leichter, zustandsloser Relay) von der Protokollbeendigung (Transceiver, mit Zustand), was einen Standard-Kubernetes-Betrieb mit reduzierter öffentlicher UDP-Öffnung ermöglicht. 🔗 Quelle
Was das bedeutet
Finanzwesen als bevorzugtes Spielfeld für Enterprise-KI. Innerhalb von 24 Stunden veröffentlichten Anthropic, Perplexity und xAI jeweils Ankündigungen, die sich explizit an Finanzteams richten: zehn Claude-Agent-Templates (Bewertung, KYC, Monatsabschluss), Computer for Professional Finance mit 35 Workflows und 14 Datenanbietern sowie Grok 4.3, das im Vals-AI-Benchmark für Corporate Finance und Case Law auf Platz #1 liegt. Die Konvergenz ist kein Zufall — Finanzwesen vereint große Mengen strukturierter Dokumente, hohe Anforderungen an Präzision und Toleranz für Premium-Toolkosten, was es zum idealen Feld für die ersten Einsätze autonomer, geschäftlich wertvoller Agenten macht.
Das Rennen um die Standardmodelle. GPT-5.5 Instant reduziert Halluzinationen gegenüber seinem direkten Vorgänger um 52,5 %, und Grok 4.3 erreicht einen Kontext von einer Million Tokens mit gemessener und veröffentlichter agentischer Leistung. Beide Modelle werden am selben Tag veröffentlicht. Es geht nicht mehr nur darum, die besten akademischen Benchmarks zu veröffentlichen, sondern darum, das standardmäßig geladene Modell in Verbraucheroberflächen (ChatGPT) oder das zuerst aktivierte Modell in Entwickler-Pipelines (xAI API) zu sein.
MCP als Sicherheitsstandard für Entwickler. GitHub veröffentlichte gleichzeitig drei Sicherheitsupdates über seinen MCP-Server (Secret Scanning GA, Dependency Scanning in der Vorschau, Code-to-Cloud GA). Diese koordinierte Bereitstellung macht den MCP-Server von GitHub zu einem nativen Sicherheitsintegrationskanal für Coding-Agenten — Copilot CLI, VS Code und jede MCP-kompatible IDE können nun Geheimnisse und verwundbare Abhängigkeiten vor jedem Commit direkt im Agenten-Workflow scannen.
Persistente Agenten und Echtzeit-Infrastruktur. Runway Characters (Video-Agent mit 1,75 s Latenz ausgehend von einem Bild), Project Arc von ServiceNow (langlaufender Desktop-Agent), OpenClaw/NemoClaw (250.000 GitHub-Sterne, 1.000× mehr Inferenznachfrage als Reasoning-KI) und Genspark sb-git (für Agenten neu geschriebenes Git) signalisieren alle dieselbe Wende: KI-Agenten verlassen die Ära der punktuellen Anfragen und treten in die der persistierenden Prozesse ein, mit grundlegend anderen Infrastrukturanforderungen — Zustandspeicherung, Echtzeit-Latenz, natives Versioning.
Quellen
- GPT-5.5 Instant — OpenAI
- GPT-5.5 Instant System Card
- ChatGPT Ads — OpenAI
- OpenAI WebRTC-Architektur
- Grok 4.3 — @xai auf X
- Anthropic Finance Agents
- Anthropic Enterprise AI Services Company
- Model Spec Midtraining — Anthropic
- Perplexity Computer for Professional Finance
- Perplexity Premium Health Sources
- Runway Characters — @runwayml auf X
- NVIDIA + ServiceNow Project Arc
- NVIDIA NemoClaw + OpenClaw
- Luma AI Uni-1.1 — @LumaLabsAI auf X
- GitHub MCP Secret Scanning GA
- GitHub MCP Dependency Scanning
- GitHub + Microsoft Defender for Cloud GA
- Genspark sb-git — @genspark_ai auf X
- NotebookLM Mind Maps — @NotebookLM auf X
- Manus Recommended Connectors
- Black Forest Labs FLUX Creator Program — @bfl_ml auf X