Suchen

OpenAI sammelt 122 Milliarden Dollar ein, Qwen3.5-Omni und 15 versteckte Funktionen von Claude Code

OpenAI sammelt 122 Milliarden Dollar ein, Qwen3.5-Omni und 15 versteckte Funktionen von Claude Code

Drei Ankündigungen dominieren das Monatsende: OpenAI schließt die größte private Finanzierung in der Geschichte der Tech-Branche mit 122 Milliarden Dollar bei einer Bewertung von 852 Milliarden ab, Qwen erreicht einen Meilenstein mit einem nativ omnimodalen Modell, das gleichzeitig sehen, hören und codieren kann, und der Verantwortliche von Claude Code veröffentlicht einen viralen Thread, der 15 wenig bekannte Funktionen des Tools offenlegt. Die Woche ist außerdem geprägt vom Start des Secure Intelligence Institute von Perplexity, neuen GitHub Copilot-Tools und Infrastrukturinitiativen bei Runway und NVIDIA.


OpenAI sammelt 122 Milliarden Dollar ein

31. März — OpenAI gibt den Abschluss seiner jüngsten Finanzierungsrunde mit 122 Milliarden Dollar zugesagtem Kapital bekannt, bei einer Post-Money-Bewertung von 852 Milliarden Dollar. Es ist eine der größten privaten Finanzierungsrunden in der Geschichte der Tech-Branche.

Die Runde wird gemeinsam von SoftBank und a16z geleitet, mit strategischer Beteiligung von Amazon, NVIDIA und Microsoft. Zum ersten Mal ermöglichte OpenAI auch Einzelinvestoren über Banken die Teilnahme und sammelte dabei mehr als 3 Milliarden Dollar von Privatpersonen. ARK Invest wird OpenAI zudem in mehreren börsengehandelten Indexfonds (Exchange-Traded Funds / ETF) aufnehmen.

Zur Unterstützung dieser Runde veröffentlicht OpenAI Wachstumskennzahlen:

IndicateurValeur
Utilisateurs actifs hebdomadaires ChatGPT900 millions
Abonnés payants ChatGPT50 millions
Revenus mensuels2 milliards de dollars
Tokens traités par l’API (par minute)15 milliards
Utilisateurs hebdomadaires Codex2 millions (+5× en 3 mois)
Croissance Codex d’un mois sur l’autre+70%

Das Unternehmen beschreibt eine Roadmap, die um eine “KI-Superapp” (AI superapp) herum aufgebaut ist: eine einheitliche Oberfläche, die ChatGPT, Codex, Websuche und Agenten-Konzepte vereint. Das erklärte Ziel ist, die Milliarde an wöchentlich aktiven Nutzern zu überschreiten. Unternehmen machen bereits 40 % der Einnahmen aus.

GPT-5.4, das aktuellste Modell von OpenAI, wird als verbessernd für Schlussfolgerungsvermögen, Codierung und agentische Arbeitsabläufe (agentic workflows) beschrieben. OpenAIs Wachstum wird als viermal so schnell dargestellt wie das von Google und Meta in vergleichbarer Phase.

🔗 Offizielle Ankündigung OpenAI


Qwen3.5-Omni: natives omnimodales Modell

29. März — Alibaba Qwen stellt Qwen3.5-Omni vor, ein Modell, das nativ dafür konzipiert ist, Text, Bilder, Audio und Video in einem einzigen, einheitlichen Modell zu verarbeiten. Im Gegensatz zu klassischen multimodalen Ansätzen, die Modalitäten schichtweise hinzufügen, verarbeitet dieses Modell diese Eingaben simultan.

Die rohen Fähigkeiten sind beträchtlich: nativ bis zu 10 Stunden Audio oder 400 Sekunden Video in 720p, trainiert auf mehr als 100 Millionen Stunden Daten, Spracherkennung in 113 Sprachen und Ausgabe in 36 Sprachen.

Schlüssel-Feature: Audio-Visual Vibe Coding

Die unmittelbar nutzbarste Funktion ist das “Audio-Visual Vibe Coding”: Der Benutzer beschreibt sein Projekt laut vor einer Kamera, und Qwen3.5-Omni-Plus erzeugt eine funktionale Website oder ein Spiel. Es ist eine Anwendung des Konzepts des Intent-basierten Codings (vibe coding), erweitert auf Audio und Video in Echtzeit.

Vergleich der Leistungswerte

CatégorieQwen3.5-Omni-PlusGemini 3.1 Pro
DailyOmni (audio/vision)84,682,7
WorldScene62,865,5
QualocommInteractive68,552,3
OmniClear64,855,5
IFEval (texte)89,793,5
MMLU-Redux94,290,0

Das Modell übertrifft Gemini 3.1 Pro bei den Audio-Benchmarks und ist gleichwertig in der audio-visuellen Verständnisleistung.

Sprachfähigkeiten

  • Feine Sprachsteuerung: Anpassung von Emotion, Rhythmus und Lautstärke in Echtzeit
  • Voice Cloning (Voice Cloning) aus einem kurzen Sample (Engineering-Deployment demnächst angekündigt)
  • Intelligente Redeunterbrechung (Semantic Interruption), die die tatsächliche Absicht versteht und Umgebungsgeräusche ignoriert
  • Integrierte Websuche und komplexe Funktionsaufrufe

Modellfamilie

VariantePositionnement
Qwen3.5-Omni-PlusSOTA-Leistung, detailliertes audio-visuelles Captioning
Qwen3.5-Omni-Plus-RealtimeVoice Control, WebSearch, Voice Clone, Semantic Interruption
Qwen3.5-Omni-FlashGeschwindigkeit
Qwen3.5-Omni-LightLeichtgewicht

Zugriff über chat.qwen.ai (Button VoiceChat/VideoChat) und die Alibaba Cloud API.

Hinweis: Qwen 3.6 Plus Preview ist zeitlich begrenzt kostenlos über OpenRouter verfügbar — die Interaktionen werden in diesem Zeitraum gesammelt, um das Modell zu verbessern.

🔗 Tweet @Alibaba_Qwen


15 versteckte Funktionen von Claude Code

30. März — Boris Cherny, Leiter von Claude Code bei Anthropic, veröffentlichte einen Thread, der 15 wenig dokumentierte Funktionen des Tools offenlegt. Der Thread erreichte 3,6 Millionen Aufrufe, 2.000 Reposts und 22.000 Likes.

“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”

🇩🇪 Ich wollte einige meiner liebsten, wenig bekannten und wenig genutzten Funktionen in Claude Code teilen. Ich werde mich auf die konzentrieren, die ich am häufigsten verwende. Los geht’s.@bcherny auf X

Mobilität und Remote-Sessions

  • Die Claude-App auf iOS und Android enthält einen Tab “Code”, der das Coden vom Telefon aus ermöglicht
  • --teleport (oder /teleport) erlaubt das Umschalten einer Cloud-Session auf eine lokale Maschine; /remote-control ermöglicht das Steuern einer lokalen Session von jedem Gerät aus
  • Cowork Dispatch: gesicherte Fernsteuerung der Claude Desktop App vom Mobilgerät, mit Zugriff auf MCP (Model Context Protocol), den Browser usw.

Automatisierung

  • /loop und /schedule erlauben das automatische Starten von Claude in definierten Intervallen, bis zu einer Woche — Cherny nutzt /loop 5m /babysit für kontinuierliche Code-Reviews und automatisches Rebase
  • Hooks (SessionStart, PreToolUse, etc.) ermöglichen das Injizieren deterministischer Logik in den Agentenzyklus, z. B. zum Weiterleiten von Berechtigungsanfragen an WhatsApp

Parallelisierung

  • /batch verteilt Arbeit auf Dutzende, Hunderte oder sogar Tausende Agenten parallel — nützlich für großangelegte Code-Migrationen
  • claude -w startet parallele Sessions in separaten git worktrees

Tägliche Produktivität

  • /btw erlaubt, eine schnelle Frage zu stellen, während ein Agent weiterarbeitet, ohne die aktuelle Aufgabe zu unterbrechen
  • /branch ermöglicht das Forken einer Session; oder via CLI: claude --resume <session-id> --fork-session
  • --agent erlaubt das Definieren maßgeschneiderter Agenten in .claude/agents/ mit einem Prompt-System und konfigurierbaren Tools
  • --add-dir / /add-dir gibt Claude Zugriff auf mehrere Ordner oder Repositories gleichzeitig
  • --bare beschleunigt das SDK-Startup um bis zu 10× (vermeidet das Laden von CLAUDE.md, Parametern und MCP-Servern)
  • /voice aktiviert die Spracherfassung (Leertaste in der CLI, dedizierter Button auf dem Desktop, Diktierfunktion auf iOS)
  • Chrome-Erweiterung (Beta): Claude Code + Chrome zum Testen von Webanwendungen, Debuggen der Konsolenlogs und Automatisieren des Browsers

🔗 Kompletter Thread @bcherny


Claude Code: Auto-Mode erweitert auf Enterprise und API

30. März — Der Auto-Mode von Claude Code, am 24. März für Pro- und Max-Nutzer gestartet, ist jetzt auch im Enterprise-Plan und für Entwickler mit API-Zugang verfügbar. Diese Funktion erlaubt Claude, Entscheidungen über die Genehmigung von Aktionen (Dateischreibvorgänge, bash-Kommandos) eigenständig zu treffen, anstatt bei jedem Schritt den Benutzer zu fragen.

Um ihn in einer Enterprise- oder API-Umgebung zu aktivieren:

claude --enable-auto-mode

Der Auto-Mode stützt sich auf interne Klassifikatoren, die das Risiko jeder Aktion bewerten, bevor sie ausgeführt wird, und schafft so einen Ausgleich zwischen dem permissiven Modus (--dangerously-skip-permissions) und manuellen Genehmigungen.

30. März — Cowork Dispatch kann jetzt Coding-Aufgaben mit einem spezifischen Modell starten, das direkt in natürlicher Sprache in der Anweisung genannt wird.

🔗 Tweet @claudeai


Perplexity startet das Secure Intelligence Institute

31. März — Perplexity startet das Secure Intelligence Institute (SII), ein Forschungsinstitut, das sich der Sicherheit, dem Datenschutz und der Zuverlässigkeit fortschrittlicher KI-Systeme widmet. Das Institut wird von Dr. Ninghui Li geleitet — Samuel D. Conte Professor an der Purdue University, ACM- und IEEE-Fellow, ehemaliger Vorsitzender von ACM SIGSAC — und arbeitet mit akademischen Partnern zusammen, darunter Dan Bonehs Applied Cryptography Group und Neil Gongs Gong Lab.

Das SII veröffentlicht drei erste Arbeiten:

PublicationTypeDescription
BrowseSafeBenchmark open-source14 700+ reale Angriffszenarien, 14 Risikokategorien für KI-Navigation
Sécurisation des agents NIST/CAISIPolitiqueAntwort auf die RFI (Request for Information) zur Absicherung autonomer Agenten
Building Security Into CometArchitectureTiefenverteidigung des KI-Browsers Comet

Das SII setzt seine Forschung in konkrete Verbesserungen für Perplexitys Systeme um und teilt seine Arbeiten mit dem KI-Ökosystem.

🔗 Secure Intelligence Institute


Cohere und Ensemble: LLM spezialisiert auf Revenue Cycle Management im Gesundheitswesen

31. März — Cohere und Ensemble kündigen den Aufbau des ersten nativen großen Sprachmodells (large language model / LLM) für das Revenue Cycle Management (RCM) in der US-Gesundheitsbranche an.

Ensemble bietet eine End-to-End-Lösung für Krankenhäuser und medizinische Gruppen, von Terminvereinbarung bis zur finalen Abrechnung. Im Gegensatz zu Konkurrenzangeboten, die allgemeine LLMs in spezialisierte Prompts einbetten, ist dieses Modell vollständig auf Cohere’s Command-Familie zugeschnitten.

DomaineCapacité
FinancierVorhersage von Ablehnungen vor Einreichung, kontinuierliche Qualitätskontrolle der Abrechnung
CliniqueDokumentationsführung am Point-of-Care, Zusammenstellung von Berufungsakten
AgentiqueOrchestrierung mehrstufiger Revenue-Cycle-Prozesse

Das Modell wurde auf Cohere-Pretraining-Daten, Ensembles operativen Logs, öffentlichen RCM-Wissensquellen und Expertenannotationen trainiert. Ein fachdomänenspezifisches Evaluierungs-Framework (benchmark), das gemeinsam entwickelt wurde, wird die Leistung gegenüber allgemeinen LLMs bei realen RCM-Aufgaben messen.

🔗 Cohere-Blog


GitHub Copilot: agent-first Entwicklung und Slack-Integration

31. März — Tyler McGoffin, Senior Researcher im Copilot Applied Science Team bei GitHub, teilt Erfahrungen beim Aufbau eines internen Tools mit Copilot als primärem Coding-Agent. Das Tool automatisiert die Analyse von Agententrajektorien auf Benchmarks wie TerminalBench2 und SWEBench-Pro.

Beschriebene Praktiken: Nutzung des Modus /plan vor dem Codieren, Erstellung von “Contract Tests”, die nur von einem Menschen geändert werden dürfen, ausführliche Prompts statt kurzer Anweisungen, und wöchentliche automatische Wartung via /plan Review the code for any missing tests.... Fazit: Die Eigenschaften eines guten Ingenieurs (Planung, Kontext, Kommunikation) sind identisch, um effektiv mit einem KI-Agenten zusammenzuarbeiten.

30. März — Die GitHub-App für Slack integriert jetzt Copilot, um GitHub-Issues direkt aus Slack in natürlicher Sprache zu erstellen. Einfach @GitHub in einem Kanal erwähnen und die Aufgabe beschreiben.

FonctionnalitéDétail
Création en langage naturelBeschreibung → strukturierte Issues (Titel, Body, Assignees, Labels, Milestones)
Sous-issuesZerlegung von Arbeit in Parent/Child-Issues aus einer einzigen Nachricht
Mode conversationIteration an Issues vor deren Erstellung

31. März — GitHub stellt das Copilot SDK vor, das die Integration agentischer Workflows (agentic workflows) in Drittanbieter-Anwendungen nach drei Architekturmodellen ermöglicht.

🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Issues depuis Slack


Runway: Investitionsfonds und Startup-Programm

31. März — Runway startet zwei simultane Initiativen.

Der Runway Fund ist ein Investitionsfonds für Early-Stage-Startups im Bereich KI, Medien und Welt-Simulation. Erstes Engagement bis zu 10 Millionen Dollar, mit Investments bis zu 500.000 Dollar in Pre-Seed/Seed. Fokus auf drei Achsen: KI-Forschung (Weltmodelle und generative KI), neue Anwendungen (Applikationsschicht auf LLMs) und neue Medien & Inhalte. Es wurden bereits Investments in Cartesia, LanceDB und Tamarind Bio getätigt.

Runway Builders ist ein Beschleunigerprogramm für Startups von Seed bis Serie C, die Produkte mit generativer Video- und Echtzeit-Konversations-KI bauen. Teilnehmer erhalten API-Gutschriften, die höchsten Rate-Limits und Zugang zu einer privaten Community.

🔗 Runway Fund 🔗 Runway Builders


NVIDIA und Emerald AI: flexible AI-Fabriken im Stromnetz

31. März — NVIDIA und Emerald AI präsentieren auf der CERAWeek einen neuen Ansatz für AI-Fabriken: diese als flexible Netzassets statt als statische Lasten zu behandeln. Die Architektur basiert auf NVIDIA Vera Rubin DSX und Emerald AIs Conductor-Plattform.

Angekündigte Energiepartner: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy und Vistra. Begleitende Ankündigungen:

  • Maximo: 100-MW-robotische Solaranlage mit NVIDIA Isaac Sim in Bellefield in Betrieb
  • TerraPower + SoftServe: NVIDIA Omniverse Digital Twin zur Verkürzung der Entwurfszeiten von Natrium-Kernkraftwerken
  • Adaptive Construction Solutions: nationales Ausbildungsprogramm für den Bau von AI-Fabriken
  • GE Vernova, Schneider Electric, Vertiv: validierte Reference Designs für Vera Rubin

Jensen Huang beschreibt Energie als die fundamentale Schicht eines “AI-Kuchens mit fünf Schichten” (five-layer AI cake).

🔗 NVIDIA-Blog - AI Factories


Kurz

Gemini Live auf Gemini 3.1 Flash Live30. März — Google bestätigte die Ausrollung des Modells Gemini 3.1 Flash Live in der App Gemini Live, verfügbar für alle Nutzer. Dieser Übergang (am 26. März angekündigt) bringt natürlichere Audio‑Gespräche und eine bessere Genauigkeit in lauten Umgebungen. 🔗 Tweet @GeminiApp

Manus: Steuerung des Desktop vom Telefon aus30. März — Manus fügt die Möglichkeit hinzu, die Desktop‑Anwendung vom Smartphone aus zu steuern: Starten von Aufgaben, Zugriff auf Dateien und Auslösen von Workflows, ohne den Computer zu berühren. 🔗 Tweet @ManusAI

Midjourney V8 Teaser29. März — David Holz (Gründer von Midjourney) kündigt eine „radikal andere“ Version von V8 an, „kommt sehr bald“. Kein Datum angekündigt. 🔗 Tweet @DavidSHolz

Claude Code v2.1.87 — Behebung eines Fehlers in Cowork Dispatch, bei dem Nachrichten nicht zugestellt wurden. 🔗 CHANGELOG GitHub


Was das bedeutet

Die Bewertung von OpenAI in Höhe von 852 Milliarden markiert einen Wendepunkt: bei solchen Zahlen vertieft sich der Abstand zwischen den führenden Akteuren und dem Rest der Branche strukturell. Mit 900 Millionen wöchentlichen Nutzern und dem Ziel von einer Milliarde positioniert sich ChatGPT als Masseninfrastruktur und nicht nur als technologisches Produkt.

Die Einführung von Qwen3.5-Omni verdeutlicht den zunehmenden Wettbewerb um omnimodale Modelle. Das Audio‑Visual Vibe Coding stellt eine konkrete Weiterentwicklung des Codierens nach Intention (vibe coding) dar — der Wechsel von Text hin zu Sprache und Video als primäre Schnittstelle zur generativen KI.

Auf Seiten der Entwicklerwerkzeuge zeigt der Thread von Boris Cherny, dass Claude Code fortgeschrittene Funktionen angesammelt hat (massive Parallelisierung mit /batch, Automatisierung über Hooks, verteilte Sessions), die mangels sichtbarer Dokumentation weitgehend unbekannt blieben. Die Ausweitung des Auto‑Mode auf Enterprise‑Pläne folgt einer klassischen Route: Validierung in der Vorschau und anschließend schrittweise Bereitstellung.

Schließlich weisen die Gründung des Secure Intelligence Institute durch Perplexity und die Initiativen von Cohere im Gesundheitsbereich auf einen Trend hin: Akteure der zweiten Reihe versuchen, sich in spezialisierten Verticals (KI‑Sicherheit, regulierte Gesundheitsbereiche) zu differenzieren, statt direkt im Wettbewerb um allgemeine Modelle anzutreten.


Quellen

Dieses Dokument wurde von der fr-Version in die Sprache en mit dem Modell gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator