Suchen

Claude erzeugt interaktive Visualisierungen, OpenAI bringt die Video API Sora 2, Google Maps erneuert sich mit Gemini

Claude erzeugt interaktive Visualisierungen, OpenAI bringt die Video API Sora 2, Google Maps erneuert sich mit Gemini

Der 12. März 2026 ist geprägt von drei großen Produktankündigungen: Claude macht einen Schritt nach vorn und erzeugt interaktive Visualisierungen direkt in der Konversation, OpenAI öffnet eine programmatische Video API, angetrieben von Sora 2, und Google Maps integriert Gemini für seine tiefgreifendste Überarbeitung seit mehr als einem Jahrzehnt. Parallel dazu erhält Claude Code zwei Updates (v2.1.73 und v2.1.74), Perplexity macht Computer für Pro-Abonnenten verfügbar und ElevenLabs führt Flows und Music Finetunes auf seiner Kreativplattform ein.


Claude erzeugt interaktive Visualisierungen in der Konversation

12. März — Claude kann jetzt interaktive Charts, Diagramme und Visualisierungen direkt in der Konversation erstellen, ganz ohne Code. Die Funktion ist in der Beta für alle Abonnements verfügbar, einschließlich des kostenlosen Plans.

Aus der Preview “Imagine with Claude”, die im letzten Herbst angekündigt wurde, verändert diese Funktion die Art der Interaktion mit dem Assistenten: Visualisierungen erscheinen inline in den Antworten und nicht in einem separaten Seitenpanel. Sie sind temporär — sie entwickeln sich weiter oder verschwinden im Verlauf der Konversation — im Gegensatz zu den Artifacts, die permanente Dokumente zum Teilen oder Herunterladen sind.

Konkrete Anwendungsbeispiele: Die Anfrage, wie Zinseszinsen funktionieren, erzeugt eine interaktive Kurve zum Manipulieren; die Anfrage nach dem Periodensystem liefert eine klickbare Visualisierung mit Details zu jedem Element. Man kann ein Visual mit Formulierungen wie „zeichne das als Diagramm“ oder „visualisiere, wie sich das im Laufe der Zeit ändern könnte“ auslösen. Claude entscheidet selbst, wann ein Visual erstellt wird, oder der Nutzer kann es ausdrücklich anfordern.

Diese Funktion ist Teil einer Reihe jüngster Verbesserungen der Claude-Antworten: dedizierte Formate für Rezepte, visuelles Wetter und direkte Integrationen mit Figma, Canva und Slack.

“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”

🇩🇪 Claude kann jetzt interaktive Charts und Diagramme direkt in der Konversation erstellen. Ab heute in der Beta für alle Abonnements verfügbar, einschließlich des kostenlosen.@claudeai auf X

🔗 Claude erstellt jetzt interaktive Charts, Diagramme und Visualisierungen


Claude Code v2.1.74 : Verwaltung des Kontextes und plattformübergreifende Fehlerbehebungen

12. März — Version 2.1.74 von Claude Code verbessert die Kontextverwaltung und behebt eine Reihe von Bugs unter Windows und macOS.

Neue Funktionen :

FunktionnalitéDescription
/context amélioréActionable Suggestions: identifiziert ressourcenintensive Tools im Kontext, Memory-Bloat und Kapazitätswarnungen mit Optimierungshinweisen
autoMemoryDirectoryNeuer Parameter zur Konfiguration eines benutzerdefinierten Verzeichnisses für das automatische Memory-Storage
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MSNeuer Parameter zur Konfiguration des Timeouts der Hooks SessionEnd (zuvor fest auf 1,5 s)

Zu den bemerkenswerten Fixes gehören: ein Memory-Leak in den API-Antwortbuffers im streaming-Modus, das unter Node.js zu unbegrenztem RSS-Wachstum führte; managed ask-Policies konnten nicht mehr durch Nutzerregeln allow umgangen werden; vollständige Modell-IDs (z. B. claude-opus-4-5), die im Frontmatter model: von Agents stumm ignoriert wurden, werden jetzt korrekt akzeptiert. Die MCP OAuth-Korrekturen decken das Blockieren bei einem bereits verwendeten Callback-Port und die fehlende Re-Authentifizierung nach Ablauf des Erneuerungs-refresh token für Connectoren wie Slack ab. Auf macOS enthält das native Binary nun das Entitlement audio-input, damit macOS die Mikrofonberechtigungsanfrage im Voice-Modus korrekt anzeigt.

🔗 CHANGELOG Claude Code


Claude Code v2.1.73 : Stabilität, Bedrock ARNs und OAuth SSL

11. März — Version 2.1.73 behebt mehrere wichtige Stabilitätsprobleme, darunter CPU-Hänger und Deadlocks im Zusammenhang mit Skills.

Neue Funktionen :

FunktionnalitéDescription
modelOverridesNeuer Parameter zum Mapping von Model-Selector-Eingaben auf Provider-spezifische Modell-IDs (z. B. Bedrock inference profile ARNs)
Guidance OAuth SSLActionable Guidance, wenn OAuth-Verbindungen oder Konnektivitätsprüfungen aufgrund von SSL-Zertifikatfehlern fehlschlagen (Firmenproxies, NODE_EXTRA_CA_CERTS)

Wesentliche Fehlerbehebungen: Deadlocks und 100%-CPU-Loops, ausgelöst durch Berechtigungs-Prompts bei komplexen Bash-Befehlen; ein Hänger, der Claude Code einfrieren konnte, wenn viele Skill-Dateien gleichzeitig geändert wurden (z. B. git pull in einem Repo mit großem .claude/skills/-Ordner); Sub-Agents mit model: opus / sonnet / haiku wurden stillschweigend auf ältere Versionen auf Bedrock, Vertex und Microsoft Foundry zurückgestuft.

🔗 CHANGELOG Claude Code


Ramp AI Index : Anthropic wird zur Standardwahl für Unternehmen

11. März — Laut dem jüngsten Ramp AI Index ist Anthropic beim Erstkauf von Unternehmen zum bevorzugten KI-Anbieter geworden. Die von Ara Kharazian (Chefökonom des Ramp Economics Lab) geteilte Grafik zeigt, dass der Marktanteil von Anthropic bei neuen Unternehmenskunden Anfang 2026 bei rund 70 % liegt, gegenüber rund 25 % für OpenAI — eine auffällige Umkehr im Vergleich zu 2025.

Die Daten stammen von über 50.000 Unternehmen, die die Ramp-Plattform (Firmenkreditkarte und Zahlungen) nutzen, und sind damit ein verlässlicher Indikator für reale KI-Ausgaben im Unternehmensumfeld. Das Wachstum von Anthropic wird insbesondere durch die Adoption von Claude in Unternehmensumgebungen (API, Claude for Work, Enterprise-Integrationen) getragen.

🔗 Ramp AI Index auf X


OpenAI Video API : Sora 2 für Entwickler zugänglich

12. März — OpenAI bringt die Video API für Entwickler, eine programmatische Schnittstelle zum Erstellen, Erweitern, Bearbeiten und Verwalten von Videos. Diese Fähigkeit wird von Sora 2, OpenAIs Video-Generationsmodell der zweiten Generation, angetrieben.

Die Video API stellt zwei Varianten bereit: sora-2, ausgelegt auf Geschwindigkeit und Exploration (schnelle Iterationen, Social-Content, Prototypen), und sora-2-pro, auf Produktionsqualität ausgerichtet (kinoreife Ausgaben, Marketing-Assets, Auflösungen bis 1920×1080). Beide Varianten unterstützen Generationsdauern von 16 bis 20 Sekunden, mit möglicher Verlängerung bis insgesamt 120 Sekunden.

Wesentliche Features am Endpoint POST /videos umfassen: Generierung aus Text-Prompt, Bildgestütztes Guidance (das das erste Frame bedingt), Wiederverwendbare Konsistenz für nicht-menschliche Charaktere über mehrere Generierungen (POST /v1/videos/characters) und gezielte Bearbeitung via POST /v1/videos/edits. Die Verarbeitung ist asynchron, mit Webhook-Unterstützung für Render-Fertigmeldungen. Für Offline-Render-Warteschlangen steht außerdem Batch API-Verarbeitung zur Verfügung.

Es gelten Inhaltsbeschränkungen: keine Darstellung realer Personen, keine urheberrechtlich geschützten Figuren, kein Erwachseneninhalt (diese Einschränkung kann sich später ändern).

🔗 Video API-Dokumentation


Google Maps : Ask Maps und Immersive Navigation

12. März — Google Maps erhält seine größte Navigationsaktualisierung seit über einem Jahrzehnt, angetrieben von den Gemini-Modellen. Zwei neue Erlebnisse werden gleichzeitig angekündigt.

Ask Maps ist eine neue konversationelle Erfahrung, mit der komplexe Fragen zu realen Orten gestellt werden können. Man kann zum Beispiel fragen: „Mein Telefon geht gleich aus — wo kann ich es aufladen, ohne in der Schlange für einen Kaffee zu stehen?“ oder „Gibt es heute Abend einen beleuchteten Tennisplatz in der Nähe?“ Die Funktion nutzt Daten von über 300 Millionen Orten und Bewertungen von mehr als 500 Millionen Beitragenden. Antworten werden personalisiert basierend auf gespeicherten oder zuvor gesuchten Orten. Ask Maps rollt in den USA und in Indien auf Android und iOS aus, der Desktop folgt später.

Immersive Navigation verwandelt das Fahrerlebnis mit einer 3D-Ansicht, die umliegende Gebäude, Brücken und Gelände widerspiegelt. Gemini analysiert Street View-Bilder und Luftaufnahmen, um kritische Details anzuzeigen: Fahrspuren, Zebrastreifen, Ampeln, Stoppschilder. Die Funktion bietet außerdem natürlichsprachige Sprachanweisungen (z. B. „Nehmen Sie diese Ausfahrt und dann die nächste Richtung Illinois 43 South“), Informationen zu Kompromissen zwischen alternativen Routen (Maut vs. Verkehr) und Echtzeit-Warnungen zu Störungen. Immersive Navigation wird ab heute in den USA auf unterstützten iOS- und Android-Geräten, CarPlay, Android Auto und Fahrzeugen mit integriertem Google ausgerollt.

🔗 Ask Maps und Immersive Navigation: Neue KI-Funktionen in Google Maps


GitHub Copilot : automatische Modellauswahl GA in JetBrains

12. März — GitHub hat die Generally Available (GA) Verfügbarkeit der automatischen Modellauswahl für GitHub Copilot in allen JetBrains-Entwicklungsumgebungen (IntelliJ IDEA, PyCharm, WebStorm usw.) für alle Copilot-Abonnements angekündigt.

Der “Auto”-Modus wählt dynamisch das am besten geeignete Modell für die Aufgabe, unter Berücksichtigung der Durchsatzbegrenzungen. Entwickler behalten vollständige Transparenz: Beim Überfahren der Antwort sehen sie, welches Modell verwendet wurde, und können jederzeit auf ein bestimmtes Modell umschalten. Die Abrechnung erfolgt nach dem tatsächlich gewählten Modell, mit aktuellen Multiplikatoren zwischen 0x und 1x.

GitHub kündigt an, dass die automatische Auswahl nach und nach intelligenter wird und Modelle anhand des genauen Aufgabenkontexts (Code-Generierung, Review, Chat usw.) auswählt. Diese Funktion war bereits als Preview in JetBrains und in GA in VS Code verfügbar.

🔗 Copilot Auto-Modellauswahl GA in JetBrains IDEs


GitHub Copilot CLI : Sitzungsverlauf in SQLite

11. März — GitHub Copilot CLI integriert nun eine lokale SQLite-Datenbank, um die Historie Ihrer Terminal-Sitzungen zu speichern. Konkret: Wenn Sie vor einigen Tagen eine Lösung in der Kommandozeile erarbeitet haben, kann Ihnen Copilot CLI diese Lösung wieder anbieten — ohne dass Sie Shell-History oder Notizen durchsuchen müssen. Diese Funktion ist Teil von Phase 2 der GA-Verfügbarkeit von GitHub Copilot CLI, zugänglich über gh copilot.

🔗 GitHub Copilot CLI


Perplexity Computer öffnet sich für Pro-Abonnenten

12. März — Perplexity Computer, der Agent, der mehrstufige Workflows im Web, in Dateien und mit angeschlossenen Tools ausführen kann, ist jetzt für Pro-Abonnenten verfügbar.

Bisher auf Max-Abonnenten und Enterprise-Kunden beschränkt, bietet Perplexity Computer Zugriff auf mehr als 20 fortgeschrittene Modelle, vordefinierte und anpassbare Skills sowie Hunderte von Konnektoren. Max-Abonnenten behalten Vorteile bei monatlichen Credits und höheren Ausgabenlimits.

🔗 Perplexity Computer


Perplexity Computer for Enterprise : 1,6 Mio. $ Einsparung in vier Wochen

12. März — Perplexity hat einen ausführlichen Beitrag über die Einführung von Perplexity Computer for Enterprise veröffentlicht, das ab sofort für Enterprise-Kunden verfügbar ist.

Computer for Enterprise integriert sich in bereits genutzte Unternehmenswerkzeuge: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub und mehr als 400 weitere via Konnektoren. Es routet jede Aufgabe an das am besten geeignete Modell aus rund zwanzig Alternativen und erlaubt Teams, an ihre internen Prozesse angepasste Skills zu definieren.

ÉquipeCas d’usage
FinanceDue-Diligence-Tracking bei M&A, Dokumentenanalyse und Risiko-Reporting
JuridiqueÜberprüfung von Lieferantenverträgen, Versionsvergleich, Vertragsannotationen (Redlining)
MarketingKampagnenerstellung (Kreatives, Social-Posts, Landingpages) + Performance-Dashboard

Perplexity teilte Zahlen aus einer internen Studie mit mehr als 16.000 Anfragen: Computer sparte 1,6 Millionen US-Dollar an Arbeitskosten und erledigte das Äquivalent von 3,25 Arbeitsjahren in vier Wochen. Die Lösung ist SOC 2 Type II zertifiziert, mit SAML SSO und isolierter Ausführung pro Aufgabe.

🔗 Perplexity Computer for Enterprise


ElevenLabs Flows : ein Canvas zur Vereinigung von Bild, Video und Audio

11. März — ElevenLabs hat Flows eingeführt, einen node-basierten Editor, integriert in ElevenCreative. Auf einem einzigen Canvas können Creator Bildgenerierung, Video, Text-to-Speech, Lip-Sync, Musik und Soundeffekte verketten und kombinieren.

Dieser Ansatz erinnert an die Workflows von ComfyUI, ist jedoch auf das multimodale Ökosystem von ElevenLabs angewendet, wobei alle Audio- und Videomodelle des Studios an einem Ort zugänglich sind.

🔗 Einführung von Flows in ElevenCreative


ElevenLabs Music Finetunes : stilistische Konsistenz bei Musikgenerierung

12. März — ElevenLabs hat die Music Finetunes in ElevenCreative gestartet. Mit dieser Funktion können Creator einzelne Stimmen, Instrumente oder komplette Tracks generieren und dabei stilistische Kohärenz bewahren, dank einer feinabgestimmten Version des musikalischen Modells von ElevenLabs.

🔗 Einführung der Music Finetunes in ElevenCreative


BFL FLUX.2 [klein] 9B : Bildbearbeitung 2× schneller

12. März — Black Forest Labs (BFL) hat ein bedeutendes Update für sein Modell FLUX.2 [klein] 9B angekündigt: Die Bildbearbeitung ist jetzt 2× schneller, insbesondere wenn mehrere Referenzbilder verwendet werden.

DétailValeur
ModèleFLUX.2 [klein] 9B
Amélioration2× plus rapide à l’édition
Cas d’usage renforcéRéférences multiples
PrixInchangé
PoidsHuggingFace (black-forest-labs/FLUX.2-klein-9b-kv)

Das Upgrade ist für bestehende FLUX.2 [klein] 9B-Nutzer via API automatisch und kostenlos verfügbar. Die Nutzer des Modells [klein] 4B können über einen neuen Endpoint in der Vorabversion auf die verbesserte 9B-Version zugreifen.

🔗 BFL-Ankündigung auf X


Mistral AI Now Summit: Paris, 28. Mai 2026

12. März — Mistral AI kündigt sein erstes Flaggschiff-Event an: den “AI Now Summit”, einen Tag, der der KI-Transformation von Unternehmen gewidmet ist, geplant für den 28. Mai 2026 in Paris.

ThemaBeschreibung
Open Source für UnternehmenOpen Source als Grundlage für durchgängige KI-Transformationen
In Produktion bringenVom Pilotprojekt zu großflächigen Deployments
KI-InfrastrukturAufbau einer Infrastruktur auf Unternehmensniveau
Innovationen 2026Robotik, Vision-Language-Modelle (VLMs), multimodale KI

Die Veranstaltung bringt Führungskräfte aus aller Welt zusammen. Anmeldungen sind noch nicht geöffnet; eine Warteliste ist auf ainowsummit.com verfügbar.

🔗 AI Now Summit auf X


Was das bedeutet

Der Tag des 12. März verdeutlicht zwei zusammenlaufende Trends. Einerseits werden generalistische KI-Assistenten — Claude, Perplexity, Google Maps — um Fähigkeiten erweitert, die die Reibung zwischen Frage und nutzbarer Antwort verringern: kein Code mehr schreiben, um ein Diagramm zu sehen; keine Neuformulierung mehr nötig, um ein Restaurant zu finden. Andererseits erhalten Entwickler neue programmatische Bausteine: die Video API von OpenAI öffnet die Videogenerierung für automatisierte Workflows, und Claude Code verfeinert sich weiter für Enterprise-Umgebungen (Bedrock, SSL-Proxies, plattformübergreifend Windows/macOS).

Der Ramp AI Index bestätigt, dass sich diese Entwicklung in realen Käufen niederschlägt: mit ~70% Marktanteil bei neuen Unternehmen ist Anthropic nicht mehr nur eine Alternative zu OpenAI — es ist zum Standard-Einstiegspunkt geworden. Der Wettbewerb entscheidet sich jetzt über die Qualität der Integrationen und die Zuverlässigkeit in der Produktion, nicht mehr allein über die Modellstärke.


Quellen

Dieses Dokument wurde mithilfe des Modells gpt-5-mini aus der fr-Version in die Sprache en übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator