Suchen

Claude integriert Figma/Canva auf Mobilgeräten und Claude Code startet 2,8x schneller, GitHub Copilot ändert seine Datenpolitik

Claude integriert Figma/Canva auf Mobilgeräten und Claude Code startet 2,8x schneller, GitHub Copilot ändert seine Datenpolitik

Die 25. und 26. März bringen mehrere grundlegende Ankündigungen von Anthropic: Claude integriert Figma, Canva und Amplitude als Arbeitswerkzeuge direkt in der mobilen App, und Claude Code startet dank 60 Tagen Bun-Optimierungen 2,8x schneller. GitHub Copilot ändert seine Richtlinie zur Nutzung von Interaktionsdaten mit einem Opt-out, das vor dem 24. April aktiviert werden muss. Google DeepMind bringt Lyria 3 Pro mit Musikgenerierung bis zu 3 Minuten auf den Markt, und NVIDIA gründet auf der GTC 2026 die Nemotron Coalition.


Claude: Arbeitswerkzeuge auf Mobilgeräten (Figma, Canva, Amplitude)

25. März — Claude integriert jetzt drei Arbeitswerkzeuge, die direkt aus der mobilen App zugänglich sind: Figma, Canva und Amplitude. Nutzer können damit Design-, Erstellungs- und Analyse-Workflows von ihrem Telefon aus steuern, ohne die Claude-Oberfläche zu verlassen.

Die Ankündigung auf X, begleitet von einem Demonstrationsvideo, erzielte 1,9 Millionen Aufrufe in wenigen Stunden — ein Hinweis darauf, dass die Integration professioneller Tools in die mobile Oberfläche eine starke Nachfrage trifft.

🔗 Ankündigung @claudeai auf X


Claude Code: Start 2,8x schneller, Agent SDK 5,1x

24. März — Nach 60 Tagen Optimierungen durch Jarred Sumner (Schöpfer von Bun, von Anthropic im Dezember 2025 übernommen) startet Claude Code nun 2,8x schneller, und das Agent SDK zeigt eine 5,1x höhere Leistung.

Diese Verbesserungen sind das Ergebnis von Low-Level-Arbeiten am in Claude Code integrierten Bun-Runtime — Optimierungen beim Start, Speicherverwaltung und der initialen Reaktionszeit. Von Brian Cherny (@bcherny, Claude Code Team) geteilte technische Threads veranschaulichen konkret, was die Integration von Bun ins Claude-Tooling bringt.

🔗 Thread @jarredsumner auf X


GitHub Copilot: Opt-out für Interaktionsdaten vor dem 24. April

25. März — Mario Rodriguez, Produktleiter bei GitHub, kündigt ein Update der Richtlinie zur Nutzung von Interaktionsdaten von Copilot an. Ab dem 24. April 2026 wird GitHub die Interaktionsdaten von Copilot-Nutzern (Free, Pro und Pro+) — Eingaben, Ausgaben, Codeausschnitte und zugehöriger Kontext — zur Schulung und Verbesserung seiner KI-Modelle verwenden.

Betroffene Nutzer können das Teilen dieser Daten in ihren Kontoeinstellungen vor diesem Datum deaktivieren. Abonnenten von Copilot Business und Copilot Enterprise sind von dieser Änderung nicht betroffen — ihre Daten bleiben durch bestehende vertragliche Vereinbarungen vom Training ausgeschlossen.

PlanVon dieser Änderung betroffenOpt-out verfügbar
Copilot FreeJaJa
Copilot ProJaJa
Copilot Pro+JaJa
Copilot BusinessNein
Copilot EnterpriseNein

Der Stichtag ist der 24. April: Nutzer, die das Teilen nicht vor diesem Datum deaktiviert haben, tragen ab dann zu den Trainingsdaten bei.

🔗 Aktualisierung der Richtlinie zur Datennutzung von GitHub Copilot 🔗 Ankündigung auf X


Lyria 3 Pro: Musiktitel bis zu 3 Minuten mit musikalischer Architektur

25. März — Google DeepMind stellt Lyria 3 Pro vor, eine erweiterte Version des Musikkonsumgenerationsmodells Lyria 3, das im Vormonat erschienen ist. Die wichtigste Neuerung: die Fähigkeit, Titel von bis zu 3 Minuten zu erzeugen, statt 30 Sekunden bei der vorherigen Generation — ein Faktor 6.

Das Modell enthält jetzt eine musikalische Architektur — Intros, Strophen, Refrains, Bridges — wodurch es möglich wird, Stücke mit kohärenten Übergängen und ausgefeilten Strukturen zu produzieren. Prompts können als Ausgangspunkt Text, Bilder oder Videos akzeptieren.

PlattformZugangStatus
Anwendung GeminiBezahlende AbonnentenVerfügbar
Google AI Studio + API GeminiEntwicklerVerfügbar mit Lyria RealTime
Vertex AIUnternehmenÖffentliche Preview
Google VidsWorkspace + AI Pro/UltraRollout in der Woche des 25. März
ProducerAIKostenlos und bezahltAgenten-ähnliche Erfahrung für Musiker

Lyria 3 Pro wurde vom Produzenten Yung Spielburg für den Kurzfilm von Google DeepMind “Dear Upstairs Neighbors” verwendet, und eine Zusammenarbeit mit dem DJ François K für einen kommenden Track wurde angekündigt.

🔗 Offizieller Google-Blog — Lyria 3 Pro 🔗 Ankündigung auf X


NVIDIA Nemotron Coalition: offene Frontier-Foundation-Modelle

25. März — Anlässlich der NVIDIA GTC 2026 kündigt Jensen Huang die Gründung der NVIDIA Nemotron Coalition an, eine weltweite Koalition von Modellherstellern, die der Entwicklung offener Foundation-Modelle auf Frontier-Niveau gewidmet ist.

Das erste konkrete Projekt der Koalition wird ein gemeinsam entwickeltes Basis-Modell von Mistral AI und NVIDIA sein, wobei Mitglieder Daten, Evaluierungen und Domänenexpertise beitragen. Zu den Panelisten der GTC-Session gehören Mira Murati (Thinking Machines Lab), Aravind Srinivas (Perplexity), Arthur Mensch (Mistral), Robin Rombach (Black Forest Labs) sowie Vertreter von Cursor und Ai2.

Einige während der Veranstaltung hervorgehobene Zahlen:

  • NVIDIA ist jetzt die größte Organisation auf Hugging Face mit etwa 4.000 Mitgliedern
  • Die Nemotron-Modelle wurden über 45 Millionen Mal heruntergeladen

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇩🇪 Die Unterscheidung zwischen proprietär und offen existiert eigentlich nicht. Es ist proprietär und offen.Jensen Huang, NVIDIA GTC 2026

🔗 NVIDIA-Blog — The Future of AI Is Open and Proprietary


OpenAI: Hintergründe zum Model Spec und den zugehörigen Evaluierungen

25. März — OpenAI veröffentlicht eine ausführliche Erklärung zu seinem Vorgehen rund um das Model Spec — dem öffentlichen Rahmen, der definiert, wie seine Modelle sich verhalten sollen. Der Beitrag, verfasst von Jason Wolfe (Forscher bei OpenAI), erläutert die Philosophie, Struktur und Mechanismen der Weiterentwicklung.

Das Model Spec ist um mehrere klar unterscheidbare Ebenen herum strukturiert:

EbeneBeschreibung
Öffentliche Absichten und VerpflichtungenHochrangige Ziele: iteratives Deployment, Vermeidung schwerer Schäden
Befehlskette (Chain of Command)Regeln zur Lösung von Konflikten zwischen Anweisungen von OpenAI, Entwicklern und Nutzern
Strikte Regeln (Hard rules)Unveränderliche Grenzen: katastrophale Risiken, körperliche Schäden, illegale Inhalte
StandardverhaltenAusgangspunkte, die von Entwicklern und Nutzern konfigurierbar sind
InterpretationshilfenEntscheidungsregeln und Beispiele für mehrdeutige Fälle

Der zentrale Unterschied: die strikten Regeln sind nicht umgehbar (Root-Level), während das Standardverhalten konfigurierbar ist — das ermöglicht maximale Freiheit der Nutzer im Rahmen der Sicherheitsgrenzen.

OpenAI argumentiert, dass eine ausreichend fortgeschrittene KI nicht einfach aus allgemeinen Zielen wie „nützlich und sicher sein“ das richtige Verhalten ableiten kann: solche Formulierungen sind zu kontextabhängig und erfordern Wertabwägungen. Das Model Spec dient als internes Ziel, als Transparenzinstrument und als Koordinationsmechanismus zwischen Teams.

Parallel veröffentlicht OpenAI die Model Spec Evals — eine Suite von Evaluierungen mit Szenarien, die versuchen, die Aussagen des Model Spec mit repräsentativen Beispielen abzudecken, um Abweichungen zwischen dem realen Modellverhalten und der Spezifikation zu messen.

🔗 Einblick in unseren Ansatz zum Model Spec 🔗 Ankündigung auf X


Genspark Realtime Voice: freihändiger Sprachassistent

25. März — Genspark stellt Realtime Voice vor, einen freihändigen Echtzeit-Sprachassistenten. Der hervorgehobene Use-Case beim Launch ist die Nutzung im Auto während des Pendelns.

Zu den angekündigten Funktionen gehören Kalenderprüfung, Versenden von E-Mails und Nachrichten, Informationsrecherche und Erstellen von Playlists für die Fahrt. Der Assistent kann zudem Präsentationen (slides) generieren, tiefgehende Recherchen (deep research) durchführen und Daten analysieren — alles per Sprache.

🔗 Ankündigung auf X


OpenAI Safety Bug Bounty: Meldung von KI-Risiken

25. März — OpenAI startet ein Bug Bounty-Programm, das speziell der KI-Sicherheit gewidmet ist, getrennt vom bestehenden klassischen IT-Sicherheitsprogramm. Dieses neue Programm akzeptiert Meldungen zu Missbrauchsrisiken, die nicht notwendigerweise traditionelle Software-Schwachstellen sind.

Kategorie im UmfangBeispiele
Agentenrisiken (inkl. MCP)Fremde Prompt-Injektion, Exfiltration durch Agenten, unautorisierte großangelegte Aktionen
Proprietäre OpenAI-InformationenGenerierung, die proprietäre Begründungsinformationen offenlegt
Integrität von Konten und PlattformenUmgehung von Anti-Automatisierungs-Kontrollen, Manipulation von Vertrauenssignalen

Klassische Jailbreaks bleiben außerhalb des Umfangs. OpenAI präzisiert außerdem, dass es gelegentliche private Kampagnen zu bestimmten Schadensarten durchführt — zum Beispiel Bio-Risiken in ChatGPT Agent und GPT-5.

🔗 Vorstellung des OpenAI Safety Bug Bounty Programms


Codex Creator Challenge: Studentenwettbewerb mit 10.000 $ in Credits

25. März — OpenAI und Handshake starten die Codex Creator Challenge, einen Wettbewerb für Studierende zur Erstellung realer Projekte mit Codex. Zu gewinnen gibt es 10.000 $ an OpenAI-API-Credits. Die Herausforderung lädt Studierende ein, mit den Codex-Tools zu experimentieren und konkrete Anwendungen zu bauen.

🔗 Tweet @OpenAIDevs auf X


ElevenLabs: Guardrails 2.0 in ElevenAgents, zertifiziert AIUC-1

24. März — ElevenLabs rollt Guardrails 2.0 in seiner Plattform ElevenAgents aus. Diese Sicherheitsschicht ermöglicht die Steuerung des Verhaltens von Agenten in Produktion mittels kundenspezifischer Geschäftsregeln oder vorkonfigurierter Schutzmechanismen: Themenbindung (on-topic), Marken-Kohärenz (on-brand), Manipulationsresistenz.

Guardrails 2.0 ist zertifiziert als AIUC-1 (AI Use Case standard) und beinhaltet Funktionen zum Datenschutz, zur Protokollierung des Gesprächsverlaufs und zum Monitoring nach dem Deployment.

🔗 Ankündigung auf X


PrismAudio: Open-Source Video-zu-Audio-Modell von Tongyi Lab (Alibaba)

24. März — Tongyi Lab von Alibaba veröffentlicht PrismAudio, ein Video-zu-Audio-Modell (Video-to-Audio). Im Gegensatz zu klassischen V2A-Ansätzen, die alles mit einer einzigen Loss-Funktion optimieren, verwendet PrismAudio eine “Decomposed Multi-CoT”-Architektur mit drei separaten spezialisierten Köpfen — jeder fokussiert auf einen unterschiedlichen Aspekt der Audiogenerierung.

Das Modell wird mit Multi-Dimensional RL und Fast-GRPO trainiert, um die Audioerzeugung an menschliche Präferenzen auszurichten. Ressourcen (Modell, Demo, arXiv-Paper) werden über HuggingFace, ModelScope und eine Projektseite veröffentlicht.

🔗 Ankündigung auf X


Claude Code v2.1.83: zentrale Verwaltung der Enterprise-Settings

25. März — Version 2.1.83 von Claude Code führt das Drop-in-Verzeichnis managed-settings.d/ ein, das für Enterprise-Administratoren gedacht ist. Dieses Verzeichnis ermöglicht Organisationen die zentrale Verwaltung der Claude Code-Einstellungen, indem Konfigurationsdateien abgelegt werden, die für alle Arbeitsplätze der Deployment-Umgebung gelten.

🔗 CHANGELOG Claude Code


Kling AI Team Plan: Zusammenarbeit für bis zu 15 Mitglieder

24. März — Kling AI führt den Team Plan ein, einen kollaborativen Plan, der Teams mit bis zu 15 Mitgliedern das gemeinsame Arbeiten auf der Plattform ermöglicht. Der Plan beinhaltet gemeinsame Assets und kommerziellen Gebrauch der Kreationen.

🔗 Ankündigung @Kling_ai auf X


Manus Desktop: Credits halbiert bis zum 30. März

24. März — Manus bietet eine zeitlich begrenzte Aktion für seine Desktop-Anwendung: vom 24. bis 30. März 2026 verbraucht jeder ausgeführte Task 50 % weniger Credits. Bestehende Credits sind damit für alle Tasks, die während dieses Zeitraums über Manus Desktop ausgeführt werden, doppelt so viel wert.

🔗 Ankündigung auf X


NVIDIA stellt seinen DRA GPU-Treiber der Kubernetes-Community zur Verfügung

24. März — Am Rande der NVIDIA GTC 2026 kündigt NVIDIA die Spende seines Dynamic Resource Allocation (DRA) GPU-Treibers an die Kubernetes-Community an. Dieser Beitrag ist Teil von NVIDIAs Open-Source-Engagement und erleichtert die dynamische Zuweisung von GPU-Ressourcen in Kubernetes-Umgebungen.

🔗 NVIDIA-Blog — AI Future Open and Proprietary


Was das bedeutet

Die beiden Anthropic-Ankündigungen dieser Periode ergänzen sich: Die mobile Integration von Figma, Canva und Amplitude rückt Claude näher an tägliche professionelle Workflows, während die Startverbesserungen von Claude Code (2,8x) und des Agent SDK (5,1x) die Erfahrung der Entwickler, die es kontinuierlich nutzen, konkret verbessern. Diese beiden Achsen — massentaugliche mobile Nutzung und Entwickler-Performance — illustrieren Anthropics doppelte Ausrichtung.

Die Entscheidung von GitHub Copilot zur Nutzung von Interaktionsdaten ist für Einzelentwickler am folgenreichsten: Erstmals könnten die Interaktionen von Nutzern der öffentlichen Pläne (Free, Pro, Pro+) potenziell für das Training verwendet werden. Ein Opt-out ist möglich, muss aber vor dem 24. April aktiviert werden — diese kurze Frist ist bemerkenswert.

Die Nemotron Coalition von NVIDIA ist ein starkes Signal für die Open-Source-Strategie der Branche. Indem NVIDIA Mistral, Black Forest Labs, Cursor und andere in einer formalen Koalition zur Entwicklung von Frontier-Level-Modellen zusammenbringt, positioniert NVIDIA Open Source nicht mehr nur als Alternative zu proprietären Modellen, sondern als gleichwertige, komplementäre Kategorie. Jensens Huang Aussage — “proprietary and open”, nicht “versus” — fasst diese Neuausrichtung gut zusammen. Lyria 3 Pro bestätigt, dass die Musikgenerierung sich in Richtung produktionsfähiger Formate entwickelt: 3 Minuten mit einer kohärenten Struktur (Intros, Strophen, Refrains) verändern die Art des Anwendungsfalls, indem sie von experimentellen Ausschnitten zu vollständigen Stücken übergehen. Die Verfügbarkeit auf mehreren Google-Plattformen bereits in der Woche der Veröffentlichung beschleunigt die Verbreitung.

Die Veröffentlichung der Model Spec Evals durch OpenAI — eine Reihe von Bewertungen, die Abweichungen zwischen dem Verhalten des Modells und der schriftlichen Spezifikation messen — ist bemerkenswert: Sie ist einer der ersten öffentlichen Versuche, die Ausrichtung eines Modells an seinen eigenen Verhaltensregeln objektiv zu messen.


Quellen

Dieses Dokument wurde mit dem Modell gpt-5-mini von der fr-Version in die Sprache en übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator