Suchen

Grok in den Niederlanden verboten, Gemini 3.1 Flash Live, native Plugins für Codex

Das Bezirksgericht Amsterdam verbietet xAI, mit Grok nicht einvernehmliche sexuelle Bilder zu erzeugen, unter Androhung von €100.000 pro Tag. Am selben Tag stellt Google Gemini 3.1 Flash Live für Echtzeit-Audiogespräche in über 90 Sprachen vor, OpenAI integriert native Plugins in Codex (Slack, Figma, Notion, Gmail) und Anthropic veröffentlicht einen technischen Blogbeitrag zur Konstruktion des Auto-Modus von Claude Code. Cohere, Mistral und Suno komplettieren eine ereignisreiche Ankündigungswoche.


xAI: Gericht in Amsterdam verbietet Grok-Nacktbilder

27. März — Das Bezirksgericht Amsterdam hat eine Entscheidung gegen xAI getroffen und ihm untersagt, in den Niederlanden Bilder sexueller Natur ohne Einwilligung zu erzeugen oder zu verbreiten. Bei Nichtbefolgung droht eine Geldstrafe von €100.000 pro Tag, begrenzt auf €10 Millionen.

Die Entscheidung folgt auf eine gemeinsame Beschwerde der niederländischen NGO Offlimits und des Victims Support Fund. Laut dem Center for Countering Digital Hate (CCDH) hat Grok 3 Millionen sexualisierte Bilder in 11 Tagen erzeugt, davon 23.000 mit Minderjährigen. Offlimits hebt hervor, dass Grok die geografische Lage der dargestellten Person nicht berücksichtigt, was dem System eine weltweite Reichweite verleiht.

Die Entscheidung fällt am selben Tag wie die Abstimmung des Europäischen Parlaments über ein Verbot KI-generierter sexueller Deepfakes — ein starkes Signal regulatorischer Konvergenz. Es ist das erste dieser Art in Europa, das sich direkt gegen xAI richtet.

🔗 CNBC: Niederländisches Gericht verbietet Grok AI Nacktbilder 🔗 The Record Media: Niederländisches Gericht droht xAI mit Geldstrafen


Gemini 3.1 Flash Live: Echtzeit-Audio in 90+ Sprachen

26. März — Google stellt Gemini 3.1 Flash Live vor, sein multimodales Modell für Echtzeit-Gespräche. Es unterstützt Audio, Bilder, Video und Text mit einem Kontextfenster von 128.000 tokens und beherrscht über 90 Sprachen.

Gegenüber der vorherigen Generation kann das Modell doppelt so lange Konversationen führen, Hintergrund- und Umgebungsgeräusche besser handhaben, Systemanweisungen komplexer und präziser befolgen und externe Tools während des Gesprächs zuverlässiger auslösen. Alle generierten Audios werden mit SynthID markiert.

FunktionDetail
Kontextfenster128.000 tokens
Sprachen90+
Konversationen2× länger als zuvor
WatermarkingSynthID auf allen Audios

Verfügbarkeit: über die Live API in Google AI Studio (Entwickler), über Gemini Live und Search Live (Nutzer, 200+ Länder) und über Vertex AI (Unternehmen). Search Live erweitert ebenfalls seinen Zugriff auf mehr als 200 Länder und Gebiete, mit Video-Unterstützung über Google Lens.

🔗 Offizielle Ankündigung von Google


Gemini: Import von Erinnerungen und Chatverläufen aus ChatGPT und Claude

26. März — Google führt ein Import-Tool in der Gemini-App ein, um die Migration von anderen KI-Assistenten zu erleichtern.

Zwei Funktionen sind verfügbar:

  1. Import von Erinnerungen (“Add Memory”): Gemini schlägt einen Prompt vor, der in ChatGPT, Claude oder Copilot eingegeben wird. Die generierte Antwort (Zusammenfassung der vom anderen Assistenten gespeicherten persönlichen Daten) wird in Gemini eingefügt, das daraus Präferenzen, Interessen, Standortinformationen etc. extrahiert.

  2. Import von Chatverläufen (“Import Chats”): Hochladen einer Datei .zip, exportiert aus ChatGPT oder Claude, bis zu 5 GB. Frühere Gespräche werden durchsuchbar und können in Gemini fortgesetzt werden.

🔗 Blog Google: Wechsel zu Gemini


Gemini CLI v0.35.2: Subagents standardmäßig, verbesserter Vim-Modus — und eingeschränkter Pro-Zugang

25–26. März — Die stabile Version v0.35.2 der Gemini CLI bringt mehrere bemerkenswerte Funktionen.

FunktionBeschreibung
Subagents standardmäßig aktiviertParallelisierter Aufgabenplaner + Code-Splitting
Anpassbare TastenkürzelUnterstützung für Keybindings, literale Zeichen, Kitty-Protokoll
Verbesserter Vim-ModusMotions X, ~, r, f/F/t/T ; Copy-Paste mit unnamed-Register
Vereinheitlichter SandboxManagerIsolation von Tools mit bubblewrap/seccomp unter Linux
JIT-KontextentdeckungOptimiertes Laden für Filesystem-Tools
Native gRPC-UnterstützungNative Integration und Protokoll-Routing

Wichtige Richtlinienänderung: Ab dem 25. März haben Gratisnutzer nur noch Zugriff auf Gemini Flash. Der Zugang zu Gemini Pro ist zahlenden Abonnenten (Pro und Ultra) vorbehalten. Die Reaktion der Community fällt überwiegend negativ aus. Google verstärkt zudem Abuse-Detection: die Nutzung der OAuth-Authentifizierung der Gemini CLI mit Drittsoftware kann nun zu Einschränkungen führen.

🔗 Changelog Gemini CLI 🔗 Community-Diskussion


Gemini Drop März 2026: Personal Intelligence kostenlos und Lyria 3 Pro

27. März — Das monatliche “Gemini Drops”-Update März 2026 stellt die in diesem Monat für die Gemini-App ausgerollten Neuerungen vor.

FunktionBeschreibungVerfügbarkeit
Personal Intelligence kostenlosVerbindung zu Gmail, Photos, YouTube zur Planung von Reisen/ProjektenKostenlos, USA
Verbesserte Gemini LiveBasierend auf Gemini 3.1 Flash Live, Kontext 2× längerAlle Nutzer
Import ChatGPT/ClaudeÜbertragung von Erinnerungen und VerläufenAlle Nutzer
Lyria 3 ProMusikproduktion bis zu 3 Minuten, Fotos → AnthèmesAbonnenten
Google TVVisuelle Antworten von Gemini und ErzählfunktionenGoogle TV

🔗 Gemini Drop März 2026


Codex: native Plugins für Slack, Figma, Notion und Gmail

26–27. März — OpenAI rollt Plugins als erstklassige Funktion in Codex aus. Entwickler können Codex mit den Tools verbinden, die sie täglich nutzen, ohne manuelle Konfiguration.

PluginAnwendungsfall
SlackNachrichten senden, Channels lesen
FigmaAuf Designs zugreifen, Code generieren
NotionSeiten lesen und schreiben
GmailE-Mails lesen und verfassen

Die Plugins synchronisieren sich beim Start von Codex automatisch und sind über den Befehl /plugins zugänglich. Installation und Deinstallation erfolgen direkt über die TUI-Oberfläche mit integrierter Authentifizierungsverwaltung.

Am 27. März veröffentlichte OpenAI eine Galerie praktischer Anwendungsfälle mit One-Click-Beispielen: iOS-Apps bauen, Datensätze analysieren, Berichte und Präsentationen erstellen. Das Changelog Codex v0.117.0 beschreibt technische Details, einschließlich der Unterstützung von Plugin-Erwähnungen in Prompts.

🔗 Plugin-Dokumentation Codex 🔗 Tweet @OpenAIDevs


Anthropic: Erklärung zur Konstruktion des Auto-Modus von Claude Code

26. März — Anthropic veröffentlichte einen technischen Blogbeitrag über die Konstruktion seines Auto-Modus (auto mode) in Claude Code, verfügbar im Engineering-Blog.

Das adressierte Problem: Claude-Code-Nutzer leiden unter einer Zustimmungsmüdigkeit (approval fatigue). Statistiken zeigen, dass 93 % der Erlaubnisanfragen akzeptiert werden — was nahelegt, dass eine teilweise Automatisierung möglich ist, ohne die Sicherheit zu opfern.

Die Lösung: zwei Schichten von Klassifikatoren

Der Auto-Modus beruht auf zwei Schutzebenen, die modellbasiert sind (Sonnet 4.6):

  1. Eingangsschicht: Eine Sonde zur Erkennung von Prompt-Injection (prompt injection probe) analysiert die Ergebnisse der Tools, bevor sie den Agenten erreichen.
  2. Ausgangsschicht: Ein Transkriptions-Klassifikator bewertet jede vorgeschlagene Aktion in einem zweistufigen Prozess vor ihrer Ausführung.
NiveauAktionstypBehandlung
Tier 1Sichere Tools (Dateilesen, Suche)Direkter Durchlauf, ohne Klassifikator
Tier 2Änderungen an ProjektdateienUmgehung des Klassifikators (überprüfbar via Versionskontrolle)
Tier 3Gefährliche Aktionen (Shell-Kommandos, externe Operationen)Volle Bewertung durch den Klassifikator

Leistungskennzahlen:

SchrittFalsch-Positiv-Rate (echter Verkehr)Falsch-Negativ-Rate (riskante Aktionen)
Schritt 1 (schnell)8,5 %6,6 %
Voller Pipeline0,4 %17 %

Die 0,4%-Falsch-Positiv-Rate der kompletten Pipeline bedeutet, dass der Auto-Modus nahezu nie fälschlich die Arbeit unterbricht. Die 17%-Falsch-Negativ-Rate spiegelt Fälle wider, in denen der Klassifikator eine Gefahr erkennt, aber den vom Nutzer gewährten Autorisierungsumfang falsch interpretiert.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇩🇪 Auf dem Engineering-Blog: wie wir den Auto-Modus von Claude Code entworfen haben. Viele Nutzer lassen Claude ohne Erlaubnisanfragen arbeiten. Der Auto-Modus ist ein sicherer Kompromiss: Wir haben Klassifikatoren gebaut und getestet, die die Genehmigungsentscheidungen an ihrer Stelle treffen.@AnthropicAI auf X

🔗 Claude Code auto mode: a safer way to skip permissions


GitHub Copilot: Merge-Konflikte lösen und Sichtbarkeit von Agenten

26. März — Zwei große Updates für GitHub Copilot verbessern den Team-Workflow.

Merge-Konfliktauflösung: Es ist jetzt möglich, @copilot in einem Pull-Request-Kommentar zu erwähnen, um ihn zur Lösung von Konflikten aufzufordern. Der Agent arbeitet in seiner Cloud-Umgebung, löst Konflikte, prüft Build und Tests und pusht dann die Änderungen. Verfügbar in allen kostenpflichtigen Copilot-Plänen (Business/Enterprise benötigt Admin-Aktivierung).

Sichtbarkeit der Agenten in Issues und Projects: Wenn ein Code-Agent (Copilot, Claude, Codex) einer Issue zugewiesen wird, erscheint seine Session unter dem Assignee in der Seitenleiste mit Live-Status — in der Warteschlange, in Arbeit, wartend auf Review, abgeschlossen. Sessions sind auch in den Table- und Board-Ansichten von Projects sichtbar (aktivierbar über “View menu > Show agent sessions”).

🔗 Copilot löst Merge-Konflikte 🔗 Agentenaktivität in Issues und Projects


GitHub: neues PR-Dashboard und Copilot for Jira

25–26. März — Zwei weitere Verbesserungen für Entwickler auf GitHub.

Pull-Request-Dashboard (öffentliche Preview): Ein neu gestaltetes Dashboard auf github.com/pulls zentralisiert PRs, die Aufmerksamkeit erfordern — angeforderte Reviews, notwendige Korrekturen, zum Mergen bereit. Gespeicherte benutzerdefinierte Ansichten, erweiterte Filter mit Autovervollständigung und Unterstützung für AND/OR-Abfragen runden die Oberfläche ab. Aktivierbar über die Feature-Preview-Einstellungen.

Copilot for Jira: Seit der öffentlichen Preview wurden mehrere Verbesserungen eingeführt: Modellauswahl direkt in Jira, automatische Einfügung der Jira-Ticketnummer in PR-Titel und Branch-Namen sowie Zugriff auf Confluence-Seiten über den Atlassian MCP-Server (konfigurierbar mit PAT).

🔗 Neues PR-Dashboard 🔗 Copilot for Jira Verbesserungen


Cohere Transcribe: Nr. 1 im Open-Source-ASR-Ranking

26. März — Cohere stellt Cohere Transcribe vor, sein erstes Modell für automatische Spracherkennung (Automatic Speech Recognition — ASR). Open-Source unter Apache-2.0-Lizenz, belegt es sofort Platz 1 im Open ASR-Ranking von Hugging Face für Englisch.

Das Modell basiert auf einer Fast-Conformer Transformer Encoder-Decoder-Architektur mit 2 Milliarden Parametern. Über 90 % der Parameter entfallen auf den Encoder, mit einem leichten Decoder, um autorregressives Rechnen zu minimieren und die Geschwindigkeit zu maximieren. Trainiert auf 500.000 Stunden Audio-Transkript-Paaren.

ModellMittlerer WER
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

Der WER (Word Error Rate — Wortfehlerrate) von 5,42 % bringt Cohere Transcribe an die Spitze. Die Inferenzgeschwindigkeit ist 3× höher als bei vergleichbaren Modellen. Unterstützt werden 14 Sprachen (darunter Französisch, Deutsch, Arabisch, Mandarin, Japanisch und Koreanisch).

Einschränkungen: Das Modell ist nicht für Code-Switching (Sprachwechsel innerhalb eines Audios) ausgelegt und kann nicht-vokale Geräusche transkribieren — es wird empfohlen, einen VAD-Filter (Voice Activity Detection) hinzuzufügen.

🔗 Cohere Blog: Transcribe 🔗 Modell auf Hugging Face


Suno v5.5: eigene Stimme, Custom-Modelle, adaptive Präferenzen

26. März — Suno veröffentlicht Version 5.5 seines Musikgenerators mit drei neuen personalisierungszentrierten Funktionen.

FunktionBeschreibungVerfügbarkeit
VoicesEigene gesungene Stimme erfassen und verwenden (bleibt privat)Alle Nutzer
Custom ModelsFine-Tuning aus eigenen Kompositionen, bis zu 3 ModellePro/Premier-Abonnenten
My TasteAdaptives Lernen von Genre- und StimmungspräferenzenAlle Nutzer

Diese Tools werden als Grundlage für die nächste Modellgeneration beschrieben, die in Partnerschaft mit der Musikindustrie entwickelt wird.

🔗 Suno Blog v5.5


Mistral Voxtral TTS: Stimmklon in 3 Sekunden, open-weight

23. März (Presseberichterstattung 26–27. März) — Mistral veröffentlicht Voxtral TTS, sein erstes open-weight Text-to-Speech-Modell. Das Modell voxtral-tts-2603 hat 4 Milliarden Parameter und unterstützt 9 Sprachen (Englisch, Französisch, Deutsch, Spanisch, Niederländisch, Portugiesisch, Italienisch, Hindi, Arabisch).

Die angegebene Latenz liegt bei 70 ms für eine typische Konfiguration (10 Sekunden Sample + 500 Zeichen). Das Stimmklonen funktioniert bereits ab 3 Sekunden Referenzaudio. In puncto Natürlichkeit gibt Mistral an, dass Voxtral ElevenLabs Flash v2.5 übertrifft und Parität mit ElevenLabs v3 erreicht. Das Modell kann auf einem Consumer-Laptop, einem Mittelklasse-GPU oder einem High-End-Mobilgerät laufen. Zugang : Modelgewichte verfügbar auf Hugging Face (Creative-Commons-Lizenz) und über die Mistral Studio API zu 0,016 Dollar pro 1.000 Zeichen. Voice-Mode-Integration im Le Chat verfügbar.

🔗 Ankündigung Mistral Voxtral


xAI : SuperGrok Lite für 10 Dollar/Monat und Video-Stories 15 Sekunden

25. März — xAI hat zwei Neuerungen rund um Grok angekündigt.

SuperGrok Lite : ein neuer Abonnementplan für 10 Dollar pro Monat, derzeit in begrenztem Test. Er umfasst Chat-Sitzungen, die doppelt so lang sind wie im kostenlosen Tarif, einen KI-Agenten und Videoerzeugung in 480p (maximal 6 Sekunden). Der Plan positioniert sich zwischen dem kostenlosen Level und SuperGrok Standard (30 Dollar pro Monat).

Video stories via Grok Imagine : Grok Imagine erzeugt jetzt „Video-Stories“ von 15 Sekunden in 720p mit synchronisiertem Audio, Hintergrundmusik und Soundeffekten. Elon Musk sagte, er wolle „den Einsatz auf Video verdoppeln“. Diese Ankündigung erfolgt im Kontext der Schließung von Sora durch OpenAI in derselben Woche.

🔗 Bloomberg : xAI setzt verstärkt auf KI-Videos


Kimi/Moonshot AI erwägt einen Börsengang in Hongkong

26. März — Moonshot AI, das chinesische Unternehmen hinter dem Modell Kimi, prüft einen Börsengang an der Börse in Hongkong, berichtet Bloomberg. Die beratenden Banken sollen CICC und Goldman Sachs sein, mit einer Zielbewertung von etwa 18 Milliarden Dollar und einer laufenden Finanzierung von bis zu 1 Milliarde Dollar. Zu den derzeitigen Anteilseignern gehören Alibaba, Tencent und 5Y Capital. Der Zeitplan für den IPO bleibt ungewiss.

🔗 Bloomberg : Moonshot erwägt Börsengang in Hongkong


NVIDIA GTC : proprietäre und offene KI widersprechen sich nicht

25. März — Im Rahmen der GTC 2026 haben NVIDIA und Branchenführer (Mistral, Perplexity, Cursor, Reflection AI, LangChain) betont, dass die Zukunft der KI in der Komplementarität von offenen und proprietären Modellen liegt. Jensen Huang fasste NVIDIAs Position so zusammen: „Proprietär versus offen ist kein Gegensatz. Es ist proprietär und offen.“

Der Blogbeitrag hebt den Bedarf an Multi-Modell-, Multi-Cloud- und multimodaler Orchestrierung für Unternehmen hervor. NVIDIA bestätigt sein Open-Source-Engagement, indem es zur größten Organisation auf Hugging Face wird.

🔗 Blog NVIDIA : Offene und proprietäre KI


Claude Code v2.1.85 et v2.1.84 : hooks conditionnels et PowerShell Windows

26.–27. März — Zwei neue Versionen von Claude Code wurden veröffentlicht.

v2.1.85 (27. März) : Einführung eines bedingten Feldes if in der Hook-Konfiguration, das es ermöglicht, einen Hook nur bei bestimmten Befehlen oder Dateien auszulösen. Außerdem: Umgebungsvariablen für MCP-Hilfsskripte, Zeitstempel in Transkriptionen für geplante Aufgaben, OAuth-Unterstützung konform zur RFC 9728, und die Möglichkeit für PreToolUse-Hooks, AskUserQuestion zu erfüllen, indem sie updatedInput zurückgeben.

v2.1.84 (~26. März) : PowerShell unter Windows als Vorschau (opt-in preview) als natives Tool verfügbar, Hook TaskCreated (ausgelöst bei Erstellung einer Aufgabe durch Claude), HTTP-Unterstützung für WorktreeCreate, und Rückprompt, das nach 75 Minuten Inaktivität angezeigt wird. Behebung eines Berechtigungsfehlers bei offiziellen plugin-Skripten unter macOS/Linux.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 verfügbar für alle Abonnenten des GLM Coding Plan

27. März — Z.ai (Zhipu) kündigt an, dass GLM-5.1 nun allen Abonnenten des GLM Coding Plan zur Verfügung steht, unabhängig vom Abonnementlevel (Lite, Pro oder Max).

🔗 PANews : GLM-5.1 Coding Plan


Genspark integriert Grok Imagine in seinen Genspark AI Video Agent

26. März — Genspark hat Grok Imagine (mehrbildige Videoerzeugung und Videoerweiterung) in seinen Genspark AI Video Agent integriert. Benutzer können bis zu 7 Bilder verwenden, um ein Video zu erstellen, oder ein bestehendes Video auf bis zu 10 Sekunden verlängern.

🔗 Tweet @genspark_ai


Meta SAM 3.1 : Verfolgung von 16 Objekten in Echtzeit, doppelte Geschwindigkeit

27. März — Meta veröffentlicht SAM 3.1, ein Update des Segment Anything Model 3 für die Erkennung und Verfolgung von Objekten in Videos in Echtzeit. Die zentrale Innovation ist das Objekt-Multiplexing : statt eines separaten Durchlaufs pro Objekt werden alle Objekte in einem einzigen Forward-Pass verarbeitet. Ergebnis: bis zu 16 Objekte gleichzeitig, mit einer Geschwindigkeit, die auf einem H100-GPU von 16 auf 32 Bilder pro Sekunde steigt — also das Doppelte — bei gleichzeitig deutlicher Reduzierung des Speicherverbrauchs.

Die Architektur basiert auf einem Mux-Demux Encoder/Decoder, der eine einzige Berechnung für alle Objekte teilt. Ein Mechanismus für globales Reasoning verbessert die Genauigkeit in Szenen mit vielen Elementen. SAM 3.1 ist ein direkter Ersatz (drop-in replacement) für SAM 3 — keine API-Änderungen erforderlich.

Das Modell wird als Open Source veröffentlicht: Checkpoint zum Download auf Hugging Face, Quellcode auf GitHub aktualisiert, Forschungspapier veröffentlicht und interaktive Demo verfügbar.

🔗 Blog Meta : SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta


Meta TRIBE v2 : ein digitaler Zwilling der menschlichen Gehirnaktivität

26. März — Meta veröffentlicht TRIBE v2, ein prädiktives Foundation-Modell, konzipiert als „digitaler Zwilling“ (digital twin) der neuronalen Aktivität. Das Modell sagt hochauflösende fMRI-Antworten auf nahezu jedes Geräusch, Bild oder jeden Text voraus, mit einer um den Faktor 70× höheren Auflösung als frühere Ansätze. Trainiert mit Daten von mehr als 700 Freiwilligen, funktioniert es im Zero-Shot-Modus (zero-shot) für neue Probanden, Sprachen und Aufgaben ohne erneutes Training. Ziel ist es, Neurowissenschaftlern zu ermöglichen, Hypothesen schnell ohne menschliche Experimente zu testen und die Forschung zu neurologischen Erkrankungen zu beschleunigen. Modell, Code und Forschungspapier werden unter der Lizenz CC BY-NC veröffentlicht.

🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta


Was das bedeutet

Die Entscheidung des Gerichts in Amsterdam markiert einen regulatorischen Wendepunkt : es ist das erste Mal, dass eine europäische Gerichtsbarkeit xAI direkt für von Grok erzeugte Inhalte verurteilt, mit einer abschreckenden Zwangsgeldandrohung. Kombiniert mit dem Votum des Europäischen Parlaments zu sexuellen Deepfakes am selben Tag, zeichnet sich ein rechtlicher Rahmen ab, der sich schrittweise für alle Anbieter generativer KI durchsetzen wird.

Auf der Seite der Entwickler-Tools illustriert die Woche den Wettlauf um Integration : Codex mit seinen nativen plugins, Copilot mit der Lösung von Merge-Konflikten und der Sichtbarkeit von Agenten in Issues/Projects, sowie Claude Code mit seinen bedingten Hooks. KI-Assistenten integrieren sich zunehmend tiefer in bestehende Workflows, anstatt diese zu ersetzen.

Die Einschränkung des Zugriffs auf Gemini Pro in der kostenlosen CLI ist ein Signal, dass die Phase der kostenlosen Großzügigkeit bei CLI-Tools zu schwinden beginnt. Gemini, wie zuvor GitHub Copilot, entwickelt sich in Richtung eines Freemium-Modells, in dem erweiterte Fähigkeiten ein Abonnement erfordern.

Schließlich bestätigt die erwogene IPO von Kimi in Hongkong mit 18 Milliarden Dollar die Attraktivität der Bewertungen im chinesischen KI-Sektor, während Mistral mit Voxtral TTS seine offenen Modelgewichte weiter als Alternative zu proprietären Diensten in der Sprachsynthese positioniert.


Quellen

Dieses Dokument wurde aus der fr-Version in die en-Sprache mithilfe des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator