Das Bezirksgericht Amsterdam verbietet xAI, mit Grok nicht einvernehmliche sexuelle Bilder zu erzeugen, unter Androhung von €100.000 pro Tag. Am selben Tag stellt Google Gemini 3.1 Flash Live für Echtzeit-Audiogespräche in über 90 Sprachen vor, OpenAI integriert native Plugins in Codex (Slack, Figma, Notion, Gmail) und Anthropic veröffentlicht einen technischen Blogbeitrag zur Konstruktion des Auto-Modus von Claude Code. Cohere, Mistral und Suno komplettieren eine ereignisreiche Ankündigungswoche.
xAI: Gericht in Amsterdam verbietet Grok-Nacktbilder
27. März — Das Bezirksgericht Amsterdam hat eine Entscheidung gegen xAI getroffen und ihm untersagt, in den Niederlanden Bilder sexueller Natur ohne Einwilligung zu erzeugen oder zu verbreiten. Bei Nichtbefolgung droht eine Geldstrafe von €100.000 pro Tag, begrenzt auf €10 Millionen.
Die Entscheidung folgt auf eine gemeinsame Beschwerde der niederländischen NGO Offlimits und des Victims Support Fund. Laut dem Center for Countering Digital Hate (CCDH) hat Grok 3 Millionen sexualisierte Bilder in 11 Tagen erzeugt, davon 23.000 mit Minderjährigen. Offlimits hebt hervor, dass Grok die geografische Lage der dargestellten Person nicht berücksichtigt, was dem System eine weltweite Reichweite verleiht.
Die Entscheidung fällt am selben Tag wie die Abstimmung des Europäischen Parlaments über ein Verbot KI-generierter sexueller Deepfakes — ein starkes Signal regulatorischer Konvergenz. Es ist das erste dieser Art in Europa, das sich direkt gegen xAI richtet.
🔗 CNBC: Niederländisches Gericht verbietet Grok AI Nacktbilder 🔗 The Record Media: Niederländisches Gericht droht xAI mit Geldstrafen
Gemini 3.1 Flash Live: Echtzeit-Audio in 90+ Sprachen
26. März — Google stellt Gemini 3.1 Flash Live vor, sein multimodales Modell für Echtzeit-Gespräche. Es unterstützt Audio, Bilder, Video und Text mit einem Kontextfenster von 128.000 tokens und beherrscht über 90 Sprachen.
Gegenüber der vorherigen Generation kann das Modell doppelt so lange Konversationen führen, Hintergrund- und Umgebungsgeräusche besser handhaben, Systemanweisungen komplexer und präziser befolgen und externe Tools während des Gesprächs zuverlässiger auslösen. Alle generierten Audios werden mit SynthID markiert.
| Funktion | Detail |
|---|---|
| Kontextfenster | 128.000 tokens |
| Sprachen | 90+ |
| Konversationen | 2× länger als zuvor |
| Watermarking | SynthID auf allen Audios |
Verfügbarkeit: über die Live API in Google AI Studio (Entwickler), über Gemini Live und Search Live (Nutzer, 200+ Länder) und über Vertex AI (Unternehmen). Search Live erweitert ebenfalls seinen Zugriff auf mehr als 200 Länder und Gebiete, mit Video-Unterstützung über Google Lens.
🔗 Offizielle Ankündigung von Google
Gemini: Import von Erinnerungen und Chatverläufen aus ChatGPT und Claude
26. März — Google führt ein Import-Tool in der Gemini-App ein, um die Migration von anderen KI-Assistenten zu erleichtern.
Zwei Funktionen sind verfügbar:
-
Import von Erinnerungen (“Add Memory”): Gemini schlägt einen Prompt vor, der in ChatGPT, Claude oder Copilot eingegeben wird. Die generierte Antwort (Zusammenfassung der vom anderen Assistenten gespeicherten persönlichen Daten) wird in Gemini eingefügt, das daraus Präferenzen, Interessen, Standortinformationen etc. extrahiert.
-
Import von Chatverläufen (“Import Chats”): Hochladen einer Datei
.zip, exportiert aus ChatGPT oder Claude, bis zu 5 GB. Frühere Gespräche werden durchsuchbar und können in Gemini fortgesetzt werden.
🔗 Blog Google: Wechsel zu Gemini
Gemini CLI v0.35.2: Subagents standardmäßig, verbesserter Vim-Modus — und eingeschränkter Pro-Zugang
25–26. März — Die stabile Version v0.35.2 der Gemini CLI bringt mehrere bemerkenswerte Funktionen.
| Funktion | Beschreibung |
|---|---|
| Subagents standardmäßig aktiviert | Parallelisierter Aufgabenplaner + Code-Splitting |
| Anpassbare Tastenkürzel | Unterstützung für Keybindings, literale Zeichen, Kitty-Protokoll |
| Verbesserter Vim-Modus | Motions X, ~, r, f/F/t/T ; Copy-Paste mit unnamed-Register |
| Vereinheitlichter SandboxManager | Isolation von Tools mit bubblewrap/seccomp unter Linux |
| JIT-Kontextentdeckung | Optimiertes Laden für Filesystem-Tools |
| Native gRPC-Unterstützung | Native Integration und Protokoll-Routing |
Wichtige Richtlinienänderung: Ab dem 25. März haben Gratisnutzer nur noch Zugriff auf Gemini Flash. Der Zugang zu Gemini Pro ist zahlenden Abonnenten (Pro und Ultra) vorbehalten. Die Reaktion der Community fällt überwiegend negativ aus. Google verstärkt zudem Abuse-Detection: die Nutzung der OAuth-Authentifizierung der Gemini CLI mit Drittsoftware kann nun zu Einschränkungen führen.
🔗 Changelog Gemini CLI 🔗 Community-Diskussion
Gemini Drop März 2026: Personal Intelligence kostenlos und Lyria 3 Pro
27. März — Das monatliche “Gemini Drops”-Update März 2026 stellt die in diesem Monat für die Gemini-App ausgerollten Neuerungen vor.
| Funktion | Beschreibung | Verfügbarkeit |
|---|---|---|
| Personal Intelligence kostenlos | Verbindung zu Gmail, Photos, YouTube zur Planung von Reisen/Projekten | Kostenlos, USA |
| Verbesserte Gemini Live | Basierend auf Gemini 3.1 Flash Live, Kontext 2× länger | Alle Nutzer |
| Import ChatGPT/Claude | Übertragung von Erinnerungen und Verläufen | Alle Nutzer |
| Lyria 3 Pro | Musikproduktion bis zu 3 Minuten, Fotos → Anthèmes | Abonnenten |
| Google TV | Visuelle Antworten von Gemini und Erzählfunktionen | Google TV |
Codex: native Plugins für Slack, Figma, Notion und Gmail
26–27. März — OpenAI rollt Plugins als erstklassige Funktion in Codex aus. Entwickler können Codex mit den Tools verbinden, die sie täglich nutzen, ohne manuelle Konfiguration.
| Plugin | Anwendungsfall |
|---|---|
| Slack | Nachrichten senden, Channels lesen |
| Figma | Auf Designs zugreifen, Code generieren |
| Notion | Seiten lesen und schreiben |
| Gmail | E-Mails lesen und verfassen |
Die Plugins synchronisieren sich beim Start von Codex automatisch und sind über den Befehl /plugins zugänglich. Installation und Deinstallation erfolgen direkt über die TUI-Oberfläche mit integrierter Authentifizierungsverwaltung.
Am 27. März veröffentlichte OpenAI eine Galerie praktischer Anwendungsfälle mit One-Click-Beispielen: iOS-Apps bauen, Datensätze analysieren, Berichte und Präsentationen erstellen. Das Changelog Codex v0.117.0 beschreibt technische Details, einschließlich der Unterstützung von Plugin-Erwähnungen in Prompts.
🔗 Plugin-Dokumentation Codex 🔗 Tweet @OpenAIDevs
Anthropic: Erklärung zur Konstruktion des Auto-Modus von Claude Code
26. März — Anthropic veröffentlichte einen technischen Blogbeitrag über die Konstruktion seines Auto-Modus (auto mode) in Claude Code, verfügbar im Engineering-Blog.
Das adressierte Problem: Claude-Code-Nutzer leiden unter einer Zustimmungsmüdigkeit (approval fatigue). Statistiken zeigen, dass 93 % der Erlaubnisanfragen akzeptiert werden — was nahelegt, dass eine teilweise Automatisierung möglich ist, ohne die Sicherheit zu opfern.
Die Lösung: zwei Schichten von Klassifikatoren
Der Auto-Modus beruht auf zwei Schutzebenen, die modellbasiert sind (Sonnet 4.6):
- Eingangsschicht: Eine Sonde zur Erkennung von Prompt-Injection (prompt injection probe) analysiert die Ergebnisse der Tools, bevor sie den Agenten erreichen.
- Ausgangsschicht: Ein Transkriptions-Klassifikator bewertet jede vorgeschlagene Aktion in einem zweistufigen Prozess vor ihrer Ausführung.
| Niveau | Aktionstyp | Behandlung |
|---|---|---|
| Tier 1 | Sichere Tools (Dateilesen, Suche) | Direkter Durchlauf, ohne Klassifikator |
| Tier 2 | Änderungen an Projektdateien | Umgehung des Klassifikators (überprüfbar via Versionskontrolle) |
| Tier 3 | Gefährliche Aktionen (Shell-Kommandos, externe Operationen) | Volle Bewertung durch den Klassifikator |
Leistungskennzahlen:
| Schritt | Falsch-Positiv-Rate (echter Verkehr) | Falsch-Negativ-Rate (riskante Aktionen) |
|---|---|---|
| Schritt 1 (schnell) | 8,5 % | 6,6 % |
| Voller Pipeline | 0,4 % | 17 % |
Die 0,4%-Falsch-Positiv-Rate der kompletten Pipeline bedeutet, dass der Auto-Modus nahezu nie fälschlich die Arbeit unterbricht. Die 17%-Falsch-Negativ-Rate spiegelt Fälle wider, in denen der Klassifikator eine Gefahr erkennt, aber den vom Nutzer gewährten Autorisierungsumfang falsch interpretiert.
“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”
🇩🇪 Auf dem Engineering-Blog: wie wir den Auto-Modus von Claude Code entworfen haben. Viele Nutzer lassen Claude ohne Erlaubnisanfragen arbeiten. Der Auto-Modus ist ein sicherer Kompromiss: Wir haben Klassifikatoren gebaut und getestet, die die Genehmigungsentscheidungen an ihrer Stelle treffen. — @AnthropicAI auf X
🔗 Claude Code auto mode: a safer way to skip permissions
GitHub Copilot: Merge-Konflikte lösen und Sichtbarkeit von Agenten
26. März — Zwei große Updates für GitHub Copilot verbessern den Team-Workflow.
Merge-Konfliktauflösung: Es ist jetzt möglich, @copilot in einem Pull-Request-Kommentar zu erwähnen, um ihn zur Lösung von Konflikten aufzufordern. Der Agent arbeitet in seiner Cloud-Umgebung, löst Konflikte, prüft Build und Tests und pusht dann die Änderungen. Verfügbar in allen kostenpflichtigen Copilot-Plänen (Business/Enterprise benötigt Admin-Aktivierung).
Sichtbarkeit der Agenten in Issues und Projects: Wenn ein Code-Agent (Copilot, Claude, Codex) einer Issue zugewiesen wird, erscheint seine Session unter dem Assignee in der Seitenleiste mit Live-Status — in der Warteschlange, in Arbeit, wartend auf Review, abgeschlossen. Sessions sind auch in den Table- und Board-Ansichten von Projects sichtbar (aktivierbar über “View menu > Show agent sessions”).
🔗 Copilot löst Merge-Konflikte 🔗 Agentenaktivität in Issues und Projects
GitHub: neues PR-Dashboard und Copilot for Jira
25–26. März — Zwei weitere Verbesserungen für Entwickler auf GitHub.
Pull-Request-Dashboard (öffentliche Preview): Ein neu gestaltetes Dashboard auf github.com/pulls zentralisiert PRs, die Aufmerksamkeit erfordern — angeforderte Reviews, notwendige Korrekturen, zum Mergen bereit. Gespeicherte benutzerdefinierte Ansichten, erweiterte Filter mit Autovervollständigung und Unterstützung für AND/OR-Abfragen runden die Oberfläche ab. Aktivierbar über die Feature-Preview-Einstellungen.
Copilot for Jira: Seit der öffentlichen Preview wurden mehrere Verbesserungen eingeführt: Modellauswahl direkt in Jira, automatische Einfügung der Jira-Ticketnummer in PR-Titel und Branch-Namen sowie Zugriff auf Confluence-Seiten über den Atlassian MCP-Server (konfigurierbar mit PAT).
🔗 Neues PR-Dashboard 🔗 Copilot for Jira Verbesserungen
Cohere Transcribe: Nr. 1 im Open-Source-ASR-Ranking
26. März — Cohere stellt Cohere Transcribe vor, sein erstes Modell für automatische Spracherkennung (Automatic Speech Recognition — ASR). Open-Source unter Apache-2.0-Lizenz, belegt es sofort Platz 1 im Open ASR-Ranking von Hugging Face für Englisch.
Das Modell basiert auf einer Fast-Conformer Transformer Encoder-Decoder-Architektur mit 2 Milliarden Parametern. Über 90 % der Parameter entfallen auf den Encoder, mit einem leichten Decoder, um autorregressives Rechnen zu minimieren und die Geschwindigkeit zu maximieren. Trainiert auf 500.000 Stunden Audio-Transkript-Paaren.
| Modell | Mittlerer WER |
|---|---|
| Cohere Transcribe | 5,42 |
| Zoom Scribe v1 | 5,47 |
| IBM Granite 4.0 1B | 5,52 |
| NVIDIA Canary Qwen 2.5B | 5,63 |
| OpenAI Whisper Large v3 | 7,44 |
Der WER (Word Error Rate — Wortfehlerrate) von 5,42 % bringt Cohere Transcribe an die Spitze. Die Inferenzgeschwindigkeit ist 3× höher als bei vergleichbaren Modellen. Unterstützt werden 14 Sprachen (darunter Französisch, Deutsch, Arabisch, Mandarin, Japanisch und Koreanisch).
Einschränkungen: Das Modell ist nicht für Code-Switching (Sprachwechsel innerhalb eines Audios) ausgelegt und kann nicht-vokale Geräusche transkribieren — es wird empfohlen, einen VAD-Filter (Voice Activity Detection) hinzuzufügen.
🔗 Cohere Blog: Transcribe 🔗 Modell auf Hugging Face
Suno v5.5: eigene Stimme, Custom-Modelle, adaptive Präferenzen
26. März — Suno veröffentlicht Version 5.5 seines Musikgenerators mit drei neuen personalisierungszentrierten Funktionen.
| Funktion | Beschreibung | Verfügbarkeit |
|---|---|---|
| Voices | Eigene gesungene Stimme erfassen und verwenden (bleibt privat) | Alle Nutzer |
| Custom Models | Fine-Tuning aus eigenen Kompositionen, bis zu 3 Modelle | Pro/Premier-Abonnenten |
| My Taste | Adaptives Lernen von Genre- und Stimmungspräferenzen | Alle Nutzer |
Diese Tools werden als Grundlage für die nächste Modellgeneration beschrieben, die in Partnerschaft mit der Musikindustrie entwickelt wird.
Mistral Voxtral TTS: Stimmklon in 3 Sekunden, open-weight
23. März (Presseberichterstattung 26–27. März) — Mistral veröffentlicht Voxtral TTS, sein erstes open-weight Text-to-Speech-Modell. Das Modell voxtral-tts-2603 hat 4 Milliarden Parameter und unterstützt 9 Sprachen (Englisch, Französisch, Deutsch, Spanisch, Niederländisch, Portugiesisch, Italienisch, Hindi, Arabisch).
Die angegebene Latenz liegt bei 70 ms für eine typische Konfiguration (10 Sekunden Sample + 500 Zeichen). Das Stimmklonen funktioniert bereits ab 3 Sekunden Referenzaudio. In puncto Natürlichkeit gibt Mistral an, dass Voxtral ElevenLabs Flash v2.5 übertrifft und Parität mit ElevenLabs v3 erreicht. Das Modell kann auf einem Consumer-Laptop, einem Mittelklasse-GPU oder einem High-End-Mobilgerät laufen. Zugang : Modelgewichte verfügbar auf Hugging Face (Creative-Commons-Lizenz) und über die Mistral Studio API zu 0,016 Dollar pro 1.000 Zeichen. Voice-Mode-Integration im Le Chat verfügbar.
xAI : SuperGrok Lite für 10 Dollar/Monat und Video-Stories 15 Sekunden
25. März — xAI hat zwei Neuerungen rund um Grok angekündigt.
SuperGrok Lite : ein neuer Abonnementplan für 10 Dollar pro Monat, derzeit in begrenztem Test. Er umfasst Chat-Sitzungen, die doppelt so lang sind wie im kostenlosen Tarif, einen KI-Agenten und Videoerzeugung in 480p (maximal 6 Sekunden). Der Plan positioniert sich zwischen dem kostenlosen Level und SuperGrok Standard (30 Dollar pro Monat).
Video stories via Grok Imagine : Grok Imagine erzeugt jetzt „Video-Stories“ von 15 Sekunden in 720p mit synchronisiertem Audio, Hintergrundmusik und Soundeffekten. Elon Musk sagte, er wolle „den Einsatz auf Video verdoppeln“. Diese Ankündigung erfolgt im Kontext der Schließung von Sora durch OpenAI in derselben Woche.
🔗 Bloomberg : xAI setzt verstärkt auf KI-Videos
Kimi/Moonshot AI erwägt einen Börsengang in Hongkong
26. März — Moonshot AI, das chinesische Unternehmen hinter dem Modell Kimi, prüft einen Börsengang an der Börse in Hongkong, berichtet Bloomberg. Die beratenden Banken sollen CICC und Goldman Sachs sein, mit einer Zielbewertung von etwa 18 Milliarden Dollar und einer laufenden Finanzierung von bis zu 1 Milliarde Dollar. Zu den derzeitigen Anteilseignern gehören Alibaba, Tencent und 5Y Capital. Der Zeitplan für den IPO bleibt ungewiss.
🔗 Bloomberg : Moonshot erwägt Börsengang in Hongkong
NVIDIA GTC : proprietäre und offene KI widersprechen sich nicht
25. März — Im Rahmen der GTC 2026 haben NVIDIA und Branchenführer (Mistral, Perplexity, Cursor, Reflection AI, LangChain) betont, dass die Zukunft der KI in der Komplementarität von offenen und proprietären Modellen liegt. Jensen Huang fasste NVIDIAs Position so zusammen: „Proprietär versus offen ist kein Gegensatz. Es ist proprietär und offen.“
Der Blogbeitrag hebt den Bedarf an Multi-Modell-, Multi-Cloud- und multimodaler Orchestrierung für Unternehmen hervor. NVIDIA bestätigt sein Open-Source-Engagement, indem es zur größten Organisation auf Hugging Face wird.
🔗 Blog NVIDIA : Offene und proprietäre KI
Claude Code v2.1.85 et v2.1.84 : hooks conditionnels et PowerShell Windows
26.–27. März — Zwei neue Versionen von Claude Code wurden veröffentlicht.
v2.1.85 (27. März) : Einführung eines bedingten Feldes if in der Hook-Konfiguration, das es ermöglicht, einen Hook nur bei bestimmten Befehlen oder Dateien auszulösen. Außerdem: Umgebungsvariablen für MCP-Hilfsskripte, Zeitstempel in Transkriptionen für geplante Aufgaben, OAuth-Unterstützung konform zur RFC 9728, und die Möglichkeit für PreToolUse-Hooks, AskUserQuestion zu erfüllen, indem sie updatedInput zurückgeben.
v2.1.84 (~26. März) : PowerShell unter Windows als Vorschau (opt-in preview) als natives Tool verfügbar, Hook TaskCreated (ausgelöst bei Erstellung einer Aufgabe durch Claude), HTTP-Unterstützung für WorktreeCreate, und Rückprompt, das nach 75 Minuten Inaktivität angezeigt wird. Behebung eines Berechtigungsfehlers bei offiziellen plugin-Skripten unter macOS/Linux.
🔗 Tweet @lydiahallie — v2.1.85
Z.ai GLM-5.1 verfügbar für alle Abonnenten des GLM Coding Plan
27. März — Z.ai (Zhipu) kündigt an, dass GLM-5.1 nun allen Abonnenten des GLM Coding Plan zur Verfügung steht, unabhängig vom Abonnementlevel (Lite, Pro oder Max).
🔗 PANews : GLM-5.1 Coding Plan
Genspark integriert Grok Imagine in seinen Genspark AI Video Agent
26. März — Genspark hat Grok Imagine (mehrbildige Videoerzeugung und Videoerweiterung) in seinen Genspark AI Video Agent integriert. Benutzer können bis zu 7 Bilder verwenden, um ein Video zu erstellen, oder ein bestehendes Video auf bis zu 10 Sekunden verlängern.
Meta SAM 3.1 : Verfolgung von 16 Objekten in Echtzeit, doppelte Geschwindigkeit
27. März — Meta veröffentlicht SAM 3.1, ein Update des Segment Anything Model 3 für die Erkennung und Verfolgung von Objekten in Videos in Echtzeit. Die zentrale Innovation ist das Objekt-Multiplexing : statt eines separaten Durchlaufs pro Objekt werden alle Objekte in einem einzigen Forward-Pass verarbeitet. Ergebnis: bis zu 16 Objekte gleichzeitig, mit einer Geschwindigkeit, die auf einem H100-GPU von 16 auf 32 Bilder pro Sekunde steigt — also das Doppelte — bei gleichzeitig deutlicher Reduzierung des Speicherverbrauchs.
Die Architektur basiert auf einem Mux-Demux Encoder/Decoder, der eine einzige Berechnung für alle Objekte teilt. Ein Mechanismus für globales Reasoning verbessert die Genauigkeit in Szenen mit vielen Elementen. SAM 3.1 ist ein direkter Ersatz (drop-in replacement) für SAM 3 — keine API-Änderungen erforderlich.
Das Modell wird als Open Source veröffentlicht: Checkpoint zum Download auf Hugging Face, Quellcode auf GitHub aktualisiert, Forschungspapier veröffentlicht und interaktive Demo verfügbar.
🔗 Blog Meta : SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta
Meta TRIBE v2 : ein digitaler Zwilling der menschlichen Gehirnaktivität
26. März — Meta veröffentlicht TRIBE v2, ein prädiktives Foundation-Modell, konzipiert als „digitaler Zwilling“ (digital twin) der neuronalen Aktivität. Das Modell sagt hochauflösende fMRI-Antworten auf nahezu jedes Geräusch, Bild oder jeden Text voraus, mit einer um den Faktor 70× höheren Auflösung als frühere Ansätze. Trainiert mit Daten von mehr als 700 Freiwilligen, funktioniert es im Zero-Shot-Modus (zero-shot) für neue Probanden, Sprachen und Aufgaben ohne erneutes Training. Ziel ist es, Neurowissenschaftlern zu ermöglichen, Hypothesen schnell ohne menschliche Experimente zu testen und die Forschung zu neurologischen Erkrankungen zu beschleunigen. Modell, Code und Forschungspapier werden unter der Lizenz CC BY-NC veröffentlicht.
🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta
Was das bedeutet
Die Entscheidung des Gerichts in Amsterdam markiert einen regulatorischen Wendepunkt : es ist das erste Mal, dass eine europäische Gerichtsbarkeit xAI direkt für von Grok erzeugte Inhalte verurteilt, mit einer abschreckenden Zwangsgeldandrohung. Kombiniert mit dem Votum des Europäischen Parlaments zu sexuellen Deepfakes am selben Tag, zeichnet sich ein rechtlicher Rahmen ab, der sich schrittweise für alle Anbieter generativer KI durchsetzen wird.
Auf der Seite der Entwickler-Tools illustriert die Woche den Wettlauf um Integration : Codex mit seinen nativen plugins, Copilot mit der Lösung von Merge-Konflikten und der Sichtbarkeit von Agenten in Issues/Projects, sowie Claude Code mit seinen bedingten Hooks. KI-Assistenten integrieren sich zunehmend tiefer in bestehende Workflows, anstatt diese zu ersetzen.
Die Einschränkung des Zugriffs auf Gemini Pro in der kostenlosen CLI ist ein Signal, dass die Phase der kostenlosen Großzügigkeit bei CLI-Tools zu schwinden beginnt. Gemini, wie zuvor GitHub Copilot, entwickelt sich in Richtung eines Freemium-Modells, in dem erweiterte Fähigkeiten ein Abonnement erfordern.
Schließlich bestätigt die erwogene IPO von Kimi in Hongkong mit 18 Milliarden Dollar die Attraktivität der Bewertungen im chinesischen KI-Sektor, während Mistral mit Voxtral TTS seine offenen Modelgewichte weiter als Alternative zu proprietären Diensten in der Sprachsynthese positioniert.
Quellen
- CNBC : Niederländisches Gericht verbietet Grok AI Nacktbilder
- The Record Media : Niederländisches Gericht droht xAI mit Bußgeldern
- Al Jazeera : Niederländisches Gericht verbietet xAIs Grok die Erstellung nicht-einvernehmlicher Nacktbilder
- Blog Google : Gemini 3.1 Flash Live
- Blog Google : Gemini 3.1 Flash Live für Entwickler
- Blog Google : Wechsel zu Gemini
- Blog Google : Gemini Drop März 2026
- Änderungsprotokoll Gemini CLI
- Diskussion zur Richtlinie Gemini CLI
- TechCrunch : Gemini importiert ChatGPT/Claude
- Codex plugin-Dokumentation
- Tweet @OpenAIDevs — plugins
- Anthropic Engineering : Claude Code Automodus
- Tweet @AnthropicAI — auto mode
- GitHub Changelog : Copilot löst Merge-Konflikte bei Pull Requests
- GitHub Changelog : Agentenaktivität in Issues und Projects
- GitHub Changelog : PR-Dashboard
- GitHub Changelog : Copilot for Jira
- Cohere-Blog : Transcribe
- Hugging Face : Cohere Transcribe
- TechCrunch : Cohere Transcribe
- Suno-Blog v5.5
- Mistral Voxtral TTS
- TechCrunch : Mistral Voxtral
- Bloomberg : xAI setzt verstärkt auf Videos
- Bloomberg : Moonshot IPO Hongkong
- NVIDIA-Blog GTC : Offene und proprietäre KI
- Tweet @lydiahallie — Claude Code v2.1.85
- PANews : GLM-5.1 Coding Plan
- Tweet @genspark_ai
- Meta-Blog : SAM 3.1
- GitHub SAM 3
- Tweet @AIatMeta — SAM 3.1
- Meta-Blog : TRIBE v2
- Tweet @AIatMeta — TRIBE v2
Dieses Dokument wurde aus der fr-Version in die en-Sprache mithilfe des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator