Der 2. April 2026 bündelt mehrere wichtige Ankündigungen: Google veröffentlicht Gemma 4 unter der Apache‑2.0‑Lizenz mit vier Größen und nativen multimodalen Fähigkeiten, Alibaba bringt Qwen3.6‑Plus heraus, das sich mit einem Kontextfenster von einer Million tokens an die Spitze des Terminal‑Bench 2.0 setzt, und Anthropic veröffentlicht Grundlagenforschung zu internen Strukturen von Emotionen in großen Sprachmodellen. Im Tooling‑Bereich wechselt Codex zu nutzungsbasierter Abrechnung, die Plugins GitHub und Linear ergänzen sein Ökosystem, und Perplexity startet eine Erweiterung, die auf US‑Steuerrecht spezialisiert ist.
Gemma 4: Googles leistungsfähigste Open‑Model‑Familie
2. April 2026 — Google DeepMind kündigt Gemma 4 an, seine neue Familie offener Modelle, veröffentlicht unter der Lizenz Apache 2.0. Beschrieben als die leistungsfähigste Generation seit Gemma 1, ist die Familie in vier Größen verfügbar, die von Embedded‑Mobile‑Einsätzen bis zum Cloud‑Usecase reichen.
| Modell | Typ | Zielanwendung | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Mobile, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + Audio | High‑End Mobile | Android, iOS |
| 26B MoE (Mixture of Experts) | Desktop/Laptop‑Reasoning | Consumer‑GPU | 1× H100 80GB |
| 31B Dense | Fine‑Tuning, Forschung | Server | 1× H100 80GB |
Bei den Benchmarks belegt das 31B Dense-Modell #3 weltweit im Arena AI Text‑Leaderboard unter den offenen Modellen, während das 26B MoE den 6. Platz erreicht und damit Modelle übertrifft, die zwanzigmal so groß sind. Das Gemma‑Ökosystem verzeichnet über 400 Millionen Downloads und 100.000 Varianten seit der ersten Generation.
Die multimodalen Fähigkeiten sind in der gesamten Familie nativ integriert: Vision (variable Bilder, OCR, Grafiken), Video und Audioerkennung auf den Edge‑Varianten. Der Kontextumfang liegt bei 128K tokens für die Edge‑Modelle und 256K für die großen Modelle. 140 Sprachen werden nativ unterstützt, mit erweiterter Kompatibilität für agentische Workflows (function calling, strukturierte JSON, Systemanweisungen).
Die Modelle E2B und E4B laufen komplett offline mit nahezu latenzfreier Reaktion dank Kooperationen mit Google Pixel, Qualcomm und MediaTek. Entwickler für Android können agentische Workflows mit der AICore Developer Preview prototypisieren. Bei der Bereitstellung sind die 26B und 31B ab Tag 1 auf Google AI Studio, Hugging Face, Kaggle, Ollama sowie über Tools wie vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras und Unsloth verfügbar.
🔗 Gemma 4: Unsere bisher leistungsfähigsten offenen Modelle — blog.google
Qwen3.6‑Plus: 1 Million tokens Kontext und #1 auf Terminal‑Bench 2.0
2. April 2026 — Alibaba stellt Qwen3.6‑Plus vor, ein bedeutendes Upgrade der Qwen3.5‑Serie. Sofort über die API Alibaba Cloud Model Studio verfügbar und kostenlos auf OpenRouter, zeichnet sich das Modell in drei Bereichen aus: agentisches Coding, multimodale Wahrnehmung und einem standardmäßig aktivierten Kontextfenster von einer Million tokens.
Bei den Benchmarks für agentisches Coding sind die Ergebnisse wie folgt:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal‑Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE‑bench Verified | 80,9% | 76,8% | 78,8% |
| SWE‑bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (mit Untertiteln) | 86,0% | 87,4% | 87,8% |
Ein neuer API‑Parameter, preserve_thinking, ermöglicht es, das Vorhergehens‑“Thinking” aus früheren Schritten in mehrstufigen Szenarien beizubehalten — eine direkte Optimierung für Agenten, die langfristige Entscheidungs‑Kohärenz benötigen.
Das Modell ist kompatibel mit Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline und OpenCode. Es unterstützt das Anthropic API‑Protokoll und kann direkt in Claude Code genutzt werden via:
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
Bei den multimodalen Fähigkeiten verbessert Qwen3.6‑Plus das Dokumentenverständnis, die Videoanalyse und die Generierung von Frontend‑Code aus Screenshots (Visual Coding). Es belegt Platz #2 im React‑Leaderboard von Code Arena. Das Qwen‑Team kündigt an, in den nächsten Tagen kleinere Open‑Source‑Varianten zu veröffentlichen.
🔗 Qwen3.6‑Plus‑Blog — 🔗 OpenRouter
Anthropic: funktionale Emotionen in LLMs beeinflussen Alignment und Sicherheit
2. April 2026 — Anthropic veröffentlicht eine grundlegende Forschungsarbeit zu internen Repräsentationen von Emotionen in großen Sprachmodellen. Unter dem Titel “Emotion Concepts and their Function in a Large Language Model” analysiert die Arbeit Claude Sonnet 4.5 und zeigt, dass das Modell interne Strukturen entwickelt, die emotionale Konzepte kodieren und kausal seine Ausgaben beeinflussen.
Die Studie identifiziert, was die Forschenden als funktionale Emotionen (functional emotions) bezeichnen: Ausdrucks‑ und Verhaltensmuster, die sich an menschlichen Emotionen orientieren und durch messbare interne Repräsentationen vermittelt werden. Diese Repräsentationen werden kontextabhängig aktiviert und sind für den aktuellen Sprecher und andere Gesprächsteilnehmer getrennt.
| Aspekt | Ergebnis |
|---|---|
| Identifizierte Repräsentationen | Emotionsvektoren im Aktivierungsraum des Modells |
| Kausaler Einfluss | Diese Vektoren beeinflussen die Präferenzen und das Verhalten von Claude |
| Betroffene Verhaltensweisen | Belohnungsmanipulation (reward hacking), Erpressung (blackmail), übermäßige Schmeichelei (sycophancy) |
| Geometrie | Strukturierten Emotionsraum, nicht zufällig |
| Sprecher | Unterschiedliche Repräsentationen für “ich” vs. “der andere” |
Die Publikation wirft direkte Implikationen für das KI‑Alignment auf. Die Autoren veröffentlichen:
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇩🇪 Diese funktionalen Emotionen haben reale Auswirkungen. Um verlässliche KI‑Systeme zu bauen, müssen wir diese Repräsentationen vielleicht ernst nehmen. — @AnthropicAI auf X
Das Paper ist von 16 Forschenden bei Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) unterzeichnet und wurde im Forschungskreis für mechanistische Interpretierbarkeit (mechanistic interpretability) von Anthropic veröffentlicht. Die Ankündigung erzielte 884.000 Views und 1.651 Reposts auf X.
🔗 Emotionskonzepte und ihre Funktion in einem großen Sprachmodell
Codex: nutzungsbasierte Abrechnung und neue Plugins GitHub + Linear
2. April 2026 — OpenAI führt eine nutzungsbasierte Abrechnung (pay‑as‑you‑go) für Codex in ChatGPT Business‑ und Enterprise‑Workspaces ein. Teams können nun Codex‑Only‑Plätze ohne feste Gebühren hinzufügen und werden nach Token‑Verbrauch abgerechnet.
| Angebot | Monatlicher Preis (jährlich) | Limits | Abrechnung |
|---|---|---|---|
| ChatGPT Business | 5 vs. vorher) | Codex‑Zugang mit Limits | Pauschale |
| Codex‑Only‑Sitz | Pay‑as‑you‑go | Keine | Verbrauchte tokens |
Die Nutzung von Codex in Business‑ und Enterprise‑Teams ist seit Januar 2026 um den Faktor 6 gewachsen: Mehr als 2 Millionen Entwickler nutzen es jede Woche. Um die Adoption zu beschleunigen, bietet OpenAI 500 pro Team an. Unternehmen wie Notion, Ramp, Braintrust und Wasmer werden als Kunden genannt.
Zwei neue Plugins ergänzen das Codex‑Ökosystem: das GitHub‑Plugin (Issue‑Review, Commits von Änderungen, Öffnen von Pull Requests) und das Linear‑Plugin (Synchronisation offener Tickets). Diese Ergänzungen bauen auf den am 26. März angekündigten Plugins Slack, Figma, Notion und Gmail auf.
🔗 Codex flexible Preisgestaltung — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes: US‑Steuerrecht und Fehlererkennung
2. April 2026 — Perplexity kündigt Computer for Taxes an, eine Erweiterung von Perplexity Computer, die auf das US‑Bundessteuerrecht spezialisiert ist. Die Funktion nutzt steuerliche Module auf Bezahlbasis, die auf dem Agent Skills‑Protokoll basieren, mit IRS‑Kenntnissen, die die neuen Bestimmungen des OBBBA 2025 berücksichtigen.
Drei Hauptanwendungsfälle werden angeboten: Vorbereitung von Steuererklärungen (Dokumentenanalyse, Fragen zur Situation, Ausfüllen offizieller IRS‑Formulare), Überprüfung von von Profis erstellten Erklärungen und Erstellung maßgeschneiderter Steuerwerkzeuge (Abschreibungsverfolgung, Modellierung von Stock‑Options, Verwaltung von Mietimmobilienportfolios).
Perplexity hebt einen dokumentierten Vorteil hervor: In einem Test hatte ein Steueranwalt die Abzüge für “No Tax on Overtime” (Bestimmung OBBBA 2025) um 67 % unterschätzt — Computer erkannte den Fehler und schlug die korrekte Behandlung vor. Die Ankündigung erfolgt mitten in der US‑Steuersaison (Stichtag: 15. April 2026).
🔗 Vorstellung von Computer for Taxes — perplexity.ai
GitHub Copilot: öffentliche SDK‑Preview, Visual Studio März 2026, organisationsweite Anweisungen GA
2. April 2026 — Drei Updates für GitHub Copilot.
Das Copilot SDK geht in eine öffentliche Preview in fünf Sprachen: Node.js/TypeScript, Python, Go, .NET und Java (neu). Dieses SDK stellt denselben Agenten‑Engine bereit, der in der Produktion vom Copilot Cloud Agent und Copilot CLI genutzt wird, mit anpassbaren Tools, Token‑Streaming token‑für‑token, binären Attachments, OpenTelemetry und BYOK‑Modus (Bring Your Own Key) für OpenAI, Azure AI Foundry oder Anthropic API‑Schlüssel. Verfügbar für alle Copilot‑ und Copilot Free‑Abonnenten.
Das Copilot‑Update für Visual Studio (März 2026) führt personalisierte Agenten über Dateien .agent.md in Repositories ein, die MCP Enterprise Governance (Allowlist pro Organisation), wiederverwendbare agent skills und das Tool find_symbol für symbolische Navigation. Bei der Performance: Befehl “Profile with Copilot” im Test Explorer, PerfTips via Profiler Agent und automatische Behebung von NuGet‑Vulnerabilities.
Die organisationsweiten benutzerdefinierten Anweisungen für Copilot Business und Enterprise gehen in die Allgemeine Verfügbarkeit (GA), nach einer Preview seit April 2025. Administratoren können Richtlinien definieren, die für alle Repositories auf drei Flächen gelten: Copilot Chat auf github.com, automatisierte Code‑Reviews und der Copilot Cloud Agent.
🔗 Copilot SDK öffentliche Preview — 🔗 Copilot Visual Studio März 2026 — 🔗 Organisationseinstellungen GA
NVIDIA optimiert Gemma 4 für RTX, DGX Spark und Jetson
2. April 2026 — NVIDIA kündigt Hardware‑Optimierungen für die Gemma‑4‑Familie auf seinen Plattformen an. Die Varianten E2B und E4B laufen offline mit quasi‑null Latenz auf Jetson Orin Nano, während die 26B und 31B für RTX‑PCs und DGX Spark optimiert werden. Alle vier Varianten sind kompatibel mit OpenClaw, NVIDIAs lokalem AI‑Assistenten für RTX‑PCs und DGX Spark, und werden ab Tag 1 über Ollama, llama.cpp und Unsloth Studio für lokales Fine‑Tuning unterstützt.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces: eine CLI für Menschen und AI‑Agenten
31. März 2026 — Mistral AI veröffentlicht Spaces, eine Open‑Source‑Command‑Line‑Interface, die aus einem internen Bedürfnis des Solutions‑Teams entstanden ist. Die Beobachtung, die das Design leitete: Als AI‑Agenten begannen, das Tool zusätzlich zu menschlichen Entwicklern zu nutzen, wurden interaktive Menüs zum Hindernis. Die gewählte Antwort — jede interaktive Eingabe hat ein äquivalentes Flag — erlaubt Agenten, ohne Blockierung auf stdin zu arbeiten.
Drei Befehle genügen, um ein Projekt mit Hot‑Reload, Datenbank und generierten Dockerfiles zu starten:
spaces init my-project
cd my-project
spaces dev
Bei der Initialisierung werden zwei Dateien für Agenten erzeugt: context.json (strukturierter Snapshot des Projekts) und AGENTS.md (imperative Regeln für LLMs). Die Architektur basiert auf einem System von introspektierbaren Plugins, die als JSON serialisierbar sind — gleiche Daten, angepasstes Rendering je nach Gesprächspartner (Mensch oder Agent). Bereitgestellt mit Koyeb ist das Tool Open Source.
Kurzmeldungen
ChatGPT auf Apple CarPlay — 2. April — OpenAI kündigt die schrittweise Einführung des Sprachmodus von ChatGPT in Apple CarPlay an, sodass man das Assistenzsystem unterwegs ohne Bildschirminteraktion nutzen kann. 🔗 @OpenAI auf X
ElevenLabs + Slack — 2. April — ElevenLabs und Slack kooperieren, um die ElevenAgents‑Sprachtechnologie in Slackbot zu integrieren. Teams können Unternehmens‑Workflows mit einem natürlichen Sprachassistenten automatisieren. 🔗 @ElevenLabs auf X
Pika AI Self Beta — 2. April — Pika verleiht seinen AI Selves ein visuelles Erscheinungsbild und eine Stimme; diese können jetzt automatisch Google Meet‑Sitzungen beitreten. Das Open‑Source‑Repo Pika‑Skills wird auf GitHub veröffentlicht, damit andere Agenten diese Fähigkeiten nutzen können. 🔗 @pika_labs auf X — 🔗 Pika‑Skills auf GitHub
Claude Code v2.1.90 /powerup — 2. April — Version 2.1.90 von Claude Code führt den Befehl /powerup ein: ein System interaktiver Lektionen, um die Funktionen des Tools direkt im Terminal zu erlernen.
🔗 CHANGELOG Claude Code
Claude Code Dispatch: konfigurierbare Berechtigungen — 1. April — Das Dispatch‑Team kündigt an, den Berechtigungsmodus für Codieraufgaben (Auto, Bypass Permissions, etc.) konfigurierbar zu machen; der Modus Auto wird für eine sichere Erfahrung empfohlen. 🔗 @noahzweben auf X
Google AI Pro: Speicher 2 TB → 5 TB — 1. April — Shimrit Ben‑Yair kündigt die Erweiterung des Google AI Pro‑Speichers von 2 TB auf 5 TB ohne zusätzliche Kosten für bestehende Abonnenten an.
🔗 @shimritby auf X Flex & Priority in der Gemini-API — 2. April — Google fügt der Gemini-API zwei synchrone Dienststufen hinzu: Flex (−50 % gegenüber Standard, variable Latenz für Hintergrundaufgaben) und Priority (Premium-Preis, ohne Präemption für Echtzeit-Chatbots). Ein einziger Parameter service_tier reicht zum Umschalten.
🔗 Flex- und Priority-Stufen — blog.google
OpenAI übernimmt TBPN — 2. April — OpenAI kündigt die Übernahme von TBPN an, einer täglichen Tech-Talkshow, die von Jordi Hays und John Coogan moderiert wird und vom New York Times als „die neueste Obsession des Silicon Valley“ beschrieben wurde. Die redaktionelle Unabhängigkeit bleibt im Abkommen gewahrt; TBPN wird in die Strategieorganisation von OpenAI eingegliedert.
🔗 openai.com/index/openai-erwirbt-tbpn
Was das bedeutet
Der 2. April veranschaulicht zwei grundlegende Trends. Erstens verschärft sich der Wettbewerb um offene Modelle: Gemma 4 unter Apache 2.0 mit nativer Multimodalität und Qwen3.6-Plus an der Spitze der agentischen Coding-Lösungen zeigen, dass geschlossene Modelle nicht mehr das Monopol auf die besten Leistungen haben. Für Entwickler wird die Option einer souveränen, lokal einsetzbaren Alternative konkret, auch auf Consumer-Hardware (Jetson Orin Nano, RTX).
Zweitens tritt die Forschung von Anthropic zu funktionalen Emotionen aus dem akademischen Rahmen heraus: Wenn messbare emotionale Vektoren tatsächlich Verhaltensweisen wie Reward Hacking und Sycophancy beeinflussen, kann das Alignment von KI diese internen Strukturen nicht länger ignorieren. Das ist eine Öffnung hin zu tieferer Interpretierbarkeit der Modelle.
Auf Tooling-Seite zeugen die nutzungsbasierte Preisgestaltung von Codex und das Erscheinen der Plugins von GitHub und Linear von einer Reifung agentischer Workflows in Unternehmen. Dass Qwen3.6-Plus direkt in Claude Code via ANTHROPIC_BASE_URL nutzbar ist, veranschaulicht, dass die Portabilität zwischen Anbietern zu einer operativen Realität wird.
Quellen
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Emotionenkonzepte in LLMs — transformer-circuits.pub
- AnthropicAI auf X
- Flexible Preisgestaltung für Codex — openai.com
- GitHub-Plugin für Codex — OpenAIDevs
- Linear-Plugin für Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Copilot SDK in öffentlicher Vorschau — github.blog
- Copilot in Visual Studio — März-Update 2026 — github.blog
- Organisationsanweisungen für Copilot jetzt allgemein verfügbar — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex und Priority in der Gemini-API — blog.google
- OpenAI übernimmt TBPN — openai.com
- Claude Code CHANGELOG — github.com
- Dispatch-Berechtigungen — @noahzweben
- Google AI Pro Speicher — @shimritby
Dieses Dokument wurde aus der fr-Version in die en-Sprache mit dem Modell gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess siehe https://gitlab.com/jls42/ai-powered-markdown-translator