Am 13. April 2026 führt GitHub die Funktion zur Fernsteuerung (remote control) für Copilot CLI-Sitzungen ein und ermöglicht es, ein Terminal über Web oder Telefon mit einem einfachen QR-Code zu steuern. MiniMax veröffentlicht M2.7, ein Agentenmodell, das auf ModelScope mit einem Cloud-Ökosystem ab dem ersten Tag verfügbar ist. Alibaba stellt die Qwen3.5-Omni API für Entwickler auf der ganzen Welt bereit, und Google DeepMind kündigt an, dass Gemini 3.1 Flash Live (Thinking) nun den ersten Platz im τ-Voice-Ranking für Sprachagenten einnimmt.
GitHub Copilot CLI — Fernsteuerung über Web und Mobile
13. April — GitHub startet copilot --remote in der Public Preview: Eine laufende Copilot-CLI-Sitzung kann nun von GitHub.com oder der GitHub-Mobile-App aus überwacht und gesteuert werden, ohne direkten Zugriff auf die Maschine.
Die Funktionsweise ist einfach: Beim Start einer Remote-Sitzung zeigt die CLI einen Link und einen QR-Code an. Wenn der Nutzer diesen Link im Browser oder auf dem Telefon öffnet, erhält er Zugriff auf die Oberfläche der laufenden Sitzung. Die Synchronisierung ist bidirektional — Aktionen, die im Web oder auf Mobile ausgeführt werden, werden im Terminal übernommen, und umgekehrt.
| Funktion | Details |
|---|---|
| Start | copilot --remote oder /remote in einer bestehenden Sitzung |
| Zugriff | Link + QR-Code, angezeigt von der CLI |
| Anwendungen | GitHub.com + GitHub Mobile (iOS TestFlight, Android Google Play Beta) |
| Synchronisierung | Bidirektional in Echtzeit |
| Datenschutz | Private Sitzung, nur für den Nutzer sichtbar, der sie gestartet hat |
| Sitzungsaufrechterhaltung | Befehl /keep-alive, um bei langen Aufgaben den Standby-Modus zu verhindern |
Alle üblichen CLI-Funktionen bleiben aus der Ferne verfügbar: Steuerung während der Sitzung (steering), Überprüfung und Bearbeitung von Plänen, Wechsel des Modus (plan / interaktiv / autopilot), Genehmigung oder Ablehnung von Berechtigungen, Beantwortung von Fragen ask_user.
Hinweis für Unternehmen: Nutzer von Copilot Business oder Enterprise benötigen, dass ein Administrator die Richtlinien für Fernsteuerung und CLI vor der Verwendung aktiviert.
🔗 GitHub-Changelog-Ankündigung
MiniMax M2.7 — Open-Source-Agentenmodell mit Cloud-Ökosystem ab Tag 0
12. April — MiniMax veröffentlicht M2.7, ein LLM mit Agentenarchitektur, das auf ModelScope verfügbar ist, mit einer ab dem ersten Tag einsatzbereiten vLLM-Integration.
Die veröffentlichten Leistungen platzieren M2.7 auf dem Niveau der besten verfügbaren Coding-Modelle:
| Benchmark | M2.7-Score |
|---|---|
| SWE-Pro | 56,22% (gleich GPT-5.3-Codex) |
| Terminal Bench 2 | 57,0% |
Das Modell ist für die Orchestrierung mehrerer Agenten (Agent Teams), fortgeschrittenes Coding und die Automatisierung von Aufgaben in der Kommandozeile konzipiert. Es ist sofort über Together AI (serverless und dediziert) sowie Fireworks AI zugänglich.
Hinweis: MiniMax stellte nach der Veröffentlichung klar, dass M2.7 nicht strikt open-source im Sinne der Lizenz ist — das Modell wurde mit geänderten Nutzungsbedingungen erneut veröffentlicht.
🔗 Open-Source-Ankündigung auf ModelScope 🔗 vLLM-Unterstützung ab Tag 0 🔗 Verfügbarkeit bei Together AI
Qwen3.5-Omni API — Internationale Verfügbarkeit
13. April — Tongyi Lab (Alibaba) kündigt die internationale Verfügbarkeit der Qwen3.5-Omni API über Alibaba Cloud Model Studio an. Das Modell qwen3.5-omni-plus ist sofort mit einem API-Schlüssel zugänglich.
Qwen3.5-Omni wurde in einem Forschungsartikel am 29. März 2026 vorgestellt und ist ein natives omnimodales Modell: Es verarbeitet Text, Bilder, Audio und Video in einer einzigen Inferenz, ohne mehrstufige Pipeline. Es verfügt über zwei Betriebsmodi — Thinker (Denken) und Talker (Sprachkonversation) — über eine hybride Architektur.
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇩🇪 Die Qwen3.5-Omni API ist jetzt offiziell verfügbar und bereit, die Art und Weise zu verändern, wie Sie Videoinhalte verarbeiten. — @Ali_TongyiLab auf X
🔗 Ankündigungs-Thread 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — Nr. 1 im τ-Voice-Ranking
13. April — Tulsee Doshi (Product Manager bei Google DeepMind) kündigt an, dass Gemini 3.1 Flash Live mit aktiviertem Thinking-Modus den ersten Platz im τ-Voice Leaderboard der Sierra Platform eingenommen hat.
Dieses Ranking misst die Leistung von Modellen für den Aufbau von Sprachagenten in Echtzeit: Sprachverständnis, mehrstufiges Schlussfolgern und die Ausführung von Aktionen in produktionsnahen Szenarien. Gemini 3.1 Flash Live wurde am 26. März 2026 veröffentlicht; dieses Ergebnis bestätigt seine Fähigkeiten für Entwickler, die Sprachanwendungen bauen.
Das Modell ist über die Gemini Live API in Google AI Studio verfügbar.
🔗 Ankündigung auf X 🔗 τ-Voice Leaderboard
TurboTax- und Aiwyn Tax-Connectors für Claude
12. April — Henry Shi (Anthropic) kündigt zwei neue Connectors für Claude an: TurboTax und Aiwyn Tax (ehemals Column Tax), die wenige Tage vor der US-amerikanischen Steuererklärungsfrist am 15. April gestartet wurden.
Nach der Verbindung kann Claude die Rückerstattung oder die geschuldete Summe schätzen, Steuerformulare erklären und den Nutzer durch den Steuererklärungsprozess führen. Diese Connectors richten sich an US-Nutzer mit einem Claude-Abonnement.
🔗 Ankündigung von Henry Shi auf X
Was das bedeutet
Die Funktion copilot --remote von GitHub ist die prägendste des Tages: Sie eröffnet eine neue Nutzungsweise für lange CLI-Aufgaben — eine Sitzung von einem Arbeitsplatz aus starten und sie dann von jedem beliebigen Gerät aus überwachen oder steuern. Das ist eine direkte Antwort auf die Anwendungsfälle autonomer Agenten, die stundenlang laufen.
Auf Modellebene veranschaulichen MiniMax M2.7 und Qwen3.5-Omni zwei unterschiedliche Dynamiken: M2.7 richtet sich an Entwickler, die Coding-Agenten einsetzen (mit einer vLLM-Integration ab dem ersten Tag, anders als die meisten Modelle, die in diesem Ökosystem erst spät ankommen); Qwen3.5-Omni setzt auf native Multimodalität, wobei Video als zentrales Argument dient.
Das Ergebnis von Gemini 3.1 Flash Live im τ-Voice Leaderboard bestätigt, dass Google ernsthaft in den Bereich produktionsreifer Sprachagenten investiert — ein Markt, der noch wenig strukturiert ist, aber wächst.
Quellen
- GitHub Changelog — Copilot CLI remote control (13. April)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — vLLM-Unterstützung
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API verfügbar — Haupttweet
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- TurboTax/Aiwyn Tax-Connectors für Claude
Dieses Dokument wurde von der fr-Version in die Sprache de unter Verwendung des Modells gpt-5.4-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess besuchen Sie https://gitlab.com/jls42/ai-powered-markdown-translator