Suchen

Gemini 3.1 Pro in Preview (ARC-AGI-2 77,1%), OpenAI for India mit Tata Group, Claude in PowerPoint für Pro

Gemini 3.1 Pro in Preview (ARC-AGI-2 77,1%), OpenAI for India mit Tata Group, Claude in PowerPoint für Pro

Der 19. Februar 2026 markiert den Start von Gemini 3.1 Pro in Preview, mit einem ARC-AGI-2 Benchmark von 77,1% — mehr als doppelt so viel wie sein Vorgänger. Gleichzeitig kündigt OpenAI seine Verankerung in Indien mit der Tata Group und einer Stargate-Infrastruktur an, während Anthropic Claude in PowerPoint für alle Pro-Abonnenten öffnet.


Gemini 3.1 Pro: Großer Sprung beim logischen Denken

19. Februar — Google DeepMind veröffentlicht Gemini 3.1 Pro in Preview, präsentiert als signifikante Verbesserung des grundlegenden Denkvermögens im Vergleich zu Gemini 3 Pro. Das Modell zielt auf komplexe Aufgaben ab, bei denen eine einfache Antwort nicht ausreicht: mehrstufiges Denken, Datensynthese, Probleme, die fortgeschrittene Reflexion erfordern.

Das auffälligste Ergebnis ist sein Score auf ARC-AGI-2 mit 77,1% — ein Benchmark, der entwickelt wurde, um die Generalisierungsfähigkeit zu messen, insbesondere Aufgaben, die Menschen leicht lösen, die KI aber nur schwer lernt. Gemini 3 Pro lag bei diesem Benchmark bei etwa 31%, was mehr als einer Verdoppelung des Fortschritts entspricht.

Verfügbarkeit ab heute (in Preview):

OberflächeZugang
EntwicklerGemini API (AI Studio), Gemini CLI, Android Studio
UnternehmenVertex AI, Gemini Enterprise
VerbraucherGemini App (AI Pro und Ultra Pläne), NotebookLM (nur Pro und Ultra)

Die Einführung für die breite Öffentlichkeit ist vorerst auf kostenpflichtige Pläne beschränkt, wobei die allgemeine Verfügbarkeit (GA) “bald” angekündigt wird. Die beim Start gezeigten Beispiele geben eine Vorstellung vom angestrebten Niveau des Denkvermögens: Generierung von SVG-Animationen aus einem Text-Prompt, Live-Erstellung eines Luft- und Raumfahrt-Dashboards mit ISS-Telemetriedaten und Erstellung eines Web-Portfolios inspiriert von Sturmhöhe mit kohärentem Layout.

“Gemini 3.1 Pro is a significant upgrade in our core reasoning, the intelligence that underpins the recent Deep Think advances.”

🇩🇪 Gemini 3.1 Pro ist ein bedeutendes Upgrade unseres Kern-Logikvermögens, der Intelligenz, die den jüngsten Deep Think-Fortschritten zugrunde liegt.@GoogleDeepMind auf X

🔗 Google Blog — Gemini 3.1 Pro


Gemini 3.1 Pro bereits in GitHub Copilot

19. Februar — Parallel zum Google-Start kündigt GitHub die sofortige Verfügbarkeit von Gemini 3.1 Pro in Public Preview in GitHub Copilot an, bezeichnet als Googles “neuestes agentisches Coding-Modell” (“latest agentic coding model”).

GitHubs vorläufige Tests zeigen bemerkenswerte Ergebnisse bei Edit-then-Test-Schleifen, mit hoher Tool-Präzision und weniger Tool-Aufrufen pro Benchmark. Das Modell ist in allen Copilot-Plänen (Pro, Pro+, Business, Enterprise) in VS Code, Visual Studio, github.com und GitHub Mobile (iOS und Android) verfügbar. Enterprise- und Business-Administratoren müssen die Gemini 3.1 Pro-Richtlinie in den Copilot-Einstellungen aktivieren — die Einführung erfolgt schrittweise.

🔗 GitHub Changelog — Gemini 3.1 Pro in Copilot


OpenAI for India: Tata Group, Stargate und 100k+ Edu-Lizenzen

18. Februar — Auf dem India AI Impact Summit 2026 in Delhi startete OpenAI OpenAI for India, eine nationale Initiative mit indischen Partnern zur Entwicklung von KI in einem Land, das inzwischen mehr als 100 Millionen wöchentliche ChatGPT-Nutzer zählt.

Die zentrale Partnerschaft besteht mit der Tata Group. Im Bereich Infrastruktur stellt TCS ein hochverfügbares HyperVault-Rechenzentrum bereit: OpenAI wird dessen erster Kunde, mit einer Anfangskapazität von 100 MW, erweiterbar auf bis zu 1 GW, was Indien als einen der ersten Stargate-Hubs außerhalb der Vereinigten Staaten positioniert.

Rekord-Unternehmensbereitstellung

Die Tata Group plant, ChatGPT Enterprise in den kommenden Jahren für Hunderttausende von TCS-Mitarbeitern bereitzustellen, was es zu einer der weltweit größten Enterprise-KI-Implementierungen machen würde. TCS wird auch Codex nutzen, um die KI-Softwareentwicklung in seinen Teams zu standardisieren.

BereichDetails
InfrastrukturTCS HyperVault Rechenzentrum, 100 MW → 1 GW potenziell
EnterpriseChatGPT Enterprise, Hunderttausende TCS-Mitarbeiter
KI DevStandardisierter Codex bei TCS
ZertifizierungenTCS = erste Organisation außerhalb der USA, die OpenAI-Zertifizierungen einführt
Bildung100.000+ ChatGPT Edu Lizenzen (IIM Ahmedabad, AIIMS Delhi, Manipal…)
Lokale PräsenzBüros in Mumbai + Bengaluru werden 2026 eröffnet

Über Tata hinaus integriert die Initiative bestehende Partner wie JioHotstar, Pine Labs, Cars24, HCLTech, PhonePe, CRED und MakeMyTrip.

🔗 Vorstellung von OpenAI for India


Claude in PowerPoint verfügbar auf Pro, mit Konnektoren

19. Februar — Claude in PowerPoint, bisher im begrenzten Zugriff, ist jetzt für alle Pro, Max, Team und Enterprise Abonnenten verfügbar. Die Integration ermöglicht das Erstellen, Bearbeiten und Iterieren von Präsentationen direkt aus PowerPoint heraus.

Bemerkenswerte Neuheit: die Unterstützung von Konnektoren, die es Claude ermöglicht, Kontext aus Ihren täglichen Tools (CRM-Daten, interne Dokumente…) abzurufen und direkt in Ihre Folien einzufügen. Claude liest den Folienmaster der Vorlage — Schriftarten, Farben, Layouts — damit jede Änderung markenkonform bleibt.

FunktionBeschreibung
Generierung aus VorlageErstellt Folien aus Ihrer Firmenvorlage
Gezielte BearbeitungÄndert eine ausgewählte Folie unter Beibehaltung des Kontexts
Native DiagrammeErstellt bearbeitbare PowerPoint-Diagramme (keine Bilder)
KonnektorenImportiert Kontext aus Ihren Tools in die Folien
PlänePro, Max, Team, Enterprise

“Claude in PowerPoint is now available on the Pro plan. It also now supports connectors, bringing context from your daily tools directly into your slides.”

🇩🇪 Claude in PowerPoint ist jetzt im Pro-Plan verfügbar. Es unterstützt nun auch Konnektoren, die Kontext aus Ihren täglichen Tools direkt in Ihre Folien bringen.@claudeai auf X

🔗 claude.com/claude-in-powerpoint


Voxtral Realtime: technischer Bericht und Mistral Studio Playground

18. Februar — Zwei Wochen nach dem Start von Voxtral Realtime (Echtzeit-Transkription, präzise Sprechererkennung) veröffentlicht Mistral seinen technischen Bericht und öffnet zwei neue Zugangswege: einen Playground in Mistral Studio zum Testen ohne Code und eine Integration in Hugging Face Transformers für Teams, die das Modell lokal nutzen möchten.

“Since launching Voxtral Realtime, the community response has been remarkable. Today, we share the technical report, launch the Realtime playground in Mistral Studio, and share the model in Hugging Face Transformers.”

🇩🇪 Seit dem Start von Voxtral Realtime war die Reaktion der Community bemerkenswert. Heute teilen wir den technischen Bericht, starten den Realtime-Playground in Mistral Studio und teilen das Modell in Hugging Face Transformers.@MistralDevs auf X

🔗 Tweet @MistralDevs


OpenAI spendet 7,5 Mio. $ für unabhängige Alignment-Forschung

19. Februar — OpenAI kündigt eine Spende von 7,5 Millionen Dollar (ca. 5,6 Mio. £) an The Alignment Project an, einen globalen Fonds, der vom UK AI Security Institute (UK AISI) verwaltet wird, um unabhängige Forschung zu den Risiken einer fehlausgerichteten KI zu finanzieren.

Der Gesamtfonds übersteigt 27 Millionen Pfund, mit Beiträgen von öffentlichen, philanthropischen und industriellen Akteuren. Einzelprojekte können von 50.000 bis 1 Million Pfund gefördert werden, mit optionalem Zugang zu Rechenressourcen. Die abgedeckten Bereiche sind bewusst breit gefächert: Theorie der komplexen Berechnungen, Spieltheorie, Kognitionswissenschaften, Informationstheorie und Kryptographie. OpenAI präzisiert, dass seine Finanzierung den Auswahlprozess des UK AISI nicht verändert, der unabhängig bleibt.

🔗 OpenAI — Advancing independent research on AI alignment


Perplexity Comet: iOS-Vorbestellungen geöffnet

19. Februar — Perplexity hat die Vorbestellungen für seinen Comet KI-Browser im Apple App Store iOS geöffnet. Seit November 2025 auf Android und dann als Desktop-Version verfügbar, kommt Comet nun auf das iPhone.

🔗 Tweet @perplexity_ai


GitHub Copilot Updates

18.-19. Februar — Neben Gemini 3.1 Pro (siehe voriger Abschnitt) hat GitHub zwei Updates für den Copilot Coding-Agenten veröffentlicht:

  • Windows-Support: Der Agent kann nun eine Windows-Umgebung via copilot-setup-steps.yml nutzen, nützlich für .NET-Projekte. Hinweis: Die integrierte Firewall ist nicht kompatibel — empfohlen nur mit Self-Hosted Runners oder Azure Private Networking. 🔗 Changelog
  • Code-Referenzierung: Wenn generierter Code mit Code in einem öffentlichen Repository übereinstimmt, wird er in den Logs hervorgehoben und mit einem Link zum Originalcode versehen. Der “Block”-Modus wird nicht unterstützt — Übereinstimmungen werden gemeldet, nicht blockiert. 🔗 Changelog

Claude Code v2.1.47: reduzierter Speicher bei langen Sessions

19. Februar — Claude Code v2.1.47 bringt eine Reduzierung des Speicherverbrauchs für lange Sitzungen (externer Beitrag von @cirospaciari). Zwei weitere Korrekturen: FileWriteTool behält nun beabsichtigte Leerzeilen am Dateiende bei (Entfernung von trimEnd()), und ein Anzeigefehler bei Zeilenzählern unter Windows im Zusammenhang mit os.EOL ( ) wurde behoben.

Im Kontext: Claude Code wurde vor genau einem Jahr gestartet und schreibt heute 4% aller GitHub-Commits, wobei sich die Zahl der täglich aktiven Nutzer im letzten Monat verdoppelt hat.

🔗 @jarredsumner auf X


Ideogram: Bearbeitung von Designs mit transparentem Hintergrund

18. Februar — Ideogram führt die Möglichkeit ein, Designs mit transparentem Hintergrund über einen Text-Prompt zu bearbeiten, ohne dass der Hintergrund bei der Generierung durch Weiß ersetzt wird. Kostenlos für alle Nutzer verfügbar.

🔗 Tweet @ideogram_ai


Was das bedeutet

Gemini 3.1 Pro markiert eine deutliche Beschleunigung beim allgemeinen logischen Denken: Der Sprung von 31% auf 77,1% beim ARC-AGI-2 in einer Modellgeneration ist ungewöhnlich. Die sofortige Integration in GitHub Copilot bestätigt, dass Google auf dem Markt für Entwicklertools beschleunigt, wo Claude Sonnet und GPT-4o bisher die Referenzen waren. Entwickler können direkt in ihrer IDE vergleichen.

Die Initiative OpenAI for India veranschaulicht ein weiteres strategisches Thema: lokale Verankerung. Mit über 100 Millionen wöchentlichen Nutzern ist Indien bereits ein wichtiger Markt für OpenAI. Das lokale Stargate (100 MW → 1 GW mit TCS) und die Enterprise-Bereitstellung bei der Tata Group signalisieren den Willen zu einer souveränen Infrastruktur, nach dem Vorbild dessen, was in den USA und den VAE aufgebaut wird.

Auf der Seite von Anthropic erweitert die Öffnung von Claude in PowerPoint für den Pro-Plan — mit Connector-Support — die Nutzungsoberfläche von Claude auf Büro-Workflows, die bisher von GPT-4o und Copilot besetzt waren. Die Spende von OpenAI an The Alignment Project UK AISI ist ebenfalls signifikant: Die Finanzierung unabhängiger Alignment-Forschung ohne Einfluss auf die Projektauswahl ist ein Signal institutioneller Reife.


Quellen