Der 11. März 2026 ist ein intensiver Tag: Anthropic gründet ein interdisziplinäres Institut für die öffentliche Debatte über KI, Perplexity rollt seine Vision „Computer“ mit vier gleichzeitig veröffentlichten APIs aus, OpenAI veröffentlicht neue agentische Primitive in der Responses API, und Meta beschreibt vier Generationen maßgeschneiderter KI‑Chips, entwickelt in zwei Jahren.
Anthropic Institute : Jack Clark an der Spitze des Public Benefit
11. März 2026 — Anthropic startet The Anthropic Institute, eine neue Initiative zur Förderung der öffentlichen Debatte über die Herausforderungen durch leistungsfähige KI. Die Initiative wird von Mitgründer Jack Clark geleitet, der eine neue Rolle als “Head of Public Benefit” (Verantwortlicher für den öffentlichen Nutzen) bei Anthropic übernimmt.
Das Institut bringt ein interdisziplinäres Team zusammen — Forschende, Ökonom:innen, Jurist:innen, Policy‑Expert:innen — mit einem einzigartigen Zugang zu Anthropics Spitzenmodellen. Seine Mission: die gesellschaftlichen, wirtschaftlichen und sicherheitsrelevanten Auswirkungen der KI zu analysieren und zu kommunizieren, während diese sich entwickeln.
Drei erste Neuaufnahmen wurden angekündigt:
| Recrue | Parcours |
|---|---|
| Matt Botvinick | Resident Fellow, Yale Law School ; ex‑Senior Director of Research, Google DeepMind |
| Anton Korinek | Professor für Wirtschaftswissenschaften (Sabbatical), Economic Research Team |
| Zoë Hitzig | Ex‑OpenAI, spezialisiert auf soziale und wirtschaftliche Auswirkungen von KI |
Das Institut stützt sich auf bestehende Teams bei Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Parallel dazu kündigt Anthropic den Ausbau seines Public Policy‑Teams an, mit Fokus auf Modelltransparenz, Verbraucherschutz bei Energie, Exportkontrollen und globale KI‑Gouvernanz.
Die Gründung dieses Instituts markiert einen bedeutsamen Schritt: Anthropic formt formal sein öffentliches Engagement und gibt ihm ein Gesicht mit einem seiner Mitgründer.
🔗 Vorstellung von The Anthropic Institute
Perplexity : koordinierter Start der Vision “Everything is Computer”
11. März 2026 — Perplexity veröffentlicht gleichzeitig vier Ankündigungen, die einen koordinierten Start rund um seine Vision “Computer” darstellen: KI als persönlicher und beruflicher Computer.
Personal Computer und Enterprise
Der Personal Computer ist ein dedizierter Mac mini, der rund um die Uhr läuft, mit Verbindung zu lokalen Anwendungen und Perplexity‑Servern. Er fungiert als digitaler Proxy des Nutzers — sensible Aktionen erfordern explizite Zustimmung. Warteliste offen.
Der Computer for Enterprise verbindet sich mit Snowflake, Salesforce, HubSpot und Hunderten von Plattformen. Die Skills sind anpassbar, und die Slack‑Integration erlaubt Arbeit in DMs oder geteilten Channels. Er basiert auf SOC 2 Type II, SAML SSO und Audit‑Logs. Perplexity nennt eine interne Studie über 16.000 Anfragen: Einsparung von 1,6 Millionen Dollar an Arbeitskosten und 3,25 Arbeitsjahre, erledigt in 4 Wochen.
Comet Enterprise ist ein nativer KI‑Browser mit Administrator‑Kontrollen (Berechtigungen pro Domain, Aktionsprotokolle, MDM) und einer Partnerschaft mit CrowdStrike für Browserschutz.
Perplexity Finance bietet 40+ Finanztools live (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), mit Broker‑Verbindung über Plaid zur Analyse realer Portfolios.
Premium Sources ermöglicht Zugriff auf Statista, CB Insights und PitchBook direkt in den Recherche‑Streams — kostenpflichtige Quellen werden automatisch zitiert.
Agent API : vollständige Runtime‑Orchestrierung
Die Agent API ist ein verwalteter Runtime‑Dienst zum Aufbau agentischer Workflows mit integrierter Suche, Tool‑Ausführung und Multi‑Modell‑Orchestrierung. Sie ersetzt an einem einzigen Integrationspunkt einen Modellrouter, eine Suchschicht, einen Embeddings‑Anbieter, einen Sandbox‑Service und einen Monitoring‑Stack.
| Outil intégré | Capacités |
|---|---|
web_search | Filtern nach Domain, Aktualität, Datumsbereich, Sprache, Inhaltsbudget |
fetch_url | Direkte URL‑Retrieval |
| Fonctions personnalisées | Vollständige Unterstützung |
Vier optimierte Profile (presets) decken Anwendungsfälle ab: schnelle faktische Suche, ausgewogene Recherche, tiefgehende Multi‑Source‑Analyse und institutionelle Recherche. Deep Research 2.0 ist über das Profil advanced-deep-research verfügbar — es startet dutzende Recherchen pro Anfrage und verarbeitet Hunderte von Dokumenten.
Die Agent API ist modell‑agnostisch, unterstützt Multi‑Modell‑Fallback‑Chains für nahezu 100% Verfügbarkeit und ist heute verfügbar auf docs.perplexity.ai.
Search API : verbesserte Snippets und Benchmark SEAL
Das Update der Search API konzentriert sich auf die Qualität der Snippets und die Evaluationsinfrastruktur.
Die neue Pipeline zur Markierung auf Fragment‑Ebene (span‑level labeling) identifiziert, welche Segmente eines Quelltexts für eine Anfrage relevant sind. Ergebnis: kleinere und präzisere Snippets, was Token‑Kosten reduziert und das Kontextmanagement für nachgelagerte Modelle verbessert.
Der SEAL‑Benchmark prüft, ob ein Retrieval‑System Fragen beantworten kann, deren Antworten sich im Laufe der Zeit ändern. Perplexity macht Fortschritte bei SEAL‑Hard, während andere Anbieter abfallen. Das Framework search_evals wurde als Open Source auf GitHub aktualisiert.
Weitere Verbesserungen: Support für Multi‑Requests (bis zu 5 in einer API‑Anfrage), Filterung nach Sprache (ISO 639‑1) und Land, sowie ein Python‑SDK (pip install perplexityai) mit nativer Unterstützung der drei APIs.
Sandbox API : isolierte Codeausführung für Agents
Perplexity stellt seine interne Code‑Execution‑Umgebung als eigenständigen Service bereit. Jede Session läuft in einem isolierten Kubernetes‑Pod mit eingebundenem persistentem Dateisystem. Unterstützte Sprachen: Python, JavaScript, SQL. Die Installation von Paketen zur Laufzeit (at runtime) ist möglich.
Die Sessions sind zustandsbehaftet (stateful): in einem Schritt erstellte Dateien sind in späteren Schritten verfügbar, und lange Workflows können pausiert und Stunden später wieder aufgenommen werden. Die Sicherheit basiert auf einem Zero‑Trust‑Modell: kein direkter Netzwerkzugang, ausgehender Traffic über Proxy, der Code hat nie Zugriff auf rohe API‑Keys.
Die Sandbox API lässt sich mit demselben API‑Schlüssel und denselben Credits in die Agent API integrieren. Status: Private Beta demnächst.
OpenAI : die Responses API erhält eine Computerumgebung für Agenten
11. März 2026 — OpenAI veröffentlicht einen technischen Beitrag, der die neuen Primitive der Responses API beschreibt, um zuverlässige autonome Agenten zu bauen: Unix‑Shell‑Tool, gehostete Container, native Kontextkompression und wiederverwendbare Agent‑Skills.
Das Shell‑Tool
Das Shell‑Tool erlaubt dem Modell, mit einem Computer über die Kommandozeile zu interagieren, mit Zugriff auf klassische Unix‑Utilities (grep, curl, awk). Im Gegensatz zum bestehenden Code‑Interpreter, der nur Python ausführte, unterstützt das Shell‑Tool Go, Java, Node.js und andere Umgebungen. Modelle ab GPT‑5.2 wurden darauf trainiert, Shell‑Befehle vorzuschlagen.
Die Responses API kann mehrere Shell‑Befehle parallel in separaten Containern ausführen und setzt für jede Kommandoausgabe ein Limit, um die Kontextfenster nicht zu überfrachten.
Gehostete Container
Der Container bildet den Arbeitsbereich des Modells:
| Composant | Description |
|---|---|
| Système de fichiers | Upload, Organisation und Verwaltung von Ressourcen über die container‑ und file‑APIs |
| Bases de données | Strukturierte Speicherung (SQLite) — das Modell fragt Tabellen ab, anstatt Inhalte komplett zu laden |
| Accès réseau | Zentralisierter Egress‑Proxy mit Allowlist, Secret‑Injection pro Domain |
Native Kontextkompression
Für Langzeitaufgaben integriert die Responses API einen Mechanismus zur nativen Kompaktion: Modelle werden trainiert, eine kompakte und verschlüsselte Repräsentation des konversationellen Zustands zu erzeugen. Verfügbar serverseitig (konfigurierbarer Schwellwert) oder über einen Endpoint /compact. Codex nutzt diesen Mechanismus, um lange Coding‑Sessions ohne Qualitätsverlust aufrechtzuerhalten.
Agent skills
Skills (Agenten‑Fähigkeiten) kapseln wiederkehrende Workflow‑Muster in wiederverwendbare Bundles: ein Ordner mit einer Datei SKILL.md und zugehörigen Ressourcen. Die Responses API lädt die Skill automatisch in den Kontext, bevor der Prompt an das Modell gesendet wird. Skills werden über API verwaltet und versioniert.
Parallel dazu feiert ein Entwicklerblog‑Post ein Jahr Responses API mit fünf Kunden‑Case‑Studies. Beide Veröffentlichungen zeichnen zusammen ein kohärentes Bild der Plattformentwicklung in Richtung Agentik.
🔗 Responses API + Computerumgebung 🔗 1 Jahr der Responses API
OpenAI : Verteidigungsstrategie gegen Prompt‑Injection
11. März 2026 — OpenAI veröffentlicht einen Sicherheitsbeitrag zur Robustheit von KI‑Agenten gegenüber Prompt‑Injection‑Angriffen.
Die ersten Angriffe bestanden darin, direkte Anweisungen in externe Inhalte einzuschmuggeln (Wikipedia‑Seiten, E‑Mails). Mit der Verbesserung der Modelle entwickelten sich diese Angriffe zu Social‑Engineering: überzeugender beruflicher Kontext, simulierte Dringlichkeit, vorgetäuschte Autorisierung. Ein Beispiel aus 2025, das im Artikel beschrieben wird, zeigte einen erfolgreichen Angriff in 50 % der Fälle gegen eine ältere ChatGPT‑Version.
OpenAI behandelt das Problem mit einem dreiteiligen System (Arbeitgeber / Agent / bösartiger Dritter), analog zu einem menschlichen Kundendienstagenten, der Manipulationsversuchen ausgesetzt ist. Ziel ist nicht die perfekte Identifikation jeder Attacke, sondern die Begrenzung der Auswirkungen einer erfolgreichen Manipulation.
| Contre‑mesure | Beschreibung |
|---|---|
| Analyse source‑sink | Erkennung von Kombinationen aus unzuverlässigem Inhalt + gefährlicher Aktion |
| Safe Url | Erkennt, ob Gesprächsinformationen an Dritte übermittelt würden — fordert Bestätigung oder blockiert |
| Applikative Sandbox | Canvas und ChatGPT Apps erkennen unerwartete Kommunikation und holen Zustimmung ein |
Safe Url gilt ebenfalls für Navigationen in Atlas sowie für Recherchen und Navigationsschritte in Deep Research.
🔗 Designing AI agents to resist prompt injection
Meta MTIA : vier Generationen von KI‑Chips in zwei Jahren
11. März 2026 — Meta veröffentlicht einen technischen Beitrag zu seiner Familie maßgeschneiderter KI‑Chips MTIA (Meta Training and Inference Accelerator). In zwei Jahren hat Meta vier aufeinanderfolgende Generationen entwickelt, um Milliarden von Nutzern kostengünstig zu bedienen.
“AI models are evolving faster than traditional chip development cycles.”
🇩🇪 KI‑Modelle entwickeln sich schneller als traditionelle Entwicklungszyklen für Chips. — Meta AI Blog
| Génération | Innovation principale |
|---|---|
| MTIA 300 | Erste Chip‑Iteration optimiert für Ranking & Recommendation, wiederverwendbare modulare Basis |
| MTIA 400 | Übergang zu GenAI‑Workloads, Rack mit 72 Chips in einer einzigen Scale‑Up‑Domain |
| MTIA 450 | Verdopplung der HBM‑Bandbreite, +75 % FLOPS MX4, hardwarebeschleunigte Attention und FFN |
| MTIA 500 | +50 % HBM‑Bandbreite vs. MTIA 450, Fokus auf GenAI‑Inference |
Der Fortschritt von MTIA 300 zu MTIA 500: HBM‑Bandbreite um das 4,5‑fache und FLOPS um das 25‑fache gesteigert. Metas Strategie setzt auf hohe Entwicklungs‑Velocity (ein neuer Chip pro Jahr), Fokus auf Inferenz statt Pre‑Training und native PyTorch‑Integration.
“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”
🇩🇪 Mainstream‑GPUs werden typischerweise für die anspruchsvollste Arbeitslast gebaut — das groß angelegte GenAI‑Pretraining — während Metas primäres Bedürfnis die Inferenz ist. — Meta AI Blog
Die Architektur des Processing Element kombiniert zwei Vektor‑RISC‑V‑Kerne, eine Dot‑Product‑Engine, eine Special Function Unit, eine Reduktions‑Engine und einen DMA. Der Software‑Stack basiert auf PyTorch, vLLM, Triton und dedizierten MTIA‑Compilern, mit vLLM‑Integration über eine Plugin‑Architektur.
🔗 Meta MTIA : scale AI chips for billions
Gemini CLI v0.33.0 : erweiterter Plan Mode und A2A‑Authentifizierung
11. März 2026 — Gemini CLI veröffentlicht Version v0.33.0, zwei Wochen nach v0.32.0, die den Plan Mode eingeführt hatte.
| Catégorie | Nouveautés |
|---|---|
| Architecture agent | HTTP‑Authentifizierung für entfernte A2A‑Agenten, Discovery authentifizierter A2A‑Agent‑Manifeste |
| Plan Mode | Eingebettete Such‑Subagents, Unterstützung von Annotationen für Nutzerfeedback, neue Sub‑Kommando copy |
| Interface CLI | Kompakter Header mit ASCII‑Icon, invertierte Anzeige des Kontextfensters, standardmäßig 30 Tage Retention für Chat‑Historie |
Die Hinzufügung der HTTP‑Authentifizierung für das A2A‑Protokoll (Agent‑to‑Agent) ist die wichtigste technische Neuerung: Gemini CLI kann nun entfernte Agenten entdecken und sich gegenüber ihnen authentifizieren, was die Basis für sichere Multi‑Agent‑Orchestrierung legt.
Gemini in Chrome : Erweiterung nach Indien, Neuseeland und Kanada
11. März 2026 — Google erweitert die KI‑Funktionen von Chrome auf drei neue Märkte: Indien, Neuseeland und Kanada.
Gemini in Chrome — der KI‑Assistent im Seitenpanel, basierend auf Gemini 3.1 — ist jetzt in diesen Regionen auf Mac, Windows und Chromebook Plus verfügbar. Zu den ausgerollten Funktionen gehören: Zugriff auf Gmail, Maps, Calendar und YouTube direkt aus Chrome, bereichsübergreifende Analyse mehrerer geöffneter Tabs und Bildbearbeitung direkt im Browser via Nano Banana 2. Das Update ergänzt 50+ zusätzliche Sprachen, darunter Hindi, Französisch und Spanisch.
🔗 Chrome erweitert sich auf Indien, Neuseeland und Kanada
--- ## AlphaEvolve : neue untere Schranken für 5 Ramsey-Zahlen
11. März 2026 — Pushmeet Kohli (Google DeepMind) kündigt an, dass AlphaEvolve neue untere Schranken für 5 klassische Ramsey-Zahlen in der extremen Kombinatorik aufgestellt hat — Probleme so schwierig, dass Erdős selbst deren Komplexität kommentiert hatte, und deren beste bisherige Ergebnisse mindestens ein Jahrzehnt alt waren.
AlphaEvolve fungiert als Meta-Algorithmus, der automatisch die erforderlichen Suchverfahren entdeckt, wo historisch gesehen spezifische Algorithmen manuell entworfen werden mussten. Dieses Ergebnis veranschaulicht die Fähigkeiten von AlphaEvolve über die Kernel-Optimierungen von Google hinaus, für die es bereits bekannt war.
Gemini Embedding 2 : erstes multimodales Embedding von Google
10. März 2026 — Google kündigt Gemini Embedding 2 an, beschrieben als „our most capable and first fully multimodal embedding model“. Es ist das erste nativ multimodale Embedding-Modell von Google und für Entwickler über die Gemini API und AI Studio verfügbar.
GitHub Copilot : Code-Review aus dem Terminal und Verbesserungen für JetBrains
11. März 2026 — Zwei bemerkenswerte Updates für GitHub Copilot.
Code-Review über GitHub CLI v2.88.0
Es ist nun möglich, eine Copilot-Code-Review direkt aus dem Terminal anzufordern. Die Befehle gh pr edit --add-reviewer @copilot (nicht-interaktiver Modus) und gh pr create (interaktiver Modus) integrieren Copilot neben den Teammitgliedern. Die Auswahl der Reviewer profitiert von einer dynamischen Suche, was die Leistung in großen Organisationen verbessert und Zugänglichkeitsprobleme behebt. Verfügbar in allen Plänen, die Copilot Code Review beinhalten — Update auf GitHub CLI v2.88.0 erforderlich.
Agentische Verbesserungen für JetBrains IDEs
Das JetBrains-Plugin-Update bringt in die allgemeine Verfügbarkeit (GA): die personalisierten Agents (custom agents), Unter-Agents und einen Planungs-Agent (plan agent), sowie die automatische Modellauswahl für alle Pläne. In der öffentlichen Vorschau (public preview): die Agent-Hooks (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) über eine Datei hooks.json in .github/hooks/, und die Unterstützung für die Dateien AGENTS.md und CLAUDE.md.
Weitere Verbesserungen ergänzen das Update: konfigurierbares auto-approve per MCP, ein Denk-Panel für Modelle mit erweitertem Reasoning, Anzeige der Nutzung des Kontextfensters und die Deprecation des Modus Edit im Menü.
🔗 Verbesserungen für JetBrains
Repository-Erkundung in Copilot im Web
In der öffentlichen Vorschau: es ist möglich, die Baumstruktur eines GitHub-Repositorys direkt aus der Web-Oberfläche von Copilot zu erkunden. Ausgewählte Dateien werden automatisch als temporäre Referenzen zum Chat hinzugefügt und können dauerhaft gemacht werden.
🔗 Repository-Erkundung in Copilot
Anthropic : Sydney und Claude for Office
Sydney, 4. Büro in Asien-Pazifik
10. März 2026 — Anthropic kündigt die baldige Eröffnung eines Büros in Sydney an, dem vierten Büro in der Asien-Pazifik-Region (nach Tokio, Seoul und Singapur). Australien liegt weltweit auf Platz 4 bei der Nutzung von Claude.ai pro Kopf; Neuseeland auf Platz 8 laut demselben Indikator (Anthropic Economic Index). Das Büro wird sich zunächst auf Unternehmenskunden, Startups und Forschung konzentrieren.
🔗 Sydney, 4. Büro Asien-Pazifik
Claude for Excel und PowerPoint : gemeinsamer Kontext und Skills für Office
11. März 2026 — Die Add-ins Claude for Excel und Claude for PowerPoint erhalten zwei wichtige Updates: den geteilten Kontext zwischen beiden Anwendungen (ein Analyst kann Daten aus einer Excel-Arbeitsmappe extrahieren und in einer PowerPoint-Präsentation in einer einzigen Unterhaltung verwenden) und die Einführung von Skills (wiederverwendbare Workflows mit einem Klick) in beiden Add-ins.
Die vorinstallierten Skills decken die häufigsten Anwendungsfälle ab: Formelprüfung, Aufbau von LBO/DCF-Modellen, Wettbewerbslandschaft-Decks, Aktualisierung von Präsentationen mit neuen Daten und Prüfung von Investment-Banking-Decks. Die Add-ins sind nun über Amazon Bedrock, Google Cloud Vertex AI und Microsoft Foundry für konforme Bereitstellungen verfügbar. Verfügbarkeit: Mac und Windows in kostenpflichtigen Plänen (Pro, Max, Team, Enterprise).
🔗 Claude für Excel und PowerPoint
NVIDIA Nemotron 3 Super, ComfyUI und GTC 2026
11. März 2026 — NVIDIA ist rund um die GTC 2026 sehr aktiv.
Nemotron 3 Super bietet einen fünfmal höheren Durchsatz für agentische KI im Vergleich zur vorherigen Generation. Es handelt sich um ein MoE (Mixture of Experts) mit 120 Milliarden Parametern, Open Source, optimiert für hochfrequente Inferenz-Workloads.
NVIDIA und ComfyUI kündigten auf der GDC 2026 (Game Developers Conference) eine Integration an, die die lokale KI-Videoerzeugung für Spieleentwickler und Kreative vereinfacht, mit Unterstützung für die Modelle FLUX und LTX-Video.
Der NVIDIA-Blog GTC 2026 Live Updates fasst die Live-Ankündigungen der Konferenz in San Jose zusammen — Mistral AI stellt dort ebenfalls seine Frontier-Modelle vor.
🔗 Nemotron 3 Super 🔗 ComfyUI auf der GDC 🔗 GTC 2026 Live-Updates
Kurz
Runway Labs — Runway startet ein internes Inkubatorprogramm unter der Leitung von Alejandro Matamala Ortiz (Mitgründer, Director of Innovation). Runway Labs wird radikal neue Anwendungen für generatives Video und General World Models in Bereichen wie Film, Gesundheit, Bildung, Gaming, Werbung und Immobilien prototypisieren. Einstellungen laufen.
Claude Code /btw — Ein neuer Befehl /btw ermöglicht Seitengespräche (side chain conversations), während eine Aufgabe läuft, ohne die laufende Arbeit zu unterbrechen.
NotebookLM Flashcards — Update der Quiz und Karteikarten: Fortsetzen dort, wo man aufgehört hat, Verfolgung bestandener oder nicht bestandener Karteikarten, Möglichkeit, Karteikarten zu löschen oder zu mischen.
Meta Canopy Height Maps v2 — Meta und das World Resources Institute veröffentlichen CHMv2, eine neue Version der globalen Baumkronenhöhenkarten. Das Modell DINOv3 (Meta’s selbstüberwachtes Vision-Modell) verbessert Genauigkeit und globale Abdeckung. Anwendungen: Klimamigration, Waldrestauration, Stadtplanung. Modelle sind Open Source verfügbar.
Z.ai GLM-5 — GLM-5 ist nun für Lite-Nutzer (kostenloses Niveau) zugänglich, nachdem es seit seiner Einführung im Februar 2026 nur für Pro-Nutzer reserviert war.
Was das bedeutet
Der 11. März 2026 illustriert zwei konvergente Grundtrends.
Der erste ist die Plattformisierung der Agentik: OpenAI, Perplexity und GitHub veröffentlichen am selben Tag komplementäre Primitive (Shell-Tools, Sandboxes, Agent-Hooks, Code Review). Das Ökosystem strukturiert sich um wiederverwendbare Bausteine — Skills, Container, Unter-Agents — die es Entwicklern ermöglichen, zuverlässige Agents zu bauen, ohne die Infrastruktur neu erfinden zu müssen.
Der zweite ist der Wettlauf um kundenspezifisches Silizium: die Details, die Meta zu seinen vier MTIA-Generationen in zwei Jahren veröffentlicht, zeigen eine klare Strategie zur Unabhängigkeit von Consumer-GPUs, abgestimmt auf großskalige Inferenz. Dieselbe Logik treibt NVIDIA dazu, Nemotron 3 Super am selben Tag wie die GTC zu veröffentlichen, wo sich die Ankündigungen häufen.
Die Schaffung des Anthropic Institute reiht sich in eine eher diskrete, aber nachhaltige Bewegung ein: Während die Fähigkeiten wachsen, strukturieren große KI-Unternehmen ihre Public-Impact-Teams nicht länger als reine Außendarstellung, sondern als eigenständige Forschungsbemühungen.
Quellen
- The Anthropic Institute
- Sydney, 4. Büro Asien-Pazifik
- Claude für Excel und PowerPoint
- Tweet von @bcherny (/btw)
- Everything is Computer — Perplexity
- Agent API — Perplexity
- Search API — Perplexity
- Sandbox API — Perplexity
- Responses API + environnement informatique — OpenAI
- 1 an de la Responses API — OpenAI
- Prompt injection defense — OpenAI
- Meta MTIA chips
- Meta Canopy Height Maps v2
- Gemini CLI v0.33.0
- Gemini in Chrome — expansion
- AlphaEvolve — Ramsey numbers
- Gemini Embedding 2
- Copilot Code Review depuis CLI
- Copilot JetBrains — améliorations agentiques
- Copilot — exploration dépôt sur le web
- Nemotron 3 Super — NVIDIA
- ComfyUI + NVIDIA au GDC
- GTC 2026 Live Updates — NVIDIA
- Introducing Runway Labs
- NotebookLM Flashcards update
- Z.ai GLM-5 Lite rollout
Dieses Dokument wurde aus der fr-Version in die Sprache de mithilfe des Modells gpt-5-mini übersetzt. Für weitere Informationen über den Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator