Suchen

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11. März 2026

Anthropic Institute, Perplexity Everything is Computer, OpenAI Responses API : 11. März 2026

Der 11. März 2026 ist ein intensiver Tag: Anthropic gründet ein interdisziplinäres Institut für die öffentliche Debatte über KI, Perplexity rollt seine Vision „Computer“ mit vier gleichzeitig veröffentlichten APIs aus, OpenAI veröffentlicht neue agentische Primitive in der Responses API, und Meta beschreibt vier Generationen maßgeschneiderter KI‑Chips, entwickelt in zwei Jahren.


Anthropic Institute : Jack Clark an der Spitze des Public Benefit

11. März 2026 — Anthropic startet The Anthropic Institute, eine neue Initiative zur Förderung der öffentlichen Debatte über die Herausforderungen durch leistungsfähige KI. Die Initiative wird von Mitgründer Jack Clark geleitet, der eine neue Rolle als “Head of Public Benefit” (Verantwortlicher für den öffentlichen Nutzen) bei Anthropic übernimmt.

Das Institut bringt ein interdisziplinäres Team zusammen — Forschende, Ökonom:innen, Jurist:innen, Policy‑Expert:innen — mit einem einzigartigen Zugang zu Anthropics Spitzenmodellen. Seine Mission: die gesellschaftlichen, wirtschaftlichen und sicherheitsrelevanten Auswirkungen der KI zu analysieren und zu kommunizieren, während diese sich entwickeln.

Drei erste Neuaufnahmen wurden angekündigt:

RecrueParcours
Matt BotvinickResident Fellow, Yale Law School ; ex‑Senior Director of Research, Google DeepMind
Anton KorinekProfessor für Wirtschaftswissenschaften (Sabbatical), Economic Research Team
Zoë HitzigEx‑OpenAI, spezialisiert auf soziale und wirtschaftliche Auswirkungen von KI

Das Institut stützt sich auf bestehende Teams bei Anthropic: Frontier Red Team, Societal Impacts, Economic Research. Parallel dazu kündigt Anthropic den Ausbau seines Public Policy‑Teams an, mit Fokus auf Modelltransparenz, Verbraucherschutz bei Energie, Exportkontrollen und globale KI‑Gouvernanz.

Die Gründung dieses Instituts markiert einen bedeutsamen Schritt: Anthropic formt formal sein öffentliches Engagement und gibt ihm ein Gesicht mit einem seiner Mitgründer.

🔗 Vorstellung von The Anthropic Institute


Perplexity : koordinierter Start der Vision “Everything is Computer”

11. März 2026 — Perplexity veröffentlicht gleichzeitig vier Ankündigungen, die einen koordinierten Start rund um seine Vision “Computer” darstellen: KI als persönlicher und beruflicher Computer.

Personal Computer und Enterprise

Der Personal Computer ist ein dedizierter Mac mini, der rund um die Uhr läuft, mit Verbindung zu lokalen Anwendungen und Perplexity‑Servern. Er fungiert als digitaler Proxy des Nutzers — sensible Aktionen erfordern explizite Zustimmung. Warteliste offen.

Der Computer for Enterprise verbindet sich mit Snowflake, Salesforce, HubSpot und Hunderten von Plattformen. Die Skills sind anpassbar, und die Slack‑Integration erlaubt Arbeit in DMs oder geteilten Channels. Er basiert auf SOC 2 Type II, SAML SSO und Audit‑Logs. Perplexity nennt eine interne Studie über 16.000 Anfragen: Einsparung von 1,6 Millionen Dollar an Arbeitskosten und 3,25 Arbeitsjahre, erledigt in 4 Wochen.

Comet Enterprise ist ein nativer KI‑Browser mit Administrator‑Kontrollen (Berechtigungen pro Domain, Aktionsprotokolle, MDM) und einer Partnerschaft mit CrowdStrike für Browserschutz.

Perplexity Finance bietet 40+ Finanztools live (SEC filings, FactSet, S&P Global, Coinbase, LSEG, Quartr, Polymarket), mit Broker‑Verbindung über Plaid zur Analyse realer Portfolios.

Premium Sources ermöglicht Zugriff auf Statista, CB Insights und PitchBook direkt in den Recherche‑Streams — kostenpflichtige Quellen werden automatisch zitiert.

🔗 Everything is Computer

Agent API : vollständige Runtime‑Orchestrierung

Die Agent API ist ein verwalteter Runtime‑Dienst zum Aufbau agentischer Workflows mit integrierter Suche, Tool‑Ausführung und Multi‑Modell‑Orchestrierung. Sie ersetzt an einem einzigen Integrationspunkt einen Modellrouter, eine Suchschicht, einen Embeddings‑Anbieter, einen Sandbox‑Service und einen Monitoring‑Stack.

Outil intégréCapacités
web_searchFiltern nach Domain, Aktualität, Datumsbereich, Sprache, Inhaltsbudget
fetch_urlDirekte URL‑Retrieval
Fonctions personnaliséesVollständige Unterstützung

Vier optimierte Profile (presets) decken Anwendungsfälle ab: schnelle faktische Suche, ausgewogene Recherche, tiefgehende Multi‑Source‑Analyse und institutionelle Recherche. Deep Research 2.0 ist über das Profil advanced-deep-research verfügbar — es startet dutzende Recherchen pro Anfrage und verarbeitet Hunderte von Dokumenten.

Die Agent API ist modell‑agnostisch, unterstützt Multi‑Modell‑Fallback‑Chains für nahezu 100% Verfügbarkeit und ist heute verfügbar auf docs.perplexity.ai.

🔗 Agent API

Search API : verbesserte Snippets und Benchmark SEAL

Das Update der Search API konzentriert sich auf die Qualität der Snippets und die Evaluationsinfrastruktur.

Die neue Pipeline zur Markierung auf Fragment‑Ebene (span‑level labeling) identifiziert, welche Segmente eines Quelltexts für eine Anfrage relevant sind. Ergebnis: kleinere und präzisere Snippets, was Token‑Kosten reduziert und das Kontextmanagement für nachgelagerte Modelle verbessert.

Der SEAL‑Benchmark prüft, ob ein Retrieval‑System Fragen beantworten kann, deren Antworten sich im Laufe der Zeit ändern. Perplexity macht Fortschritte bei SEAL‑Hard, während andere Anbieter abfallen. Das Framework search_evals wurde als Open Source auf GitHub aktualisiert.

Weitere Verbesserungen: Support für Multi‑Requests (bis zu 5 in einer API‑Anfrage), Filterung nach Sprache (ISO 639‑1) und Land, sowie ein Python‑SDK (pip install perplexityai) mit nativer Unterstützung der drei APIs.

🔗 Search API update

Sandbox API : isolierte Codeausführung für Agents

Perplexity stellt seine interne Code‑Execution‑Umgebung als eigenständigen Service bereit. Jede Session läuft in einem isolierten Kubernetes‑Pod mit eingebundenem persistentem Dateisystem. Unterstützte Sprachen: Python, JavaScript, SQL. Die Installation von Paketen zur Laufzeit (at runtime) ist möglich.

Die Sessions sind zustandsbehaftet (stateful): in einem Schritt erstellte Dateien sind in späteren Schritten verfügbar, und lange Workflows können pausiert und Stunden später wieder aufgenommen werden. Die Sicherheit basiert auf einem Zero‑Trust‑Modell: kein direkter Netzwerkzugang, ausgehender Traffic über Proxy, der Code hat nie Zugriff auf rohe API‑Keys.

Die Sandbox API lässt sich mit demselben API‑Schlüssel und denselben Credits in die Agent API integrieren. Status: Private Beta demnächst.

🔗 Sandbox API


OpenAI : die Responses API erhält eine Computerumgebung für Agenten

11. März 2026 — OpenAI veröffentlicht einen technischen Beitrag, der die neuen Primitive der Responses API beschreibt, um zuverlässige autonome Agenten zu bauen: Unix‑Shell‑Tool, gehostete Container, native Kontextkompression und wiederverwendbare Agent‑Skills.

Das Shell‑Tool

Das Shell‑Tool erlaubt dem Modell, mit einem Computer über die Kommandozeile zu interagieren, mit Zugriff auf klassische Unix‑Utilities (grep, curl, awk). Im Gegensatz zum bestehenden Code‑Interpreter, der nur Python ausführte, unterstützt das Shell‑Tool Go, Java, Node.js und andere Umgebungen. Modelle ab GPT‑5.2 wurden darauf trainiert, Shell‑Befehle vorzuschlagen.

Die Responses API kann mehrere Shell‑Befehle parallel in separaten Containern ausführen und setzt für jede Kommandoausgabe ein Limit, um die Kontextfenster nicht zu überfrachten.

Gehostete Container

Der Container bildet den Arbeitsbereich des Modells:

ComposantDescription
Système de fichiersUpload, Organisation und Verwaltung von Ressourcen über die container‑ und file‑APIs
Bases de donnéesStrukturierte Speicherung (SQLite) — das Modell fragt Tabellen ab, anstatt Inhalte komplett zu laden
Accès réseauZentralisierter Egress‑Proxy mit Allowlist, Secret‑Injection pro Domain

Native Kontextkompression

Für Langzeitaufgaben integriert die Responses API einen Mechanismus zur nativen Kompaktion: Modelle werden trainiert, eine kompakte und verschlüsselte Repräsentation des konversationellen Zustands zu erzeugen. Verfügbar serverseitig (konfigurierbarer Schwellwert) oder über einen Endpoint /compact. Codex nutzt diesen Mechanismus, um lange Coding‑Sessions ohne Qualitätsverlust aufrechtzuerhalten.

Agent skills

Skills (Agenten‑Fähigkeiten) kapseln wiederkehrende Workflow‑Muster in wiederverwendbare Bundles: ein Ordner mit einer Datei SKILL.md und zugehörigen Ressourcen. Die Responses API lädt die Skill automatisch in den Kontext, bevor der Prompt an das Modell gesendet wird. Skills werden über API verwaltet und versioniert.

Parallel dazu feiert ein Entwicklerblog‑Post ein Jahr Responses API mit fünf Kunden‑Case‑Studies. Beide Veröffentlichungen zeichnen zusammen ein kohärentes Bild der Plattformentwicklung in Richtung Agentik.

🔗 Responses API + Computerumgebung 🔗 1 Jahr der Responses API


OpenAI : Verteidigungsstrategie gegen Prompt‑Injection

11. März 2026 — OpenAI veröffentlicht einen Sicherheitsbeitrag zur Robustheit von KI‑Agenten gegenüber Prompt‑Injection‑Angriffen.

Die ersten Angriffe bestanden darin, direkte Anweisungen in externe Inhalte einzuschmuggeln (Wikipedia‑Seiten, E‑Mails). Mit der Verbesserung der Modelle entwickelten sich diese Angriffe zu Social‑Engineering: überzeugender beruflicher Kontext, simulierte Dringlichkeit, vorgetäuschte Autorisierung. Ein Beispiel aus 2025, das im Artikel beschrieben wird, zeigte einen erfolgreichen Angriff in 50 % der Fälle gegen eine ältere ChatGPT‑Version.

OpenAI behandelt das Problem mit einem dreiteiligen System (Arbeitgeber / Agent / bösartiger Dritter), analog zu einem menschlichen Kundendienstagenten, der Manipulationsversuchen ausgesetzt ist. Ziel ist nicht die perfekte Identifikation jeder Attacke, sondern die Begrenzung der Auswirkungen einer erfolgreichen Manipulation.

Contre‑mesureBeschreibung
Analyse source‑sinkErkennung von Kombinationen aus unzuverlässigem Inhalt + gefährlicher Aktion
Safe UrlErkennt, ob Gesprächsinformationen an Dritte übermittelt würden — fordert Bestätigung oder blockiert
Applikative SandboxCanvas und ChatGPT Apps erkennen unerwartete Kommunikation und holen Zustimmung ein

Safe Url gilt ebenfalls für Navigationen in Atlas sowie für Recherchen und Navigationsschritte in Deep Research.

🔗 Designing AI agents to resist prompt injection


Meta MTIA : vier Generationen von KI‑Chips in zwei Jahren

11. März 2026 — Meta veröffentlicht einen technischen Beitrag zu seiner Familie maßgeschneiderter KI‑Chips MTIA (Meta Training and Inference Accelerator). In zwei Jahren hat Meta vier aufeinanderfolgende Generationen entwickelt, um Milliarden von Nutzern kostengünstig zu bedienen.

“AI models are evolving faster than traditional chip development cycles.”

🇩🇪 KI‑Modelle entwickeln sich schneller als traditionelle Entwicklungszyklen für Chips.Meta AI Blog

GénérationInnovation principale
MTIA 300Erste Chip‑Iteration optimiert für Ranking & Recommendation, wiederverwendbare modulare Basis
MTIA 400Übergang zu GenAI‑Workloads, Rack mit 72 Chips in einer einzigen Scale‑Up‑Domain
MTIA 450Verdopplung der HBM‑Bandbreite, +75 % FLOPS MX4, hardwarebeschleunigte Attention und FFN
MTIA 500+50 % HBM‑Bandbreite vs. MTIA 450, Fokus auf GenAI‑Inference

Der Fortschritt von MTIA 300 zu MTIA 500: HBM‑Bandbreite um das 4,5‑fache und FLOPS um das 25‑fache gesteigert. Metas Strategie setzt auf hohe Entwicklungs‑Velocity (ein neuer Chip pro Jahr), Fokus auf Inferenz statt Pre‑Training und native PyTorch‑Integration.

“Mainstream GPUs are typically built for the most demanding workload — large-scale GenAI pre-training — while Meta’s primary need is inference.”

🇩🇪 Mainstream‑GPUs werden typischerweise für die anspruchsvollste Arbeitslast gebaut — das groß angelegte GenAI‑Pretraining — während Metas primäres Bedürfnis die Inferenz ist.Meta AI Blog

Die Architektur des Processing Element kombiniert zwei Vektor‑RISC‑V‑Kerne, eine Dot‑Product‑Engine, eine Special Function Unit, eine Reduktions‑Engine und einen DMA. Der Software‑Stack basiert auf PyTorch, vLLM, Triton und dedizierten MTIA‑Compilern, mit vLLM‑Integration über eine Plugin‑Architektur.

🔗 Meta MTIA : scale AI chips for billions


Gemini CLI v0.33.0 : erweiterter Plan Mode und A2A‑Authentifizierung

11. März 2026 — Gemini CLI veröffentlicht Version v0.33.0, zwei Wochen nach v0.32.0, die den Plan Mode eingeführt hatte.

CatégorieNouveautés
Architecture agentHTTP‑Authentifizierung für entfernte A2A‑Agenten, Discovery authentifizierter A2A‑Agent‑Manifeste
Plan ModeEingebettete Such‑Subagents, Unterstützung von Annotationen für Nutzerfeedback, neue Sub‑Kommando copy
Interface CLIKompakter Header mit ASCII‑Icon, invertierte Anzeige des Kontextfensters, standardmäßig 30 Tage Retention für Chat‑Historie

Die Hinzufügung der HTTP‑Authentifizierung für das A2A‑Protokoll (Agent‑to‑Agent) ist die wichtigste technische Neuerung: Gemini CLI kann nun entfernte Agenten entdecken und sich gegenüber ihnen authentifizieren, was die Basis für sichere Multi‑Agent‑Orchestrierung legt.

🔗 Changelog Gemini CLI


Gemini in Chrome : Erweiterung nach Indien, Neuseeland und Kanada

11. März 2026 — Google erweitert die KI‑Funktionen von Chrome auf drei neue Märkte: Indien, Neuseeland und Kanada.

Gemini in Chrome — der KI‑Assistent im Seitenpanel, basierend auf Gemini 3.1 — ist jetzt in diesen Regionen auf Mac, Windows und Chromebook Plus verfügbar. Zu den ausgerollten Funktionen gehören: Zugriff auf Gmail, Maps, Calendar und YouTube direkt aus Chrome, bereichsübergreifende Analyse mehrerer geöffneter Tabs und Bildbearbeitung direkt im Browser via Nano Banana 2. Das Update ergänzt 50+ zusätzliche Sprachen, darunter Hindi, Französisch und Spanisch.

🔗 Chrome erweitert sich auf Indien, Neuseeland und Kanada

--- ## AlphaEvolve : neue untere Schranken für 5 Ramsey-Zahlen

11. März 2026 — Pushmeet Kohli (Google DeepMind) kündigt an, dass AlphaEvolve neue untere Schranken für 5 klassische Ramsey-Zahlen in der extremen Kombinatorik aufgestellt hat — Probleme so schwierig, dass Erdős selbst deren Komplexität kommentiert hatte, und deren beste bisherige Ergebnisse mindestens ein Jahrzehnt alt waren.

AlphaEvolve fungiert als Meta-Algorithmus, der automatisch die erforderlichen Suchverfahren entdeckt, wo historisch gesehen spezifische Algorithmen manuell entworfen werden mussten. Dieses Ergebnis veranschaulicht die Fähigkeiten von AlphaEvolve über die Kernel-Optimierungen von Google hinaus, für die es bereits bekannt war.

🔗 Tweet von Pushmeet Kohli


Gemini Embedding 2 : erstes multimodales Embedding von Google

10. März 2026 — Google kündigt Gemini Embedding 2 an, beschrieben als „our most capable and first fully multimodal embedding model“. Es ist das erste nativ multimodale Embedding-Modell von Google und für Entwickler über die Gemini API und AI Studio verfügbar.

🔗 Tweet von @googleaidevs


GitHub Copilot : Code-Review aus dem Terminal und Verbesserungen für JetBrains

11. März 2026 — Zwei bemerkenswerte Updates für GitHub Copilot.

Code-Review über GitHub CLI v2.88.0

Es ist nun möglich, eine Copilot-Code-Review direkt aus dem Terminal anzufordern. Die Befehle gh pr edit --add-reviewer @copilot (nicht-interaktiver Modus) und gh pr create (interaktiver Modus) integrieren Copilot neben den Teammitgliedern. Die Auswahl der Reviewer profitiert von einer dynamischen Suche, was die Leistung in großen Organisationen verbessert und Zugänglichkeitsprobleme behebt. Verfügbar in allen Plänen, die Copilot Code Review beinhalten — Update auf GitHub CLI v2.88.0 erforderlich.

🔗 Code Review über GitHub CLI

Agentische Verbesserungen für JetBrains IDEs

Das JetBrains-Plugin-Update bringt in die allgemeine Verfügbarkeit (GA): die personalisierten Agents (custom agents), Unter-Agents und einen Planungs-Agent (plan agent), sowie die automatische Modellauswahl für alle Pläne. In der öffentlichen Vorschau (public preview): die Agent-Hooks (userPromptSubmitted, preToolUse, postToolUse, errorOccurred) über eine Datei hooks.json in .github/hooks/, und die Unterstützung für die Dateien AGENTS.md und CLAUDE.md.

Weitere Verbesserungen ergänzen das Update: konfigurierbares auto-approve per MCP, ein Denk-Panel für Modelle mit erweitertem Reasoning, Anzeige der Nutzung des Kontextfensters und die Deprecation des Modus Edit im Menü.

🔗 Verbesserungen für JetBrains

Repository-Erkundung in Copilot im Web

In der öffentlichen Vorschau: es ist möglich, die Baumstruktur eines GitHub-Repositorys direkt aus der Web-Oberfläche von Copilot zu erkunden. Ausgewählte Dateien werden automatisch als temporäre Referenzen zum Chat hinzugefügt und können dauerhaft gemacht werden.

🔗 Repository-Erkundung in Copilot


Anthropic : Sydney und Claude for Office

Sydney, 4. Büro in Asien-Pazifik

10. März 2026 — Anthropic kündigt die baldige Eröffnung eines Büros in Sydney an, dem vierten Büro in der Asien-Pazifik-Region (nach Tokio, Seoul und Singapur). Australien liegt weltweit auf Platz 4 bei der Nutzung von Claude.ai pro Kopf; Neuseeland auf Platz 8 laut demselben Indikator (Anthropic Economic Index). Das Büro wird sich zunächst auf Unternehmenskunden, Startups und Forschung konzentrieren.

🔗 Sydney, 4. Büro Asien-Pazifik

Claude for Excel und PowerPoint : gemeinsamer Kontext und Skills für Office

11. März 2026 — Die Add-ins Claude for Excel und Claude for PowerPoint erhalten zwei wichtige Updates: den geteilten Kontext zwischen beiden Anwendungen (ein Analyst kann Daten aus einer Excel-Arbeitsmappe extrahieren und in einer PowerPoint-Präsentation in einer einzigen Unterhaltung verwenden) und die Einführung von Skills (wiederverwendbare Workflows mit einem Klick) in beiden Add-ins.

Die vorinstallierten Skills decken die häufigsten Anwendungsfälle ab: Formelprüfung, Aufbau von LBO/DCF-Modellen, Wettbewerbslandschaft-Decks, Aktualisierung von Präsentationen mit neuen Daten und Prüfung von Investment-Banking-Decks. Die Add-ins sind nun über Amazon Bedrock, Google Cloud Vertex AI und Microsoft Foundry für konforme Bereitstellungen verfügbar. Verfügbarkeit: Mac und Windows in kostenpflichtigen Plänen (Pro, Max, Team, Enterprise).

🔗 Claude für Excel und PowerPoint


NVIDIA Nemotron 3 Super, ComfyUI und GTC 2026

11. März 2026 — NVIDIA ist rund um die GTC 2026 sehr aktiv.

Nemotron 3 Super bietet einen fünfmal höheren Durchsatz für agentische KI im Vergleich zur vorherigen Generation. Es handelt sich um ein MoE (Mixture of Experts) mit 120 Milliarden Parametern, Open Source, optimiert für hochfrequente Inferenz-Workloads.

NVIDIA und ComfyUI kündigten auf der GDC 2026 (Game Developers Conference) eine Integration an, die die lokale KI-Videoerzeugung für Spieleentwickler und Kreative vereinfacht, mit Unterstützung für die Modelle FLUX und LTX-Video.

Der NVIDIA-Blog GTC 2026 Live Updates fasst die Live-Ankündigungen der Konferenz in San Jose zusammen — Mistral AI stellt dort ebenfalls seine Frontier-Modelle vor.

🔗 Nemotron 3 Super 🔗 ComfyUI auf der GDC 🔗 GTC 2026 Live-Updates


Kurz

Runway Labs — Runway startet ein internes Inkubatorprogramm unter der Leitung von Alejandro Matamala Ortiz (Mitgründer, Director of Innovation). Runway Labs wird radikal neue Anwendungen für generatives Video und General World Models in Bereichen wie Film, Gesundheit, Bildung, Gaming, Werbung und Immobilien prototypisieren. Einstellungen laufen.

🔗 Vorstellung von Runway Labs

Claude Code /btw — Ein neuer Befehl /btw ermöglicht Seitengespräche (side chain conversations), während eine Aufgabe läuft, ohne die laufende Arbeit zu unterbrechen.

🔗 Tweet von @bcherny

NotebookLM Flashcards — Update der Quiz und Karteikarten: Fortsetzen dort, wo man aufgehört hat, Verfolgung bestandener oder nicht bestandener Karteikarten, Möglichkeit, Karteikarten zu löschen oder zu mischen.

🔗 Tweet von NotebookLM

Meta Canopy Height Maps v2 — Meta und das World Resources Institute veröffentlichen CHMv2, eine neue Version der globalen Baumkronenhöhenkarten. Das Modell DINOv3 (Meta’s selbstüberwachtes Vision-Modell) verbessert Genauigkeit und globale Abdeckung. Anwendungen: Klimamigration, Waldrestauration, Stadtplanung. Modelle sind Open Source verfügbar.

🔗 Canopy Height Maps v2

Z.ai GLM-5 — GLM-5 ist nun für Lite-Nutzer (kostenloses Niveau) zugänglich, nachdem es seit seiner Einführung im Februar 2026 nur für Pro-Nutzer reserviert war.

🔗 Tweet von @ZixuanLi_


Was das bedeutet

Der 11. März 2026 illustriert zwei konvergente Grundtrends.

Der erste ist die Plattformisierung der Agentik: OpenAI, Perplexity und GitHub veröffentlichen am selben Tag komplementäre Primitive (Shell-Tools, Sandboxes, Agent-Hooks, Code Review). Das Ökosystem strukturiert sich um wiederverwendbare Bausteine — Skills, Container, Unter-Agents — die es Entwicklern ermöglichen, zuverlässige Agents zu bauen, ohne die Infrastruktur neu erfinden zu müssen.

Der zweite ist der Wettlauf um kundenspezifisches Silizium: die Details, die Meta zu seinen vier MTIA-Generationen in zwei Jahren veröffentlicht, zeigen eine klare Strategie zur Unabhängigkeit von Consumer-GPUs, abgestimmt auf großskalige Inferenz. Dieselbe Logik treibt NVIDIA dazu, Nemotron 3 Super am selben Tag wie die GTC zu veröffentlichen, wo sich die Ankündigungen häufen.

Die Schaffung des Anthropic Institute reiht sich in eine eher diskrete, aber nachhaltige Bewegung ein: Während die Fähigkeiten wachsen, strukturieren große KI-Unternehmen ihre Public-Impact-Teams nicht länger als reine Außendarstellung, sondern als eigenständige Forschungsbemühungen.


Quellen

Dieses Dokument wurde aus der fr-Version in die Sprache de mithilfe des Modells gpt-5-mini übersetzt. Für weitere Informationen über den Übersetzungsprozess konsultieren Sie https://gitlab.com/jls42/ai-powered-markdown-translator