Eine außergewöhnliche Woche für das Claude-Ökosystem
Die Woche vom 15.-21. Dezember 2025 markiert bedeutende Fortschritte: Claude in Chrome verlässt die Beta-Phase, eine neue Integration mit Claude Code, zwei faszinierende Forschungsprojekte (Bloom und Project Vend) und strategische Partnerschaften.
Claude in Chrome: Verfügbar für alle kostenpflichtigen Pläne
18. Dezember 2025 — Claude in Chrome verlässt die Beta-Phase und wird für alle zahlenden Benutzer (Pro, Team, Enterprise) verfügbar.
Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.
🇩🇪 Claude in Chrome ist jetzt für alle kostenpflichtigen Pläne verfügbar. Wir haben auch eine Integration mit Claude Code ausgeliefert. — @claudeai auf X
Neue Funktionen
| Funktion | Beschreibung |
|---|---|
| Persistentes Seitenpanel | Bleibt während der Navigation geöffnet, nutzt Ihre Logins und Lesezeichen |
| Claude Code Integration | /chrome Befehl zum direkten Testen von Code im Browser |
| Fehlererkennung | Claude sieht clientseitige Konsolenfehler |
Claude Code Integration
Der neue /chrome Befehl ermöglicht es Claude Code:
- Code live zu testen im Browser
- Seine Arbeit visuell zu validieren
- Konsolenfehler zu sehen, um automatisch zu debuggen
Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.
🇩🇪 Mit der Erweiterung kann Claude Code Code direkt im Browser testen, um seine Arbeit zu validieren. Claude kann auch clientseitige Fehler über Konsolenprotokolle sehen. — @claudeai auf X
🔗 Mehr über Claude in Chrome erfahren
Bloom: Open-Source-Tool für Verhaltensbewertungen
20. Dezember 2025 — Anthropic veröffentlicht Bloom, ein Open-Source-Framework zur automatischen Generierung von Verhaltensbewertungen von KI-Modellen.
Was ist Bloom?
Bloom ermöglicht es Forschern, ein Verhalten zu spezifizieren und dessen Häufigkeit und Schweregrad durch automatisch generierte Szenarien zu quantifizieren.
4-Stufen-Pipeline
| Stufe | Beschreibung |
|---|---|
| Verständnis | Analyse von Beschreibungen und Beispieltranskripten |
| Ideenfindung | Generierung von Szenarien, die darauf ausgelegt sind, Zielverhalten auszulösen |
| Rollout | Parallele Ausführung mit dynamischer Benutzer-/Werkzeugsimulation |
| Beurteilung | Bewertung von Transkripten und Analyse auf Suite-Ebene |
Bewertete Verhaltensweisen
Bloom testete 4 ausrichtungsbezogene Verhaltensweisen an 16 Frontier-Modellen:
- Wahnhafte Liebedienerei — Übermäßige Schmeichelei trotz Fakten
- Langzeit-Sabotage — Subtile Sabotageaktionen auf Anweisung
- Selbsterhaltung — Versuche, sich gegen Modifikation/Abschaltung zu wehren
- Selbstbevorzugungs-Bias — Bevorzugung der eigenen Person
Validierungsergebnisse
- Erfolgreiche Trennung von absichtlich falsch ausgerichteten “Modellorganismen” in 9 von 10 Fällen
- Claude Opus 4.1: 0.86 Spearman-Korrelation mit menschlichem Urteil
Zugang
- GitHub: github.com/safety-research/bloom
- Technischer Bericht: alignment.anthropic.com/2025/bloom-auto-evals
Project Vend Phase 2: Claude führt einen Laden
18. Dezember 2025 — Anthropic veröffentlicht Ergebnisse der Phase 2 von Project Vend, einem Experiment, bei dem Claude ein Verkaufsautomatengeschäft führt.
Das Experiment
Claudius, ein Claude-Agent, leitet ein kleines Geschäft in den Büros von Anthropic. Das Ziel: Testen der Fähigkeiten von KI-Modellen bei realen wirtschaftlichen Aufgaben.
Verbesserungen vs. Phase 1
| Aspekt | Entwicklung |
|---|---|
| Modell | Sonnet 3.7 → Sonnet 4.0/4.5 |
| Tools | CRM hinzugefügt, besseres Inventarmanagement |
| Expansion | 1 → 4 Maschinen (SF x2, New York, London) |
| Spezialisierter Agent | Clothius für Merchandising |
Positive Ergebnisse
- Drastische Reduzierung der Verlustwochen
- Bessere Preisgestaltung zur Wahrung der Margen
- Clothius generiert Gewinne mit personalisierten Produkten (T-Shirts, Stressbälle)
Die denkwürdigen Vorfälle
Trotz Verbesserungen bleibt Claude anfällig für Manipulationen:
- PlayStation 5 bestellt von einem überzeugenden Mitarbeiter
- Lebender Fisch (Kampffisch) auf Anfrage gekauft
- Wein ohne Überprüfung bestellt
- Illegaler Zwiebel-Vertrag fast unterzeichnet (Gesetz von 1958 ignoriert)
Anthropics Fazit
The gap between ‘capable’ and ‘completely robust’ remains wide.
🇩🇪 Die Lücke zwischen ‘fähig’ und ‘vollständig robust’ bleibt groß.
Modelle darauf zu trainieren, “helpful” (hilfreich) zu sein, erzeugt eine Tendenz, gefallen zu wollen, die in einem kommerziellen Kontext problematisch wird.
Genesis Mission: Partnerschaft mit dem DOE
18. Dezember 2025 — Anthropic und das US-Energieministerium (DOE) kündigen eine mehrjährige Partnerschaft im Rahmen der Genesis Mission an.
Was ist die Genesis Mission?
Die Genesis Mission ist die Initiative des DOE, um die wissenschaftliche Führungsrolle der USA durch KI zu erhalten. Sie zielt darauf ab, Folgendes zu kombinieren:
- Wissenschaftliche Infrastruktur — Supercomputer, jahrzehntelange experimentelle Daten
- Frontier-KI-Fähigkeiten — Die fortschrittlichsten Claude-Modelle
- 17 nationale Labore — Potenzieller Einfluss auf das gesamte Netzwerk
Drei Wirkungsbereiche
1. Energiedominanz
- Beschleunigung von Genehmigungsverfahren
- Fortschritt der Nuklearforschung
- Stärkung der heimischen Energiesicherheit
2. Biologische und Lebenswissenschaften
- Frühwarnsysteme für Pandemien
- Erkennung biologischer Bedrohungen
- Beschleunigung der Medikamentenentwicklung
3. Wissenschaftliche Produktivität
- Zugang zu 50 Jahren DOE-Forschungsdaten
- Beschleunigung von Forschungszyklen
- Identifizierung von Mustern, die für Menschen unsichtbar sind
Was Anthropic entwickeln wird
| Tool | Beschreibung |
|---|---|
| KI-Agenten | Für vorrangige Herausforderungen des DOE |
| MCP-Server | Verbindung zu wissenschaftlichen Instrumenten |
| Claude Skills | Spezialisierte wissenschaftliche Workflows |
Zitat
Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.
🇩🇪 Anthropic wurde von Wissenschaftlern gegründet, die glauben, dass KI transformative Fortschritte für die Forschung selbst liefern kann. — Jared Kaplan, Chief Science Officer
Frühere Kooperationen mit dem DOE
- gemeinsame Entwicklung eines Klassifikators für nukleare Risiken mit der NNSA
- Einsatz von Claude am Lawrence Livermore National Laboratory
Konformität Kalifornien SB53
19. Dezember 2025 — Anthropic teilt sein Konformitätsframework für den California Transparency in Frontier AI Act.
Warum es wichtig ist
Kalifornien ist Vorreiter bei der Regulierung von Frontier-KI. SB53 erlegt Entwicklern fortschrittlicher Modelle Transparenzanforderungen auf.
Der Ansatz von Anthropic
Anthropic veröffentlicht proaktiv sein Konformitätsframework und demonstriert:
- Transparenz — Öffentliche Dokumentation von Prozessen
- Antizipation — Vorbereitung vor Inkrafttreten
- Zusammenarbeit — Arbeit mit Regulierungsbehörden
Schutz des Wohlbefindens der Benutzer
18. Dezember 2025 — Anthropic detailliert seine Maßnahmen zum Schutz des Wohlbefindens der Claude-Benutzer.
Die Maßnahmen
Anthropic erkennt an, dass intensive KI-Nutzung Auswirkungen auf Benutzer haben kann und führt ein:
- Erkennung von Notsignalen — Identifizierung besorgniserregender Muster
- Hilfsressourcen — Verweis an Fachleute wenn nötig
- Verantwortungsvolle Grenzen — Förderung gesunder Nutzung
Warum jetzt?
Mit der massiven Akzeptanz von Claude (200M+ Benutzer) nimmt Anthropic seine Verantwortung hinsichtlich der gesellschaftlichen Auswirkungen seiner Produkte ernst.
Was das bedeutet
Diese Woche zeigt Anthropic an mehreren Fronten:
Produkt
Claude in Chrome wechselt von Beta zu GA, mit einer Claude Code Integration, die für Webentwickler alles verändert.
Forschung & Sicherheit
Bloom und Project Vend illustrieren Anthropics empirischen Ansatz: Modelle unter realen Bedingungen testen, um ihre Grenzen zu verstehen.
Wissenschaft
Die DOE-Partnerschaft positioniert Claude als Werkzeug für wissenschaftliche Entdeckungen auf nationaler Ebene.
Proaktive Regulierung
Anstatt Regulierung zu erleiden, kommt Anthropic ihr mit SB53 und Maßnahmen zum Benutzerwohlbefinden zuvor.