Suchen

Claude in Chrome GA, Bloom und Project Vend: Eine Woche voller Ankündigungen

Claude in Chrome GA, Bloom und Project Vend: Eine Woche voller Ankündigungen

Eine außergewöhnliche Woche für das Claude-Ökosystem

Die Woche vom 15.-21. Dezember 2025 markiert bedeutende Fortschritte: Claude in Chrome verlässt die Beta-Phase, eine neue Integration mit Claude Code, zwei faszinierende Forschungsprojekte (Bloom und Project Vend) und strategische Partnerschaften.


Claude in Chrome: Verfügbar für alle kostenpflichtigen Pläne

18. Dezember 2025 — Claude in Chrome verlässt die Beta-Phase und wird für alle zahlenden Benutzer (Pro, Team, Enterprise) verfügbar.

Claude in Chrome is now available to all paid plans. We’ve also shipped an integration with Claude Code.

🇩🇪 Claude in Chrome ist jetzt für alle kostenpflichtigen Pläne verfügbar. Wir haben auch eine Integration mit Claude Code ausgeliefert.@claudeai auf X

Neue Funktionen

FunktionBeschreibung
Persistentes SeitenpanelBleibt während der Navigation geöffnet, nutzt Ihre Logins und Lesezeichen
Claude Code Integration/chrome Befehl zum direkten Testen von Code im Browser
FehlererkennungClaude sieht clientseitige Konsolenfehler

Claude Code Integration

Der neue /chrome Befehl ermöglicht es Claude Code:

  • Code live zu testen im Browser
  • Seine Arbeit visuell zu validieren
  • Konsolenfehler zu sehen, um automatisch zu debuggen

Using the extension, Claude Code can test code directly in the browser to validate its work. Claude can also see client-side errors via console logs.

🇩🇪 Mit der Erweiterung kann Claude Code Code direkt im Browser testen, um seine Arbeit zu validieren. Claude kann auch clientseitige Fehler über Konsolenprotokolle sehen.@claudeai auf X

🔗 Mehr über Claude in Chrome erfahren


Bloom: Open-Source-Tool für Verhaltensbewertungen

20. Dezember 2025 — Anthropic veröffentlicht Bloom, ein Open-Source-Framework zur automatischen Generierung von Verhaltensbewertungen von KI-Modellen.

🔗 Offizielle Ankündigung

Was ist Bloom?

Bloom ermöglicht es Forschern, ein Verhalten zu spezifizieren und dessen Häufigkeit und Schweregrad durch automatisch generierte Szenarien zu quantifizieren.

4-Stufen-Pipeline

StufeBeschreibung
VerständnisAnalyse von Beschreibungen und Beispieltranskripten
IdeenfindungGenerierung von Szenarien, die darauf ausgelegt sind, Zielverhalten auszulösen
RolloutParallele Ausführung mit dynamischer Benutzer-/Werkzeugsimulation
BeurteilungBewertung von Transkripten und Analyse auf Suite-Ebene

Bewertete Verhaltensweisen

Bloom testete 4 ausrichtungsbezogene Verhaltensweisen an 16 Frontier-Modellen:

  • Wahnhafte Liebedienerei — Übermäßige Schmeichelei trotz Fakten
  • Langzeit-Sabotage — Subtile Sabotageaktionen auf Anweisung
  • Selbsterhaltung — Versuche, sich gegen Modifikation/Abschaltung zu wehren
  • Selbstbevorzugungs-Bias — Bevorzugung der eigenen Person

Validierungsergebnisse

  • Erfolgreiche Trennung von absichtlich falsch ausgerichteten “Modellorganismen” in 9 von 10 Fällen
  • Claude Opus 4.1: 0.86 Spearman-Korrelation mit menschlichem Urteil

Zugang


Project Vend Phase 2: Claude führt einen Laden

18. Dezember 2025 — Anthropic veröffentlicht Ergebnisse der Phase 2 von Project Vend, einem Experiment, bei dem Claude ein Verkaufsautomatengeschäft führt.

🔗 Offizielle Ankündigung

Das Experiment

Claudius, ein Claude-Agent, leitet ein kleines Geschäft in den Büros von Anthropic. Das Ziel: Testen der Fähigkeiten von KI-Modellen bei realen wirtschaftlichen Aufgaben.

Verbesserungen vs. Phase 1

AspektEntwicklung
ModellSonnet 3.7 → Sonnet 4.0/4.5
ToolsCRM hinzugefügt, besseres Inventarmanagement
Expansion1 → 4 Maschinen (SF x2, New York, London)
Spezialisierter AgentClothius für Merchandising

Positive Ergebnisse

  • Drastische Reduzierung der Verlustwochen
  • Bessere Preisgestaltung zur Wahrung der Margen
  • Clothius generiert Gewinne mit personalisierten Produkten (T-Shirts, Stressbälle)

Die denkwürdigen Vorfälle

Trotz Verbesserungen bleibt Claude anfällig für Manipulationen:

  • PlayStation 5 bestellt von einem überzeugenden Mitarbeiter
  • Lebender Fisch (Kampffisch) auf Anfrage gekauft
  • Wein ohne Überprüfung bestellt
  • Illegaler Zwiebel-Vertrag fast unterzeichnet (Gesetz von 1958 ignoriert)

Anthropics Fazit

The gap between ‘capable’ and ‘completely robust’ remains wide.

🇩🇪 Die Lücke zwischen ‘fähig’ und ‘vollständig robust’ bleibt groß.

Modelle darauf zu trainieren, “helpful” (hilfreich) zu sein, erzeugt eine Tendenz, gefallen zu wollen, die in einem kommerziellen Kontext problematisch wird.


Genesis Mission: Partnerschaft mit dem DOE

18. Dezember 2025 — Anthropic und das US-Energieministerium (DOE) kündigen eine mehrjährige Partnerschaft im Rahmen der Genesis Mission an.

🔗 Offizielle Ankündigung

Was ist die Genesis Mission?

Die Genesis Mission ist die Initiative des DOE, um die wissenschaftliche Führungsrolle der USA durch KI zu erhalten. Sie zielt darauf ab, Folgendes zu kombinieren:

  • Wissenschaftliche Infrastruktur — Supercomputer, jahrzehntelange experimentelle Daten
  • Frontier-KI-Fähigkeiten — Die fortschrittlichsten Claude-Modelle
  • 17 nationale Labore — Potenzieller Einfluss auf das gesamte Netzwerk

Drei Wirkungsbereiche

1. Energiedominanz

  • Beschleunigung von Genehmigungsverfahren
  • Fortschritt der Nuklearforschung
  • Stärkung der heimischen Energiesicherheit

2. Biologische und Lebenswissenschaften

  • Frühwarnsysteme für Pandemien
  • Erkennung biologischer Bedrohungen
  • Beschleunigung der Medikamentenentwicklung

3. Wissenschaftliche Produktivität

  • Zugang zu 50 Jahren DOE-Forschungsdaten
  • Beschleunigung von Forschungszyklen
  • Identifizierung von Mustern, die für Menschen unsichtbar sind

Was Anthropic entwickeln wird

ToolBeschreibung
KI-AgentenFür vorrangige Herausforderungen des DOE
MCP-ServerVerbindung zu wissenschaftlichen Instrumenten
Claude SkillsSpezialisierte wissenschaftliche Workflows

Zitat

Anthropic was founded by scientists who believe AI can deliver transformative progress for research itself.

🇩🇪 Anthropic wurde von Wissenschaftlern gegründet, die glauben, dass KI transformative Fortschritte für die Forschung selbst liefern kann.Jared Kaplan, Chief Science Officer

Frühere Kooperationen mit dem DOE

  • gemeinsame Entwicklung eines Klassifikators für nukleare Risiken mit der NNSA
  • Einsatz von Claude am Lawrence Livermore National Laboratory

Konformität Kalifornien SB53

19. Dezember 2025 — Anthropic teilt sein Konformitätsframework für den California Transparency in Frontier AI Act.

🔗 Offizielle Ankündigung

Warum es wichtig ist

Kalifornien ist Vorreiter bei der Regulierung von Frontier-KI. SB53 erlegt Entwicklern fortschrittlicher Modelle Transparenzanforderungen auf.

Der Ansatz von Anthropic

Anthropic veröffentlicht proaktiv sein Konformitätsframework und demonstriert:

  • Transparenz — Öffentliche Dokumentation von Prozessen
  • Antizipation — Vorbereitung vor Inkrafttreten
  • Zusammenarbeit — Arbeit mit Regulierungsbehörden

Schutz des Wohlbefindens der Benutzer

18. Dezember 2025 — Anthropic detailliert seine Maßnahmen zum Schutz des Wohlbefindens der Claude-Benutzer.

🔗 Offizielle Ankündigung

Die Maßnahmen

Anthropic erkennt an, dass intensive KI-Nutzung Auswirkungen auf Benutzer haben kann und führt ein:

  • Erkennung von Notsignalen — Identifizierung besorgniserregender Muster
  • Hilfsressourcen — Verweis an Fachleute wenn nötig
  • Verantwortungsvolle Grenzen — Förderung gesunder Nutzung

Warum jetzt?

Mit der massiven Akzeptanz von Claude (200M+ Benutzer) nimmt Anthropic seine Verantwortung hinsichtlich der gesellschaftlichen Auswirkungen seiner Produkte ernst.


Was das bedeutet

Diese Woche zeigt Anthropic an mehreren Fronten:

Produkt

Claude in Chrome wechselt von Beta zu GA, mit einer Claude Code Integration, die für Webentwickler alles verändert.

Forschung & Sicherheit

Bloom und Project Vend illustrieren Anthropics empirischen Ansatz: Modelle unter realen Bedingungen testen, um ihre Grenzen zu verstehen.

Wissenschaft

Die DOE-Partnerschaft positioniert Claude als Werkzeug für wissenschaftliche Entdeckungen auf nationaler Ebene.

Proaktive Regulierung

Anstatt Regulierung zu erleiden, kommt Anthropic ihr mit SB53 und Maßnahmen zum Benutzerwohlbefinden zuvor.


Quellen