Suchen

Luma Uni-1 denkt und erzeugt Pixel, Perplexity auf 1 Mrd. Samsung-Geräten, Claude Code v2.1.86

Luma Uni-1 denkt und erzeugt Pixel, Perplexity auf 1 Mrd. Samsung-Geräten, Claude Code v2.1.86

Luma AI stellt Uni-1 vor, ein Modell, das Denken und Pixelerzeugung in einem einzigen Durchlauf vereint und in wenigen Tagen 6,1 Millionen Aufrufe gesammelt hat. Unterdessen bringt Perplexity seine APIs in Samsung Browsing Assist auf mehr als einer Milliarde Geräte, Claude Code v2.1.86 liefert rund fünfzehn Bugfixes, und GitHub Copilot CLI führt die Generierung von Unit-Tests durch Agenten im Autopilot ein.


Luma Uni-1 — Vereinheitlichtes räumliches Denken und Pixelerzeugung

23. März — Luma AI hat Uni-1 angekündigt, ein Modell, das sie als «ein neuer Modelltyp, der gleichzeitig denkt und Pixel erzeugt» beschreibt. Im Gegensatz zu klassischen Diffusionsmodellen, die zuerst eine latente Repräsentation erzeugen und diese dann dekodieren, vereint Uni-1 Schlussfolgerung und Generierung in einem einzigen Prozess.

Die Ankündigung zog mit 6,1 Millionen Aufrufen, 4.000 Likes und mehr als tausend Reposts Aufmerksamkeit auf sich — ungewöhnliche Zahlen für eine technische Ankündigung im Bereich Bildgenerierung.

Architektur und Positionierung :

FähigkeitBeschreibung
Räumliches DenkenVersteht und ergänzt Szenen mit konsistenter Perspektive und Verdeckung
AlltagslogikSchließt auf die Absicht der Szene, um die Generierung zu steuern
Gesteuerte TransformationenModifikationen werden durch physikalische Plausibilität gesteuert, nicht nur Pixelübereinstimmung
Vereinheitlichte IntelligenzVerständnis, Steuerung und Generierung in einem einzigen Durchlauf (einheitlicher Durchlauf)

Luma positioniert Uni-1 mit dem Slogan «Less artificial. More intelligent.» — ein Bruch mit Bildgeneratoren, die auf statistischer Übereinstimmung visueller Muster basieren. Das Modell wird als Grundlage für Lumas zukünftige «Creative Agents» präsentiert und könnte die Engine der nächsten Dream Machine-Generation werden.

Uni-1 ist sofort auf lumalabs.ai/app verfügbar.

“A new kind of model that thinks and generates pixels at the same time.”

🇩🇪 Ein neuer Modelltyp, der gleichzeitig denkt und Pixel erzeugt.@LumaLabsAI auf X

🔗 Ankündigung Luma Uni-1


Perplexity betreibt Samsung Browsing Assist auf 1 Milliarde Geräten

26. März — Samsung hat Browsing Assist eingeführt, einen konversationellen KI-Assistenten, der nativ im Samsung Browser auf Galaxy-Android-Geräten und Windows-PCs integriert ist. Hinter der Funktion stehen die APIs von Perplexity, die auf eine beispiellose Reichweite von mehr als einer Milliarde Samsung-Geräten weltweit ausgerollt wurden.

Dieser Launch festigt eine bereits bestehende Partnerschaft: Perplexity betreibt zwei der drei im Galaxy S26 integrierten Assistenten — den nativen Perplexity-Assistenten und Bixby, der die Perplexity-APIs für Websuche und Schlussfolgerungen nutzt. Mit Browsing Assist wandelt sich Perplexity vom Konversationsassistenten zur KI-Schicht des Browsers selbst.

Fähigkeiten von Browsing Assist :

FunktionBeschreibung
Quellenbasierte AntwortenErgebnisse in Echtzeit während des Surfens
SeitenzusammenfassungenEinschließlich authentifizierter Inhalte (Seiten hinter Login)
Suche im VerlaufIn natürlicher Sprache
Konversationelles ManagementTabs per Sprache oder Text öffnen, schließen, navigieren
Multi-Tab-AktionenGleichzeitiges Arbeiten über mehrere offene Tabs
Synchronisation Telefon → PCFortsetzen einer auf dem Handy begonnenen Unterhaltung

Infrastruktur : Browsing Assist läuft auf einem Perplexity-Cluster als dedizierter Mieter (single-tenant), mit keiner Datenspeicherung für API-Eingaben. Der Endpunkt wurde speziell für die von Samsung geforderte Geschwindigkeit und Skalierung entwickelt.

Perplexity weist darauf hin, dass die bei Samsung bereitgestellten Fähigkeiten — Suche, Schlussfolgerung, Multi-Tab-Orchestrierung — genau die Komponenten sind, auf denen ihr Browser Comet aufgebaut ist. Dieses Deployment stellt eine groß angelegte Validierung der technischen Stack-Architektur von Perplexity dar.

Verfügbarkeit : USA und Südkorea beim Start; weitere Regionen folgen. Dieselben Fähigkeiten sind Entwicklern über die Search API, die Embeddings API und die Agent API von Perplexity zugänglich.

🔗 Offizieller Perplexity-Blog


Claude Code v2.1.86 — Wichtige Bugfixes und VCS-Support für Jujutsu/Sapling

27. März — Anthropic hat Claude Code v2.1.86 veröffentlicht, eine Version mit einem besonders dichten Satz an Korrekturen. Das Update enthält rund fünfzehn Bugfixes und mehrere Performance-Verbesserungen.

Hauptverbesserungen :

KategorieÄnderung
APIHeader X-Claude-Code-Session-Id zum Aggregieren von Anfragen pro Session auf Proxy-Ebene
VCSAusschluss von .jj (Jujutsu) und .sl (Sapling) in Grep und Autovervollständigung
Cache MCPStartverzögerung reduziert von 5s auf 30s (macOS Keychain-Cache)
PerformanceVerbesserte Cache-Trefferquote auf Bedrock, Vertex und Foundry
TokensReduzierter Overhead bei Erwähnungen @fichier (kein JSON-Escaping des Rohinhalts mehr)
UX SpeicherKlickbare Dateinamen in der Anzeige «Saved N memories»
SkillsBeschreibungen auf 250 Zeichen begrenzt; Menü /skills alphabetisch sortiert
Read toolKompaktes Zeilennummernformat, Deduplizierung identischer Lesevorgänge

Bemerkenswerte Bugfixes : --resume schlug fehl bei Sessions, die vor v2.1.85 erstellt wurden; Write/Edit/Read schlugen auf Dateien außerhalb des Projektstamms mit bedingten Skills fehl; potenzieller Speicher-Crash mit /feedback bei langen Sessions; der Modus --bare verlor MCP-Tools; die OAuth-URL-Kopiefunktion kopierte nur ~20 Zeichen statt der gesamten URL; offizielle Marketplace-Plugin-Skripte schlugen seit v2.1.83 auf macOS/Linux mit «Permission denied» fehl.

🔗 Claude Code Änderungsprotokoll


GitHub Copilot CLI — Unit-Tests durch Agenten im Autopilot

28. März — GitHub hat eine neue Fähigkeit für Copilot CLI angekündigt: die automatische Generierung einer kompletten Suite von Unit-Tests direkt aus dem Terminal, indem der Plan-Modus (plan mode) mit einer Flotte von Agenten im Autopilot kombiniert wird.

Workflow :

  1. Plan-Modus mit Shift-Tab im Terminal aktivieren
  2. Eine Flotte von Agenten im Autopilot starten
  3. Den Fortschritt mit dem Kommando /tasks verfolgen

Die Generierung wird über mehrere Agenten parallelisiert, wodurch mehrere Module gleichzeitig abgedeckt werden können. Der Hauptanwendungsfall sind bestehende Projekte ohne Testabdeckung — Copilot CLI kann eine vollständige Test-Suite erstellen, ohne die Terminal-Umgebung zu verlassen.

🔗 Tweet GitHub Copilot CLI


OpenAI — gpt-realtime-1.5 und gpt-realtime-mini allgemein verfügbar

27. März — OpenAI hat die allgemeine Verfügbarkeit (General Availability) neuer Realtime-Modelle über die Realtime API angekündigt. Die Modell-Dokumentation listet nun:

ModellPositionierung
gpt-realtime-1.5Bestes Sprachmodell für bidirektionale Audio-Interaktionen
gpt-realtime-miniKostengünstige Version des Realtime-Modells

Diese Modelle ersetzen die frühere Bezeichnung gpt-4o-realtime-preview aus der Beta-Phase. Die Realtime API ermöglicht bidirektionale Sprachinteraktionen (Audio in und out) in Echtzeit über WebRTC, WebSocket oder SIP. Die von @OpenAIDevs gezeigte Demo illustriert einen medizinischen Concierge für eine Klinik in Singapur, der Informationen sammelt und Termine natürlich reservieren kann.

🔗 Tweet @OpenAIDevs


Google DeepMind — Toolkit zur Messung von KI-Manipulation

26. März — Google DeepMind hat die Ergebnisse einer großangelegten empirischen Studie zur Manipulation durch KI veröffentlicht, die 10.000 Personen umfasst. Die Studie identifiziert Bereiche, in denen Modelle einen signifikanten Einfluss ausüben (insbesondere im Finanzbereich) und solche, in denen bestehende Schutzmaßnahmen falsche Ratschläge wirksam verhindern (z. B. im medizinischen Bereich).

Google DeepMind hat ein Toolkit zur Messung von KI-Manipulation entwickelt — das erste seiner Art mit empirischer Validierung — um zu quantifizieren, wie Manipulation stattfinden kann. Die Studie benennt risikobehaftete Taktiken wie die Nutzung von Angst als Hebel.

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇩🇪 Wir haben ein Toolkit zur Messung von KI-Manipulation in der realen Welt entwickelt, empirisch validiert und als erstes seiner Art — um besser zu verstehen, wie sie auftreten kann, und die Nutzer zu schützen.@GoogleDeepMind auf X

🔗 Tweet Google DeepMind


Google Translate Live — Echtzeitübersetzung auf iOS

27. März — Google hat Google Translate Live mit Kopfhörer-Unterstützung auf iOS erweitert; die Ausrollung in weitere Länder läuft. Die Funktion, zuvor nur auf Android verfügbar, ermöglicht Echtzeitübersetzung in 70+ Sprachen über Bluetooth- oder kabelgebundene Kopfhörer.

🔗 Tweet @GoogleAI


MedGemma Impact Challenge — Vier Gewinner, 850+ Teams

26. März — Google hat die Gewinner der MedGemma Impact Challenge bekannt gegeben, eines Wettbewerbs, an dem über 850 Teams von Entwicklern teilnahmen, um Gesundheitsanwendungen mit MedGemma 1.5 (dem offenen medizinischen Modell von Google) zu bauen.

Hauptgewinner :

PlatzProjektBeschreibung
1.EpiCastEpidemiologische Überwachung für ECOWAS-Länder — übersetzt klinische Beobachtungen in standardisierte OMS-IDSR-Signale
2.SunnyErkennung von Hautkrebszeichen per Mobilgerät, strukturierte Berichte bei Wahrung der Privatsphäre
3.FieldScreen AIOffline-Tuberkulose-Screening: Analyse von Thoraxröntgenbildern und Husten-Audio
4.TracerVerhinderung medizinischer Fehler: Extrahiert Hypothesen aus Ärztenotizen und vergleicht sie mit Testergebnissen

Sonderpreise wurden an Edge-AI- und agentische Workflow-Projekte vergeben, darunter ClinicDX (Diagnostik integriert in OpenMRS für Subsahara-Afrika, 160+ OMS/MSF-Leitfäden, vollständig offline).

🔗 Blog Google MedGemma Impact Challenge


Runway — Ad Concepter App und 100.000 $ Wettbewerb

27. März — Runway hat die Ad Concepter App veröffentlicht, ein KI-Tool zur Erstellung von Werbeanzeigen. Ausgehend von einem Prompt, einem Referenzbild und einem Produktbild generiert die App Konzepte, Kompositionen und narrative Schritte (story beats) für Anzeigen. Das Tool ist sofort in der Web-App verfügbar.

Runway startet gleichzeitig den Big Ad Contest (#RunwayBigAdContest) mit Preisen von bis zu 100.000 $, um die Nutzung des Tools zu fördern.

🔗 Tweet Runway


Pika — AI Selves in öffentlicher Beta

26. März — Pika hat die Pika AI Selves in einer öffentlichen Beta geöffnet. Im Februar angekündigt, ermöglicht diese Funktion jedem Nutzer, eine agentische Erweiterung von sich selbst zu erstellen — ein „AI Self“ mit persistentem Gedächtnis (inkl. persönlicher Details wie Nahrungsmittelallergien), das autonom in Gruppenchats agieren, Spiele entwickeln oder Fotos versenden kann.

Der Zugang ist über pika.me (Web) und die neue iOS-App universell möglich. Pika positioniert diese Funktion jenseits reiner Videogenerierung und tritt damit in Konkurrenz zu persönlichen KI-Agenten.

🔗 Tweet Pika Labs


Kurzmeldungen

Awesome GitHub Copilot — 27. März — Das Community-Projekt «Awesome GitHub Copilot» zieht auf eine neue dedizierte Seite awesome-copilot.github.com mit Volltextsuche, Learning Hub und Ein-Klick-Installation für Copilot CLI und VS Code um. 🔗 Tweet GitHub

NotebookLM Push-Benachrichtigungen — 27. März — NotebookLM ermöglicht es nun, die Seite während einer langen Generierung zu verlassen und nach Fertigstellung eine mobile Push-Benachrichtigung zu erhalten. 🔗 Tweet NotebookLM


Was das bedeutet

Luma Uni-1 markiert einen Paradigmenwechsel in der visuellen Generierung: Anstatt die statistische Pixelübereinstimmung zu optimieren, integriert das Modell räumliches Denken während der Generierung selbst. Sollte sich das in der Praxis bewähren, verändert das die Art und Weise, wie kreative Tools Szenen-Kohärenz und komplexe Anweisungen handhaben.

Das Perplexity × Samsung-Deployment ist womöglich die praktisch einflussreichste Ankündigung der Woche: Eine Milliarde Geräte bedeutet eine massive Distribution für Perplexitys Such- und Schlussfolgerungsfähigkeiten. Es bestätigt außerdem, dass spezialisierte IA-APIs (Suche, Schlussfolgerung, Multi-Tab-Orchestrierung) zu Infrastrukturkomponenten für Hardware-Hersteller geworden sind.

Bei Entwickler-Tools gehen Claude Code v2.1.86 und GitHub Copilot CLI unterschiedliche Wege: Claude Code stärkt die Zuverlässigkeit (Fixes für lange Sessions, MCP, weniger verbreitete VCS), während Copilot CLI die agentische Automatisierung vorantreibt (Generierung von Tests durch Agenten-Flotten). Beide Entwicklungen spiegeln die zunehmende Reife von Entwicklungsassistenten über Autovervollständigung hinaus wider.


Quellen

Dieses Dokument wurde aus der fr-Version in die Sprache de mithilfe des Modells gpt-5-mini übersetzt. Für weitere Informationen zum Übersetzungsprozess finden Sie unter https://gitlab.com/jls42/ai-powered-markdown-translator