Luma AI lancia Uni-1, un modello che fonde ragionamento e generazione di pixel in un unico passaggio, totalizzando 6,1 milioni di visualizzazioni in pochi giorni. Nel frattempo, Perplexity distribuisce le sue API in Samsung Browsing Assist su oltre un miliardo di dispositivi, Claude Code v2.1.86 arriva con una quindicina di correzioni e GitHub Copilot CLI introduce la generazione di test unitari tramite agenti in modalità autopilot.
Luma Uni-1 — Ragionamento e generazione di pixel unificati
23 marzo — Luma AI ha annunciato Uni-1, un modello che descrive come « un nuovo tipo di modello che pensa e genera dei pixel simultaneamente ». A differenza dei modelli di diffusione classici che generano prima una rappresentazione latente e poi la decodificano, Uni-1 fonde il ragionamento e la generazione in un unico processo.
L’annuncio ha catturato l’attenzione con 6,1 milioni di visualizzazioni, 4.000 like e oltre un migliaio di condivisioni — cifre insolite per un annuncio tecnico nel campo della generazione di immagini.
Architettura e posizionamento :
| Capacité | Description |
|---|---|
| Raisonnement spatial | Comprend et complète les scènes avec cohérence de perspective et d’occlusion |
| Raisonnement de bon sens | Inférence de l’intention de la scène pour guider la génération |
| Transformation guidée | Modifications pilotées par la plausibilité physique, pas seulement la correspondance de pixels |
| Intelligence unifiée | Compréhension, directives et génération dans un seul passage (unified pass) |
Luma posiziona Uni-1 con la formula « Less artificial. More intelligent. » — segnalando una rottura con i generatori di immagini basati sulla corrispondenza statistica di pattern visivi. Il modello è presentato come la base dei futuri « Creative Agents » di Luma, potenzialmente il motore della prossima generazione di Dream Machine.
Uni-1 è disponibile immediatamente su lumalabs.ai/app.
“A new kind of model that thinks and generates pixels at the same time.”
🇮🇹 Un nuovo tipo di modello che pensa e genera pixel simultaneamente. — @LumaLabsAI su X
Perplexity alimenta Samsung Browsing Assist su 1 miliardo di dispositivi
26 marzo — Samsung ha lanciato Browsing Assist, un assistente IA conversazionale integrato nativamente in Samsung Browser sui dispositivi Galaxy Android e sui PC Windows. Dietro la funzionalità: le API di Perplexity, distribuite con una portata senza precedenti su oltre un miliardo di dispositivi Samsung nel mondo.
Questo lancio consolida una partnership già esistente: Perplexity alimenta due dei tre assistenti integrati nel Galaxy S26 — l’assistente nativo Perplexity e Bixby, che utilizza le API Perplexity per la ricerca web e il ragionamento. Con Browsing Assist, Perplexity passa dall’essere un assistente conversazionale alla layer IA dello stesso browser.
Capacità di Browsing Assist :
| Fonctionnalité | Description |
|---|---|
| Réponses sourcées | Résultats en temps réel pendant la navigation |
| Résumé de pages | Y compris contenu authentifié (pages derrière connexion) |
| Recherche dans l’historique | En langage naturel |
| Gestion conversationnelle | Ouvrir, fermer, naviguer entre onglets par la parole ou le texte |
| Actions multi-onglets | Opérer simultanément sur plusieurs onglets ouverts |
| Synchronisation téléphone → PC | Reprendre une conversation démarrée sur mobile |
Infrastructure : Browsing Assist fonctionne sur un cluster Perplexity dédié à locataire unique (single-tenant), avec rétention nulle des données sur toutes les entrées API. Le point de terminaison a été conçu sur mesure pour la rapidité et l’échelle requises par Samsung.
Perplexity nota che le capacità distribuite presso Samsung — ricerca, ragionamento, orchestrazione multi-onglet — sono esattamente quelle su cui è costruito il suo browser Comet. Questa distribuzione rappresenta una validazione su larga scala dello stack tecnico di Perplexity.
Disponibilità : Stati Uniti e Corea del Sud al lancio; altre regioni in arrivo. Le stesse capacità sono accessibili agli sviluppatori tramite la Search API, l’Embeddings API e l’Agent API di Perplexity.
Claude Code v2.1.86 — Correzioni importanti e supporto VCS Jujutsu/Sapling
27 marzo — Anthropic ha pubblicato Claude Code v2.1.86, una versione particolarmente ricca di correzioni. L’aggiornamento porta circa una quindicina di patch e diverse migliorie di performance.
Principali miglioramenti :
| Catégorie | Changement |
|---|---|
| API | Header X-Claude-Code-Session-Id per aggregare le richieste per sessione lato proxy |
| VCS | Esclusione di .jj (Jujutsu) e .sl (Sapling) in Grep e autocompletamento |
| Cache MCP | Tempo di avvio ridotto da 5s a 30s (cache keychain macOS) |
| Performances | Miglioramento del hit rate della cache su Bedrock, Vertex e Foundry |
| Tokens | Riduzione dell’overhead su menzioni @fichier (più nessun JSON-escape del contenuto grezzo) |
| UX mémoire | Nomi dei file di memoria cliccabili nella notifica « Saved N memories » |
| Skills | Descrizioni limitate a 250 caratteri; menu /skills ordinato alfabeticamente |
| Read tool | Formato numeri di riga compatto, deduplicazione delle riletture identiche |
Correzioni di bug notevoli : --resume falliva su sessioni create prima della v2.1.85; Write/Edit/Read falliva su file fuori dalla root del progetto con skills condizionali; potenziale crash di memoria con /feedback su sessioni lunghe; la modalità --bare perdeva gli strumenti MCP; la scorciatoia per copiare l’URL OAuth copiava solo ~20 caratteri invece dell’URL completo; gli script dei plugin ufficiali del marketplace fallivano con « Permission denied » su macOS/Linux dalla v2.1.83.
GitHub Copilot CLI — Test unitari tramite agenti in autopilot
28 marzo — GitHub ha annunciato una nuova capacità di Copilot CLI: generare automaticamente una suite completa di test unitari direttamente dal terminale, combinando la modalità piano (plan mode) con una flotta di agenti in modalità autopilot.
Workflow :
- Attivare la modalità piano con
Shift-Tabnel terminale - Avviare una flotta di agenti in autopilot
- Seguire i progressi con il comando
/tasks
La generazione è parallelizzata tra più agenti, permettendo di coprire diversi moduli simultaneamente. Il caso d’uso principale riguarda i progetti esistenti senza copertura di test — Copilot CLI può generare una suite completa senza uscire dall’ambiente terminale.
OpenAI — gpt-realtime-1.5 e gpt-realtime-mini in disponibilità generale
27 marzo — OpenAI ha annunciato la disponibilità generale (General Availability) dei nuovi modelli realtime tramite la Realtime API. La documentazione dei modelli elenca ora:
| Modèle | Positionnement |
|---|---|
gpt-realtime-1.5 | Miglior modello vocale per interazioni audio bidirezionali |
gpt-realtime-mini | Versione economica del modello realtime |
Questi modelli succedono alla precedente denominazione gpt-4o-realtime-preview della fase beta. La Realtime API permette interazioni vocali bidirezionali (audio in ingresso e uscita) in tempo reale tramite WebRTC, WebSocket o SIP. La demo presentata da @OpenAIDevs illustra un concierge medico per una clinica a Singapore capace di raccogliere informazioni e prenotare appuntamenti in modo naturale.
Google DeepMind — Toolkit per misurare la manipolazione da parte delle IA
26 marzo — Google DeepMind ha pubblicato i risultati di uno studio empirico su larga scala sulla manipolazione da parte delle IA, che ha coinvolto 10.000 persone. Lo studio identifica i settori in cui i modelli esercitano un’influenza significativa (in particolare il settore finanziario) e quelli in cui le salvaguardie esistenti bloccano efficacemente i consigli errati (settore medico).
Google DeepMind ha sviluppato un toolkit per misurare la manipolazione IA — il primo del genere validato empiricamente — per quantificare come la manipolazione possa verificarsi. Lo studio individua tattiche a rischio come l’uso della paura come leva.
“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”
🇮🇹 Abbiamo sviluppato un toolkit per misurare la manipolazione delle IA nel mondo reale, validato empiricamente e il primo del suo genere — per comprendere meglio come può avvenire e proteggere gli utenti. — @GoogleDeepMind su X
Google Translate Live — Traduzione in tempo reale su iOS
27 marzo — Google ha esteso Google Translate Live con supporto per cuffie su iOS, con distribuzione in corso verso altri paesi. La funzionalità, precedentemente disponibile solo su Android, permette la traduzione in tempo reale in oltre 70 lingue tramite cuffie Bluetooth o cablate.
MedGemma Impact Challenge — Quattro vincitori, 850+ team
26 marzo — Google ha annunciato i vincitori del MedGemma Impact Challenge, una competizione che ha mobilitato oltre 850 team di sviluppatori per costruire applicazioni di salute con MedGemma 1.5 (il modello medico open di Google).
Vincitori principali :
| Rang | Projet | Description |
|---|---|---|
| 1er | EpiCast | Sorveglianza epidemiologica per i paesi CEDEAO — traduce le osservazioni cliniche in segnali standardizzati IDSR OMS |
| 2e | Sunny | Rilevamento dei segni di cancro della pelle via mobile, report strutturati con preservazione della riservatezza |
| 3e | FieldScreen AI | Screening della tubercolosi offline: analisi di radiografie toraciche e audio della tosse |
| 4e | Tracer | Prevenzione degli errori medici: estrae le ipotesi dalle note dei medici e le confronta con i risultati dei test |
Premi speciali sono stati assegnati a progetti Edge AI e agentic workflow, tra cui ClinicDX (diagnostica integrata in OpenMRS per l’Africa subsahariana, 160+ linee guida OMS/MSF, completamente offline).
🔗 Blog Google MedGemma Impact Challenge
Runway — Ad Concepter App e concorso da 100.000 $
27 marzo — Runway ha lanciato l’Ad Concepter App, uno strumento IA per la creazione pubblicitaria. A partire da un prompt, da un’immagine di riferimento e da un visual di prodotto, l’app genera concetti, composizioni e tappe narrative (story beats) per le pubblicità. Lo strumento è disponibile immediatamente sull’app web.
Runway lancia contemporaneamente il Big Ad Contest (#RunwayBigAdContest) con premi fino a 100.000 $ per promuovere l’adozione dello strumento.
Pika — AI Selves in beta pubblica
26 marzo — Pika ha aperto le Pika AI Selves in beta pubblica. Annunciata a febbraio, questa funzionalità permette a ogni utente di creare un’estensione agentica di sé — un « AI Self » con memoria persistente (inclusi dettagli personali come allergie alimentari), in grado di agire autonomamente nelle conversazioni di gruppo, creare videogiochi o inviare foto.
L’accesso è universale via pika.me (web) e la nuova app iOS. Pika posiziona questa funzione oltre la sola generazione video, entrando in competizione con gli agenti IA personali.
Brevi
Awesome GitHub Copilot — 27 marzo — Il progetto community « Awesome GitHub Copilot » migra verso un nuovo sito dedicato awesome-copilot.github.com con ricerca full-text, Learning Hub e installazione con un clic per Copilot CLI e VS Code. 🔗 Tweet GitHub
NotebookLM notifiche push — 27 marzo — NotebookLM permette ora di lasciare la pagina durante una generazione lunga e ricevere una notifica push mobile una volta terminata la generazione. 🔗 Tweet NotebookLM
Cosa significa
Luma Uni-1 segna un cambiamento di paradigma nella generazione visiva: invece di ottimizzare la corrispondenza statistica dei pixel, il modello integra un ragionamento spaziale durante la generazione stessa. Se ciò si conferma in uso pratico, cambia il modo in cui gli strumenti creativi possono gestire la coerenza della scena e le istruzioni complesse.
Il deployment Perplexity × Samsung è forse l’annuncio con il maggior impatto pratico della settimana: un miliardo di dispositivi è una distribuzione massiva per le capacità di ricerca e ragionamento di Perplexity. È anche la conferma che le API IA specializzate (ricerca, ragionamento, orchestrazione multi-onglet) sono diventate componenti infrastrutturali per i produttori di hardware.
Sul fronte strumenti per sviluppatori, Claude Code v2.1.86 e GitHub Copilot CLI avanzano su due assi diversi: Claude Code consolida l’affidabilità (correzioni su sessioni lunghe, MCP, VCS meno comuni), mentre Copilot CLI spinge verso l’automazione agentica (generazione di test tramite flotte di agenti). Entrambe le evoluzioni riflettono la maturità crescente degli assistenti di sviluppo oltre l’autocompletamento.
Fonti
- Luma AI Uni-1 — Tweet annuncio
- Perplexity APIs + Samsung Browsing Assist — Blog ufficiale
- Perplexity × Samsung — Tweet
- Claude Code Changelog
- GitHub Copilot CLI — Test unitari — Tweet
- OpenAI gpt-realtime-1.5 — Tweet @OpenAIDevs
- Realtime API docs OpenAI
- Google DeepMind — Toolkit manipolazione IA — Tweet
- Google Translate Live iOS — Tweet @GoogleAI
- MedGemma Impact Challenge — Blog Google
- Runway Ad Concepter — Tweet
- Pika AI Selves beta — Tweet
- Awesome GitHub Copilot — Tweet
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per ulteriori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator