Cerca

Claude crea visual interattivi, OpenAI lancia la Video API Sora 2, Google Maps si reinventa con Gemini

Claude crea visual interattivi, OpenAI lancia la Video API Sora 2, Google Maps si reinventa con Gemini

Il 12 marzo 2026 è segnato da tre annunci di prodotto importanti: Claude compie un salto generazionale generando visual interattivi direttamente nella conversazione, OpenAI apre una Video API programmabile alimentata da Sora 2, e Google Maps integra Gemini per la sua ristrutturazione più profonda in oltre un decennio. In parallelo, Claude Code riceve due aggiornamenti (v2.1.73 e v2.1.74), Perplexity amplia Computer per gli abbonati Pro e ElevenLabs lancia Flows e Music Finetunes nella sua piattaforma creativa.


Claude genera visual interattivi nella conversazione

12 marzo — Claude può ora creare grafici interattivi, diagrammi e visualizzazioni direttamente nella conversazione, senza scrivere codice. La funzionalità è disponibile in beta su tutti gli abbonamenti, incluso il piano gratuito.

Derivata dall’anteprima “Imagine with Claude” annunciata lo scorso autunno, questa funzionalità cambia il modo di interagire con l’assistente: i visual appaiono in linea nelle risposte, e non in un pannello laterale separato. Sono temporanei — evolvono o scompaiono durante la conversazione — a differenza degli Artifacts, che sono documenti permanenti pensati per essere condivisi o scaricati.

Esempi concreti d’uso: chiedere come funzionano gli interessi composti genera una curva interattiva da manipolare, chiedere la tavola periodica produce una visualizzazione cliccabile con i dettagli di ogni elemento. Si può richiamare un visual con formule come “draw this as a diagram” o “visualize how this might change over time”. Claude decide da solo quando creare un visual, oppure l’utente può richiederlo esplicitamente.

Questa funzionalità si inserisce in una serie di miglioramenti recenti delle risposte di Claude: formati dedicati per le ricette, meteo visivo e integrazioni dirette con Figma, Canva e Slack.

“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”

🇮🇹 Claude può ora creare grafici e diagrammi interattivi direttamente nella conversazione. Disponibile da oggi in beta su tutti gli abbonamenti, incluso quello gratuito.@claudeai su X

🔗 Claude ora crea grafici, diagrammi e visualizzazioni interattive


Claude Code v2.1.74 : gestione del contesto e correzioni multipiattaforma

12 marzo — La versione 2.1.74 di Claude Code apporta miglioramenti alla gestione del contesto e corregge una serie di bug su Windows e macOS.

Nuove funzionalità :

FonctionnalitéDescription
/context amélioréSuggestions actionnables : identifie les outils lourds en contexte, le gonflement de mémoire, et les avertissements de capacité avec des conseils d’optimisation
autoMemoryDirectoryNouveau paramètre pour configurer un répertoire personnalisé pour le stockage auto-mémoire
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MSNouveau paramètre pour configurer le timeout des hooks SessionEnd (auparavant figé à 1,5 s)

Tra le correzioni notevoli: una perdita di memoria nei buffer di risposta API in modalità stream che causava una crescita incontrollata della RSS su Node.js; le politiche managed ask non potevano più essere aggirate dalle regole allow utente; gli ID completi dei modelli (es: claude-opus-4-5) ignorati silenziosamente nel frontmatter model: degli agent sono ora correttamente accettati. Le correzioni MCP OAuth coprono il blocco su callback con porta già in uso e la mancata riautenticazione dopo la scadenza del refresh token per connettori come Slack. Su macOS, il binario nativo include ora l’entitlement audio-input affinché macOS mostri correttamente la richiesta di autorizzazione del microfono in modalità vocale.

🔗 CHANGELOG di Claude Code


Claude Code v2.1.73 : stabilità, Bedrock ARNs e OAuth SSL

11 marzo — La versione 2.1.73 corregge diversi problemi di stabilità importanti, inclusi blocchi CPU e deadlock legati agli skill.

Nuove funzionalità :

FonctionnalitéDescription
modelOverridesNouveau paramètre pour mapper les entrées du sélecteur de modèle vers des IDs de modèles providers personnalisés (ex : Bedrock inference profile ARNs)
Guidance OAuth SSLGuidance actionnable quand la connexion OAuth ou les vérifications de connectivité échouent à cause d’erreurs de certificat SSL (proxies d’entreprise, NODE_EXTRA_CA_CERTS)

Le correzioni principali: blocchi e loop CPU al 100% scatenati dai prompt di permission su comandi bash complessi; un blocco che poteva congelare Claude Code quando molti file skill cambiavano simultaneamente (es: git pull in un repo con una grande cartella .claude/skills/); i sotto-agent con model: opus / sonnet / haiku venivano degradati silenziosamente a versioni precedenti su Bedrock, Vertex e Microsoft Foundry.

🔗 CHANGELOG di Claude Code


Ramp AI Index : Anthropic diventa la scelta predefinita per le aziende

11 marzo — Secondo l’ultimo rapporto Ramp AI Index, Anthropic è diventato il fornitore di IA preferito dalle aziende al loro primo acquisto. Il grafico condiviso da Ara Kharazian (economista senior del Ramp Economics Lab) mostra che la quota di mercato di Anthropic tra le nuove aziende clienti raggiunge circa il 70% all’inizio del 2026, contro circa il 25% per OpenAI — un’inversione significativa rispetto al 2025.

I dati provengono da oltre 50.000 aziende che utilizzano la piattaforma Ramp (carte di credito e pagamenti aziendali), rendendolo un barometro affidabile della spesa IA reale nelle imprese. La crescita di Anthropic è in particolare trainata dall’adozione di Claude negli ambienti professionali (API, Claude for Work, integrazioni enterprise).

🔗 Ramp AI Index su X


OpenAI Video API : Sora 2 accessibile agli sviluppatori

12 marzo — OpenAI lancia la Video API per gli sviluppatori, un’interfaccia programmatica che permette di creare, estendere, modificare e gestire video. Questa capacità è alimentata da Sora 2, il modello di generazione video di seconda generazione di OpenAI.

La Video API espone due varianti: sora-2, progettata per la velocità e l’esplorazione (iterazioni rapide, contenuti per i social, prototipi), e sora-2-pro, orientata alla qualità di produzione (output cinematografici, asset marketing, risoluzioni fino a 1920×1080). Entrambe le varianti supportano durate di generazione da 16 a 20 secondi, con estensione possibile fino a 120 secondi totali.

Le principali funzionalità disponibili tramite l’endpoint POST /videos includono: generazione da prompt testuale, guida tramite immagine di riferimento (che condiziona il primo frame), coerenza di personaggi non umani riutilizzabili tra più generazioni (POST /v1/videos/characters) e editing mirato via POST /v1/videos/edits. Il processamento è asincrono, con supporto a webhooks per le notifiche di fine rendering. È disponibile anche un’elaborazione batch tramite la Batch API per le code di rendering offline.

Si applicano restrizioni di contenuto: nessuna rappresentazione di persone reali, nessun personaggio protetto da copyright, nessun contenuto per adulti (questa restrizione potrebbe evolvere in futuro).

🔗 Documentazione Video API


Google Maps : Ask Maps e Immersive Navigation

12 marzo — Google Maps riceve il suo più grande aggiornamento di navigazione in oltre un decennio, potenziato dai modelli Gemini. Sono annunciate simultaneamente due nuove esperienze.

Ask Maps è una nuova esperienza conversazionale che permette di porre domande complesse su luoghi reali. Si può chiedere per esempio “Il mio telefono si sta scaricando — dove posso ricaricarlo senza fare la coda per un caffè?” oppure “C’è un campo da tennis con illuminazione disponibile stasera?” La funzionalità si basa sui dati di oltre 300 milioni di luoghi e sulle recensioni di più di 500 milioni di contributor. Le risposte sono personalizzate in base ai luoghi salvati o cercati in precedenza. Ask Maps inizia il rollout negli Stati Uniti e in India su Android e iOS, con la versione desktop in arrivo.

Immersive Navigation trasforma l’esperienza di guida con una vista 3D che riflette edifici, ponti e rilievi circostanti. Gemini analizza immagini Street View e foto aeree per mostrare dettagli critici: corsie, attraversamenti pedonali, semafori, cartelli di stop. La funzionalità offre anche un guidaggio vocale naturale (stile “Prendi questa uscita e poi la successiva per Illinois 43 South”), informazioni sui compromessi tra percorsi alternativi (pedaggio vs traffico) e avvisi in tempo reale sulle perturbazioni. Immersive Navigation si distribuisce da oggi negli Stati Uniti su iOS e Android idonei, CarPlay, Android Auto e veicoli con Google integrato.

🔗 Ask Maps e Immersive Navigation: nuove funzionalità AI in Google Maps


GitHub Copilot : selezione automatica del modello GA in JetBrains

12 marzo — GitHub ha annunciato la disponibilità generale (Generally Available) della selezione automatica del modello per GitHub Copilot in tutti gli ambienti di sviluppo JetBrains (IntelliJ IDEA, PyCharm, WebStorm, ecc.), per tutti gli abbonamenti Copilot.

La modalità “Auto” seleziona dinamicamente il modello più adatto al compito, tenendo conto dei limiti di throughput. Gli sviluppatori mantengono una visibilità completa: passando il cursore sulla risposta vedono quale modello è stato utilizzato e possono in qualsiasi momento passare a un modello specifico. La fatturazione segue il modello effettivamente selezionato, con moltiplicatori attualmente compresi tra 0x e 1x.

GitHub annuncia che la selezione automatica diventerà progressivamente più intelligente, con la capacità di scegliere il modello in base al contesto preciso del compito (generazione di codice, revisione, chat, ecc.). Questa funzionalità era già disponibile in anteprima in JetBrains e in GA in VS Code.

🔗 Selezione automatica del modello di Copilot disponibile in JetBrains IDEs (GA)


GitHub Copilot CLI : cronologia delle sessioni in SQLite

11 marzo — GitHub Copilot CLI integra ora un database SQLite locale per memorizzare la cronologia delle tue sessioni di terminale. In pratica, se hai risolto un problema qualche giorno fa da riga di comando, Copilot CLI può ricordarti la soluzione — senza dover cercare nell’history della shell o nelle tue note. Questa funzionalità fa parte della fase 2 del rollout generale di GitHub Copilot CLI, accessibile tramite gh copilot.

🔗 GitHub Copilot CLI


Perplexity Computer si apre agli abbonati Pro

12 marzo — Perplexity Computer, l’agente capace di eseguire workflow complessi in più fasi sul web, sui file e sugli strumenti connessi, è ora accessibile agli abbonati Pro.

Finora riservato agli abbonati Max e ai clienti Enterprise, Perplexity Computer offre accesso a oltre 20 modelli avanzati, a skills predefinite e personalizzabili, e a centinaia di connettori. Gli abbonati Max mantengono un vantaggio in termini di crediti mensili e limiti di spesa più elevati.

🔗 Perplexity Computer


Perplexity Computer for Enterprise : 1,6 M$ risparmiati in quattro settimane

12 marzo — Perplexity ha pubblicato un articolo dedicato che dettaglia il deployment di Perplexity Computer for Enterprise, disponibile da ora per i clienti Enterprise.

Computer for Enterprise si integra con gli strumenti già in uso dalle aziende: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub e oltre 400 altri tramite connettori. Instrada ogni task sul modello più adatto tra una ventina e permette ai team di definire skills adattate ai loro processi interni.

ÉquipeCas d’usage
FinanceSuivi de vérification préalable (due diligence) pour les fusions-acquisitions, analyse des documents et signalement des risques
JuridiqueRévision d’accord fournisseur, comparaison de versions, annotation de contrat (redlining)
MarketingCréation de campagne (créatifs, posts sociaux, pages d’atterrissage) + tableau de bord de performance

Perplexity ha condiviso cifre tratte da uno studio interno su più di 16.000 richieste: Computer ha permesso di risparmiare 1,6 milioni di dollari in costi di manodopera e ha realizzato l’equivalente di 3,25 anni di lavoro in quattro settimane. La soluzione è certificata SOC 2 Type II, con SAML SSO e una esecuzione isolata per ogni task.

🔗 Perplexity Computer for Enterprise


ElevenLabs Flows : una tela per unificare immagine, video, audio

11 marzo — ElevenLabs ha introdotto Flows, un editor node-based integrato in ElevenCreative. In un unico canvas, i creatori possono concatenare e combinare la generazione di immagini, video, sintesi vocale (Text to Speech), lip-sync, musica ed effetti sonori.

Questo approccio ricorda i workflow di ComfyUI, ma applicato all’ecosistema multimodale di ElevenLabs, con tutti i modelli audio e video dello studio accessibili in un unico posto.

🔗 Presentazione di Flows in ElevenCreative


ElevenLabs Music Finetunes : coerenza stilistica per la generazione musicale

12 marzo — ElevenLabs ha lanciato i Music Finetunes in ElevenCreative. Questa funzionalità permette ai creatori di generare voci individuali, strumenti o tracce musicali complete mantenendo una coerenza stilistica, grazie a una versione fine-tuned del modello musicale di ElevenLabs.

🔗 Presentazione dei Music Finetunes in ElevenCreative


BFL FLUX.2 [klein] 9B : editing delle immagini 2× più veloce

12 marzo — Black Forest Labs (BFL) ha annunciato un aggiornamento significativo del suo modello FLUX.2 [klein] 9B: l’editing delle immagini è ora 2× più veloce, in particolare quando vengono usate più immagini di riferimento.

DétailValeur
ModèleFLUX.2 [klein] 9B
Amélioration2× più veloce nell’editing
Cas d’usage renforcéRiferimenti multipli
PrixInvariato
PoidsHuggingFace (black-forest-labs/FLUX.2-klein-9b-kv)

L’aggiornamento è automatico e gratuito per gli utenti esistenti di FLUX.2 [klein] 9B tramite l’API. Gli utenti del modello [klein] 4B possono accedere alla versione migliorata 9B tramite un nuovo endpoint in anteprima.

🔗 Annuncio BFL su X


Mistral AI Now Summit: Parigi, 28 maggio 2026

12 marzo — Mistral AI annuncia il suo primo evento di punta: l‘“AI Now Summit”, una giornata dedicata alla trasformazione IA delle aziende, prevista per il 28 maggio 2026 a Parigi.

TemaDescrizione
Open source aziendaleL’open source come fondamento per trasformazioni IA end-to-end
Messa in produzionePassare dai piloti alle implementazioni su larga scala
Infrastruttura IACostruire un’infrastruttura di livello enterprise
Innovazioni 2026Robotica, modelli visione-linguaggio (VLMs), IA multimodale

L’evento riunirà dirigenti da tutto il mondo. Le iscrizioni non sono ancora aperte; è disponibile una lista d’attesa su ainowsummit.com.

🔗 AI Now Summit su X


Cosa significa

La giornata del 12 marzo illustra due tendenze convergenti. Da un lato, gli assistenti IA generalisti — Claude, Perplexity, Google Maps — si arricchiscono di capacità che riducono l’attrito tra la domanda e la risposta utilizzabile: non è più necessario scrivere codice per vedere un grafico, né riformulare la domanda per trovare un ristorante. Dall’altro, gli sviluppatori ricevono nuovi mattoni programmabili: la Video API di OpenAI apre la generazione video a workflow automatizzati, e Claude Code continua a perfezionarsi per gli ambienti enterprise (Bedrock, proxy SSL, multi-piattaforma Windows/macOS).

Il rapporto Ramp AI Index conferma che questo movimento si traduce negli acquisti effettivi: con ~70% di quota di mercato tra le nuove aziende, Anthropic non si accontenta più di essere un’alternativa a OpenAI — è diventato il punto d’ingresso predefinito. La competizione ora si gioca sulla qualità delle integrazioni e l’affidabilità in produzione, non sulla sola potenza dei modelli.


Fonti

Questo documento è stato tradotto dalla versione fr verso la lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultate https://gitlab.com/jls42/ai-powered-markdown-translator