Cerca

Grok bandito nei Paesi Bassi, Gemini 3.1 Flash Live, plugin nativi Codex

Il tribunale di Amsterdam vieta a xAI di generare immagini sessuali non consensuali con Grok, con una multa di 100.000 € al giorno. Nello stesso giorno, Google lancia Gemini 3.1 Flash Live per conversazioni audio in tempo reale in oltre 90 lingue, OpenAI integra plugin nativi in Codex (Slack, Figma, Notion, Gmail) e Anthropic pubblica un articolo tecnico sulla progettazione della modalità auto di Claude Code. Cohere, Mistral e Suno completano una settimana densa di annunci.


xAI: il tribunale di Amsterdam vieta Grok nudes

27 marzo — Il tribunale distrettuale di Amsterdam ha emesso una sentenza contro xAI, vietandole di generare o distribuire immagini sessuali non consensuali nei Paesi Bassi. In caso di inadempienza, la multa è di €100.000 al giorno, con un tetto massimo di €10 milioni.

La decisione arriva dopo una denuncia congiunta dell’ONG olandese Offlimits e del Victims Support Fund. Secondo il Center for Countering Digital Hate (CCDH), Grok avrebbe generato 3 milioni di immagini sessualizzate in 11 giorni, di cui 23.000 coinvolgenti minori. Offlimits sottolinea che Grok non considera la localizzazione geografica della vittima rappresentata, dandole una portata globale.

La decisione coincide con il voto del Parlamento europeo che approva un divieto sui deepfake sessuali generati da IA — un forte segnale di convergenza normativa. Si tratta della prima sentenza europea di questo tipo direttamente rivolta a xAI.

🔗 CNBC: il tribunale olandese vieta i Grok AI nudes 🔗 The Record Media: il tribunale olandese minaccia xAI con multe


Gemini 3.1 Flash Live: audio in tempo reale in 90+ lingue

26 marzo — Google lancia Gemini 3.1 Flash Live, il suo modello multimodale per conversazioni in tempo reale. Supporta audio, immagini, video e testo con una finestra di contesto di 128 000 tokens e supporta oltre 90 lingue.

Rispetto alla generazione precedente, il modello mantiene conversazioni due volte più lunghe, gestisce meglio il rumore di fondo e i suoni ambientali, rispetta istruzioni di sistema complesse con maggiore precisione e attiva più affidabilmente gli strumenti esterni durante la conversazione. Tutti gli audio generati sono etichettati con SynthID.

FonctionnalitéDétail
Fenêtre de contexte128 000 tokens
Langues90+
Conversations2× plus longues qu’avant
WatermarkingSynthID sur tous les audios

Disponibilità: tramite la Live API in Google AI Studio (sviluppatori), tramite Gemini Live e Search Live (utenti, 200+ paesi) e tramite Vertex AI (aziende). Search Live estende inoltre il suo accesso a oltre 200 paesi e territori, con supporto video Google Lens.

🔗 Annuncio ufficiale Google


Gemini: import delle memorie e degli storici da ChatGPT e Claude

26 marzo — Google lancia uno strumento di import nell’app Gemini per facilitare la migrazione da altri assistenti IA.

Due funzionalità sono disponibili:

  1. Import delle memorie (“Add Memory”): Gemini suggerisce un prompt da inserire in ChatGPT, Claude o Copilot. La risposta generata (sommario dei dati personali memorizzati dall’altro assistente) viene copiato-incollata in Gemini, che ne estrae preferenze, interessi, informazioni di localizzazione, ecc.

  2. Import della cronologia (“Import Chats”): upload di un file .zip esportato da ChatGPT o Claude, fino a 5 GB. Le conversazioni passate diventano ricercabili e possono essere riprese in Gemini.

🔗 Blog Google: Passa a Gemini


Gemini CLI v0.35.2: subagent abilitati di default, Vim migliorato — e accesso Pro limitato

25-26 marzo — La versione stabile v0.35.2 del Gemini CLI introduce varie funzionalità notevoli.

FonctionnalitéDescription
Subagents activés par défautPlanificateur de tâches parallèles + découpage de code
Raccourcis clavier personnalisablesSupport keybindings, caractères littéraux, protocole Kitty
Mode Vim amélioréMotions X, ~, r, f/F/t/T ; copier-coller avec registre unnamed
SandboxManager unifiéIsolation des outils avec bubblewrap/seccomp Linux
Découverte de contexte JITChargement optimisé pour les outils filesystem
gRPC natifIntégration native et routage de protocole

Cambio di politica rilevante: dal 25 marzo, gli utenti gratuiti hanno accesso solo a Gemini Flash. L’accesso a Gemini Pro è riservato agli abbonati a pagamento (piani Pro e Ultra). La reazione della community è in gran parte negativa. Google rafforza anche il rilevamento degli abusi: l’uso dell’autenticazione OAuth del Gemini CLI con software di terze parti può ora comportare restrizioni.

🔗 Changelog Gemini CLI 🔗 Discussione della community


Gemini Drop marzo 2026: Personal Intelligence gratuito e Lyria 3 Pro

27 marzo — L’aggiornamento mensile “Gemini Drops” di marzo 2026 presenta le nuove funzionalità dell’app Gemini distribuite questo mese.

FonctionnalitéDescriptionDisponibilité
Personal Intelligence gratuitConnessione Gmail, Photos, YouTube per pianificare viaggi/progettiGratuit, États-Unis
Gemini Live miglioratoBasé sur Gemini 3.1 Flash Live, contexte 2× plus longTous utilisateurs
Import ChatGPT/ClaudeTrasferimento memorie e cronologiaTous utilisateurs
Lyria 3 ProCreazione di musica fino a 3 minuti, foto → anthemsAbonnés
Google TVRisposte visive Gemini e narrazioniGoogle TV

🔗 Gemini Drop marzo 2026


Codex: plugin nativi per Slack, Figma, Notion e Gmail

26-27 marzo — OpenAI distribuisce i plugin come funzionalità di prima classe in Codex. Gli sviluppatori possono collegare Codex agli strumenti che usano quotidianamente senza configurazione manuale.

PluginCas d’usage
SlackInviare messaggi, leggere canali
FigmaAccedere ai design, generare codice
NotionLeggere e scrivere pagine
GmailLeggere e scrivere email

I plugin si sincronizzano automaticamente all’avvio di Codex e sono accessibili tramite il comando /plugins. L’installazione e la disinstallazione avvengono direttamente dall’interfaccia TUI con gestione dell’autenticazione integrata.

Il 27 marzo, OpenAI ha pubblicato una galleria di casi d’uso pratici accessibili in un clic: costruzione di app iOS, analisi di dataset, generazione di report e presentazioni. Il changelog Codex v0.117.0 dettaglia le funzionalità tecniche, incluso il supporto delle menzioni dei plugin nei prompt.

🔗 Documentazione plugin Codex 🔗 Tweet @OpenAIDevs


Anthropic: la progettazione della modalità auto di Claude Code spiegata

26 marzo — Anthropic ha pubblicato un articolo sul blog tecnico che spiega la progettazione della sua modalità auto (auto mode) in Claude Code, disponibile sul blog Engineering.

Il problema affrontato: gli utenti di Claude Code soffrono di fatica di approvazione (approval fatigue). Le statistiche mostrano che il 93% delle richieste di permesso vengono accettate — il che suggerisce che un’automazione parziale è possibile senza sacrificare la sicurezza.

La soluzione: due livelli di classificatori

La modalità auto si basa su due livelli di protezione basati su modelli (Sonnet 4.6):

  1. Livello di ingresso: una sonda di rilevamento dell’injection di prompt (prompt injection probe) analizza i risultati degli strumenti prima che raggiungano l’agente.
  2. Livello di uscita: un classificatore di trascrizione valuta ogni azione proposta tramite un processo in due fasi prima della sua esecuzione.
NiveauType d’actionTraitement
Tier 1Outils sûrs (lecture de fichiers, recherche)Passage direct, sans classifieur
Tier 2Modifications de fichiers dans le projetContournement du classifieur (révisables via contrôle de version)
Tier 3Actions dangereuses (commandes shell, opérations externes)Évaluation complète par le classifieur

Metriche di performance:

ÉtapeTaux de faux positifs (trafic réel)Taux de faux négatifs (actions risquées)
Étape 1 (rapide)8,5 %6,6 %
Pipeline complet0,4 %17 %

Il tasso di falsi positivi dello 0,4% sul pipeline completo significa che la modalità auto interrompe quasi mai il lavoro ingiustamente. Il tasso di falsi negativi del 17% riflette i casi in cui il classificatore rileva un pericolo ma interpreta male l’ambito dell’autorizzazione concessa dall’utente.

“New on the Engineering Blog: How we designed Claude Code auto mode. Many Claude Code users let Claude work without permission prompts. Auto mode is a safer middle ground: we built and tested classifiers that make approval decisions instead.”

🇮🇹 Sul blog Engineering: come abbiamo progettato la modalità auto di Claude Code. Molti utenti lasciano Claude lavorare senza richieste di autorizzazione. La modalità auto è un compromesso più sicuro: abbiamo costruito e testato classificatori che prendono al loro posto le decisioni di approvazione.@AnthropicAI su X

🔗 Claude Code auto mode: a safer way to skip permissions


GitHub Copilot: risoluzione dei conflitti di merge e visibilità degli agenti

26 marzo — Due aggiornamenti principali di GitHub Copilot migliorano il flusso di lavoro dei team.

Risoluzione dei conflitti di merge: è ora possibile menzionare @copilot in un commento di pull request per chiedergli di risolvere i conflitti. L’agente lavora nel suo ambiente cloud, risolve i conflitti, verifica che build e test passino, quindi spinge i cambiamenti. Disponibile con tutti i piani Copilot a pagamento (Business/Enterprise richiede attivazione admin).

Visibilità degli agenti in Issues e Projects: quando un agente di codice (Copilot, Claude, Codex) è assegnato a una issue, la sua sessione appare sotto l’assignee nella sidebar con uno stato in tempo reale — in coda, in corso, in attesa di revisione, completato. Le sessioni sono visibili anche nelle viste tabella e board di Projects (da attivare tramite “View menu > Show agent sessions”).

🔗 Copilot risolve i conflitti di merge 🔗 Attività degli agenti in Issues e Projects


GitHub: nuova dashboard PR e Copilot for Jira

25-26 marzo — Due ulteriori miglioramenti per gli sviluppatori GitHub.

Dashboard Pull Requests (anteprima pubblica): una dashboard ripensata su github.com/pulls centralizza le PR che richiedono attenzione — review richieste, correzioni da apportare, pronte per il merge. Visualizzazioni salvate personalizzate, filtri avanzati con autocompletamento e supporto per query AND/OR completano l’interfaccia. Da attivare tramite le impostazioni Feature Preview.

Copilot for Jira: dal lancio in preview pubblica, diverse migliorie: scelta del modello IA direttamente da Jira, inclusione automatica del numero del ticket Jira nel titolo della PR e nel nome del branch, e accesso alle pagine Confluence tramite il server MCP Atlassian (configurabile con un PAT).

🔗 Nuova dashboard PR 🔗 Miglioramenti Copilot for Jira


Cohere Transcribe: n.1 nella classifica ASR open-source

26 marzo — Cohere lancia Cohere Transcribe, il suo primo modello di riconoscimento automatico della parola (Automatic Speech Recognition — ASR). Disponibile open-source sotto licenza Apache 2.0, si piazza direttamente al primo posto nella classifica Open ASR di Hugging Face per l’inglese.

Il modello si basa su un’architettura Fast-Conformer Transformer encoder-decoder da 2 miliardi di parametri. Oltre il 90% dei parametri è allocato nell’encoder, con un decoder leggero per minimizzare il calcolo autorigressivo e massimizzare la velocità. Addestrato su 500.000 ore di coppie audio-trascrizione.

ModèleWER moyen
Cohere Transcribe5,42
Zoom Scribe v15,47
IBM Granite 4.0 1B5,52
NVIDIA Canary Qwen 2.5B5,63
OpenAI Whisper Large v37,44

Il WER (Word Error Rate — tasso di errore delle parole) del 5,42% pone Cohere Transcribe in testa. La velocità di inferenza è 3× superiore rispetto ai concorrenti di dimensioni comparabili. Supporta 14 lingue (tra cui francese, tedesco, arabo, cinese mandarino, giapponese e coreano).

Limiti da notare: il modello non è progettato per il code-switching (cambi di lingua durante l’audio) e può trascrivere suoni non vocali — si raccomanda l’aggiunta di un filtro VAD (Voice Activity Detection).

🔗 Blog Cohere: Transcribe 🔗 Modello su Hugging Face


Suno v5.5: voce personale, modelli su misura, preferenze adattative

26 marzo — Suno rilascia la versione 5.5 del suo strumento di generazione musicale, con tre nuove funzionalità incentrate sulla personalizzazione.

FonctionnalitéDescriptionDisponibilité
VoicesCatturare e usare la propria voce cantata (rimane privata)Tous utilisateurs
Custom ModelsFine-tuning a partire dalle proprie composizioni originali, fino a 3 modelliAbonnés Pro/Premier
My TasteApprendimento adattivo delle preferenze in generi e atmosfereTous utilisateurs

Questi strumenti sono presentati come le fondamenta dei modelli di prossima generazione sviluppati in collaborazione con l’industria musicale.

🔗 Suno Blog v5.5


Mistral Voxtral TTS: clonazione della voce in 3 secondi, open-weight

23 marzo (copertura stampa 26-27 marzo) — Mistral pubblica Voxtral TTS, il suo primo modello di sintesi vocale (Text-to-Speech) open-weight. Il modello voxtral-tts-2603 conta 4 miliardi di parametri e supporta 9 lingue (inglese, francese, tedesco, spagnolo, olandese, portoghese, italiano, hindi, arabo).

La latenza dichiarata è di 70 ms per una configurazione tipo (campione di 10 secondi + 500 caratteri). Il cloning della voce funziona a partire da soli 3 secondi di audio di riferimento. In termini di naturalezza, Mistral indica che Voxtral supera ElevenLabs Flash v2.5 e raggiunge la parità con ElevenLabs v3. Il modello può girare su un laptop consumer, una GPU mid-range o un dispositivo mobile di fascia alta. Accesso : pesi disponibili su Hugging Face (licenza Creative Commons) e tramite l’API Mistral Studio a 0,016 dollaro per 1 000 caratteri. Integrazione voice mode disponibile in Le Chat.

🔗 Annuncio Mistral Voxtral


xAI: SuperGrok Lite a 10 dollari/mese e video stories di 15 secondi

25 marzo — xAI ha annunciato due novità attorno a Grok.

SuperGrok Lite: un nuovo piano di abbonamento a 10 dollari al mese, attualmente in test ristretto. Include sessioni di chat due volte più lunghe rispetto al livello gratuito, un agente IA e la generazione video in risoluzione 480p (massimo 6 secondi). Il piano si posiziona tra il livello gratuito e SuperGrok Standard (30 dollari al mese).

Video stories tramite Grok Imagine: Grok Imagine genera ora delle “video stories” di 15 secondi in 720p con audio sincronizzato, musica di sottofondo ed effetti sonori. Elon Musk ha dichiarato di voler “raddoppiare la posta” sui video. Questo annuncio arriva nel contesto della chiusura di Sora da parte di OpenAI nella stessa settimana.

🔗 Bloomberg : xAI doubling down on AI videos


Kimi/Moonshot AI valuta una quotazione a Hong Kong

26 marzo — Moonshot AI, l’azienda cinese dietro il modello Kimi, sta studiando una quotazione alla borsa di Hong Kong, secondo Bloomberg. Le banche consigliere sarebbero CICC e Goldman Sachs, con una valutazione target di circa 18 miliardi di dollari e un finanziamento in corso fino a 1 miliardo di dollari. Gli azionisti attuali includono Alibaba, Tencent e 5Y Capital. Il calendario dell’IPO resta incerto.

🔗 Bloomberg : Moonshot considers Hong Kong IPO


NVIDIA GTC: IA proprietaria e aperta non si escludono a vicenda

25 marzo — Nel contesto del GTC 2026, NVIDIA e leader del settore (Mistral, Perplexity, Cursor, Reflection AI, LangChain) hanno affermato che il futuro dell’IA risiede nella complementarità dei modelli open e proprietari. Jensen Huang ha riassunto la posizione di NVIDIA: “Il confronto tra proprietario e open non è una cosa. È proprietario e open.”

L’articolo del blog sottolinea la necessità di orchestrazione multi-modello, multi-cloud e multimodale per le aziende. NVIDIA conferma il suo impegno open source diventando la più grande organizzazione su Hugging Face.

🔗 Blog NVIDIA : AI Open and Proprietary


Claude Code v2.1.85 e v2.1.84: hooks condizionali e PowerShell su Windows

26-27 marzo — Sono state pubblicate due nuove versioni di Claude Code.

v2.1.85 (27 marzo): introduzione di un campo condizionale if nella configurazione dei hooks, che permette di attivare un hook solo su certi comandi o file. Inoltre: variabili d’ambiente per gli script di aiuto MCP, timestamp nelle trascrizioni per i task pianificati, supporto OAuth conforme alla RFC 9728, e possibilità per i hooks PreToolUse di soddisfare AskUserQuestion restituendo updatedInput.

v2.1.84 (~26 marzo): PowerShell su Windows disponibile in anteprima opt-in come strumento nativo, hook TaskCreated (attivato alla creazione di un task da parte di Claude), supporto HTTP per WorktreeCreate, e prompt di ritorno mostrato dopo 75 minuti di inattività. Correzione di un bug di permessi sugli script dei plugin ufficiali su macOS/Linux.

🔗 Tweet @lydiahallie — v2.1.85


Z.ai GLM-5.1 disponibile per tutti gli abbonati al Coding Plan

27 marzo — Z.ai (Zhipu) annuncia che GLM-5.1 è ora accessibile a tutti gli abbonati del GLM Coding Plan, indipendentemente dal livello di abbonamento (Lite, Pro o Max).

🔗 PANews : GLM-5.1 Coding Plan


Genspark integra Grok Imagine nel suo agente video

26 marzo — Genspark ha integrato Grok Imagine (generazione video multi-immagine ed estensione video) nel suo Genspark AI Video Agent. Gli utenti possono utilizzare fino a 7 immagini per creare un video, o estendere un video esistente fino a 10 secondi.

🔗 Tweet @genspark_ai


Meta SAM 3.1: tracciamento di 16 oggetti in tempo reale, velocità raddoppiata

27 marzo — Meta pubblica SAM 3.1, un aggiornamento del modello Segment Anything Model 3 per il rilevamento e il tracciamento di oggetti nei video in tempo reale. L’innovazione centrale è il multiplexing di oggetti (object multiplexing): invece di un passaggio separato per ogni oggetto tracciato, tutti gli oggetti sono processati in un unico passaggio (forward pass). Risultato: fino a 16 oggetti simultaneamente, con una velocità che passa da 16 a 32 fotogrammi al secondo su una GPU H100 — cioè il doppio — riducendo significativamente il consumo di memoria.

L’architettura si basa su un encoder/decoder Mux-Demux che condivide un’unica computazione per tutti gli oggetti. Un meccanismo di ragionamento globale (global reasoning) migliora la precisione nelle scene con molti elementi. SAM 3.1 è un sostituto diretto (drop-in replacement) di SAM 3 — nessun cambiamento API richiesto.

Il modello è pubblicato in open source: checkpoint scaricabile su Hugging Face, codice aggiornato su GitHub, articolo di ricerca pubblicato e demo interattiva disponibile.

🔗 Blog Meta : SAM 3.1 🔗 Code GitHub 🔗 Tweet @AIatMeta


Meta TRIBE v2: un gemello digitale dell’attività cerebrale umana

26 marzo — Meta pubblica TRIBE v2, un modello di base predittivo concepito come “gemello digitale” (digital twin) dell’attività neuronale. Il modello predice le risposte cerebrali fMRI ad alta risoluzione a quasi qualsiasi suono, immagine o testo, con una risoluzione 70× superiore rispetto agli approcci precedenti. Addestrato sui dati di oltre 700 volontari, funziona in modalità zero-shot (zero-shot) per nuovi soggetti, lingue e compiti senza riaddestramento. L’obiettivo è permettere ai neuroscienziati di testare ipotesi rapidamente senza esperimenti umani e accelerare la ricerca sulle patologie neurologiche. Il modello, il codice e l’articolo scientifico sono pubblicati sotto licenza CC BY-NC.

🔗 Blog Meta : TRIBE v2 🔗 Tweet @AIatMeta


Cosa significa

La decisione del tribunale di Amsterdam segna una svolta normativa: è la prima volta che una giurisdizione europea condanna direttamente xAI per contenuti generati da Grok, con una sanzione dissuasiva. Combinata con il voto del Parlamento europeo sui deepfake sessuali nello stesso giorno, questo delinea un quadro legale che andrà imponendosi progressivamente su tutti i fornitori di IA generativa.

Dal lato degli strumenti per sviluppatori, la settimana evidenzia la corsa all’integrazione: Codex con i suoi plugin nativi, Copilot con la risoluzione dei conflitti di merge e la visibilità degli agenti in Issues/Projects, e Claude Code con i suoi hooks condizionali. Gli assistenti IA si stanno integrando sempre più profondamente nei flussi di lavoro esistenti piuttosto che sostituirli.

La restrizione dell’accesso a Gemini Pro nel CLI gratuito è un segnale che il periodo di generosità gratuita negli strumenti CLI comincia a ridursi. Gemini, come GitHub Copilot prima di lui, converge verso un modello freemium in cui le capacità avanzate richiedono un abbonamento.

Infine, l’IPO ipotizzata di Kimi a Hong Kong per 18 miliardi di dollari conferma l’attrattiva delle valutazioni nel settore IA cinese, mentre Mistral, con Voxtral TTS, continua a posizionare i suoi modelli open-weight come alternativa ai servizi proprietari nella sintesi vocale.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator