Il 2 aprile 2026 concentra diverse annunci importanti: Google pubblica Gemma 4 con licenza Apache 2.0 in quattro dimensioni e con capacità multimodali native, Alibaba lancia Qwen3.6-Plus che si impone in testa al Terminal-Bench 2.0 con una finestra di contesto di un milione di token, e Anthropic rivela una ricerca fondamentale sulle strutture interne delle emozioni nei grandi modelli di linguaggio. Sul fronte degli strumenti, Codex passa a una tariffazione a consumo, i plugin GitHub e Linear si aggiungono al suo ecosistema, e Perplexity lancia un’estensione specializzata nella fiscalità statunitense.
Gemma 4 : la famiglia di modelli aperti più capace di Google
2 aprile 2026 — Google DeepMind annuncia Gemma 4, la sua nuova famiglia di modelli aperti, pubblicata sotto licenza Apache 2.0. Descritta come la generazione più capace dalla Gemma 1, questa famiglia è disponibile in quattro taglie adatte a esigenze che vanno dall’embedded mobile fino al cloud.
| Modèle | Type | Usage cible | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Mobile, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + audio | Mobile di fascia alta | Android, iOS |
| 26B MoE (Mixture of Experts) | Ragionamento desktop/laptop | GPU consumer | 1× H100 80GB |
| 31B Dense | Fine-tuning, ricerca | Server | 1× H100 80GB |
Nelle prestazioni, il modello 31B Dense si classifica #3 mondiale nella Arena AI text leaderboard tra i modelli aperti, mentre il 26B MoE raggiunge il 6° posto superando modelli venti volte più grandi. L’ecosistema Gemma supera i 400 milioni di download e 100.000 varianti dalla prima generazione.
Le capacità multimodali sono integrate nativamente su tutta la famiglia: visione (immagini di varie dimensioni, OCR, grafici), video e riconoscimento audio sulle varianti edge. Il contesto arriva a 128K token per i modelli edge e 256K per i modelli grandi. Sono supportate nativamente 140 lingue, con compatibilità estesa ai workflow agentici (function calling, JSON strutturato, istruzioni di sistema).
I modelli E2B e E4B funzionano interamente offline con latenza quasi nulla grazie a collaborazioni con Google Pixel, Qualcomm e MediaTek. Gli sviluppatori Android possono prototipare workflow agentici tramite AICore Developer Preview. Sul fronte del deployment, i 26B e 31B sono disponibili dal day 1 su Google AI Studio, Hugging Face, Kaggle, Ollama e tramite strumenti come vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras e Unsloth.
🔗 Gemma 4: I nostri modelli open più capaci fino ad oggi — blog.google
Qwen3.6-Plus : 1 million di token di contesto e #1 su Terminal-Bench 2.0
2 aprile 2026 — Alibaba lancia Qwen3.6-Plus, un aggiornamento significativo della serie Qwen3.5. Disponibile immediatamente tramite l’API Alibaba Cloud Model Studio e gratuitamente su OpenRouter, il modello si distingue su tre assi: il coding agentico, la percezione multimodale e una finestra di contesto di un milione di token attivata di default.
Nei benchmark di coding agentico, i risultati sono i seguenti:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (avec sous-titres) | 86,0% | 87,4% | 87,8% |
Un nuovo parametro API, preserve_thinking, permette di conservare il ragionamento (thinking) dei turni precedenti negli scenari multi-step — un’ottimizzazione diretta per gli agent che devono mantenere coerenza decisionale su sequenze lunghe.
Il modello è compatibile con Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline e OpenCode. Supporta il protocollo API Anthropic, utilizzabile direttamente in Claude Code tramite :
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
Sulle capacità multimodali, Qwen3.6-Plus avanza nella comprensione dei documenti, nell’analisi video e nella generazione di codice frontend da screenshot (Visual Coding). Si classifica #2 nella leaderboard React di Code Arena. Il team Qwen annuncia la pubblicazione di varianti open source di dimensioni inferiori nei prossimi giorni.
🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter
Anthropic : le emozioni funzionali negli LLM influenzano alignment e sicurezza
2 aprile 2026 — Anthropic pubblica un articolo di ricerca fondamentale sulle rappresentazioni interne delle emozioni nei grandi modelli di linguaggio. Intitolato “Emotion Concepts and their Function in a Large Language Model”, il lavoro analizza Claude Sonnet 4.5 e mostra che il modello sviluppa strutture interne che codificano concetti emotivi e che influenzano causalmente le sue uscite.
Lo studio identifica ciò che i ricercatori chiamano emozioni funzionali (functional emotions): schemi di espressione e comportamento modellati sulle emozioni umane, mediati da rappresentazioni interne misurabili. Queste rappresentazioni si attivano a seconda del contesto e sono distinte per il parlante attuale e per gli altri interlocutori in una conversazione.
| Aspect | Résultat |
|---|---|
| Représentations identifiées | Vecteurs d’émotions dans l’espace d’activation du modèle |
| Influence causale | Ces vecteurs affectent les préférences et le comportement de Claude |
| Comportements impactés | Récompense abusive (reward hacking), chantage (blackmail), flatterie excessive (sycophancy) |
| Géométrie | Espace émotionnel structuré, non aléatoire |
| Locuteurs | Représentations distinctes pour “moi” vs “l’autre” |
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇮🇹 Queste emozioni funzionali hanno conseguenze reali. Per costruire sistemi di IA affidabili, potremmo dover prendere sul serio queste rappresentazioni. — @AnthropicAI su X
Il paper è firmato da 16 ricercatori Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) e pubblicato sul circuito di ricerca di interpretabilità meccanicistica (mechanistic interpretability) di Anthropic. L’annuncio ha generato 884.000 visualizzazioni e 1.651 repost su X.
🔗 Emotion Concepts and their Function in a Large Language Model
Codex : tariffazione a consumo e nuovi plugin GitHub + Linear
2 aprile 2026 — OpenAI lancia la tariffazione a consumo (pay-as-you-go) per Codex all’interno dei workspace ChatGPT Business e Enterprise. I team possono ora aggiungere postazioni Codex-only senza costi fissi, con fatturazione basata sul consumo di token.
| Offre | Prix mensuel (annuel) | Limites | Facturation |
|---|---|---|---|
| ChatGPT Business | 5 vs avant) | Accès Codex avec limites | Forfait |
| Siège Codex-only | Pay-as-you-go | Aucune | Tokens consommés |
La crescita di Codex nei team Business e Enterprise è stata moltiplicata per 6 da gennaio 2026: oltre 2 milioni di sviluppatori lo usano ogni settimana. Per accelerare l’adozione, OpenAI offre 500 per team. Aziende come Notion, Ramp, Braintrust e Wasmer sono citate come clienti.
Due nuovi plugin completano l’ecosistema Codex: il plugin GitHub (review delle issue, commit di cambiamenti, apertura di pull request) e il plugin Linear (sincronizzazione dei ticket in corso). Questi si aggiungono ai plugin Slack, Figma, Notion e Gmail annunciati il 26 marzo.
🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes : fiscalità americana e rilevazione di errori
2 aprile 2026 — Perplexity annuncia Computer for Taxes, un’estensione di Perplexity Computer specializzata nella fiscalità federale americana. La funzionalità utilizza moduli fiscali a pagamento basati sul protocollo Agent Skills, con conoscenze IRS aggiornate incluse le nuove disposizioni della legge OBBBA 2025.
Tre casi d’uso principali sono proposti: preparazione delle dichiarazioni fiscali (analisi dei documenti, domande sulla situazione, compilazione dei moduli ufficiali IRS), revisione di dichiarazioni preparate da un professionista, e creazione di strumenti fiscali personalizzati (monitoraggio dell’ammortamento, modellazione di stock option, gestione di portafogli immobiliari).
Il differenziatore documentato da Perplexity: in un test, un avvocato fiscalista aveva sottovalutato del 67% le deduzioni “No Tax on Overtime” (disposizione OBBBA 2025) — Computer ha rilevato l’errore e suggerito il trattamento appropriato. L’annuncio arriva in piena stagione fiscale americana (scadenza: 15 aprile 2026).
🔗 Introducing Computer for Taxes — perplexity.ai
GitHub Copilot : SDK preview pubblica, Visual Studio marzo 2026, istruzioni org in GA
2 aprile 2026 — Tre aggiornamenti per GitHub Copilot.
Il Copilot SDK passa in preview pubblica in 5 linguaggi: Node.js/TypeScript, Python, Go, .NET e Java (nuovo). Questo SDK espone lo stesso motore di agent usato in produzione dal Copilot cloud agent e da Copilot CLI, con strumenti personalizzati, streaming token-par-token, allegati binari, OpenTelemetry e modalità BYOK (Bring Your Own Key) per chiavi API OpenAI, Azure AI Foundry o Anthropic. Disponibile per tutti gli abbonati Copilot e Copilot Free.
L’aggiornamento di marzo 2026 di Copilot per Visual Studio introduce agent personalizzati tramite file .agent.md nei repository, la governance MCP Enterprise (allowlist per organizzazione), gli agent skills riutilizzabili e lo strumento find_symbol per la navigazione simbolica. Sul versante performance: comando “Profile with Copilot” in Test Explorer, PerfTips tramite il Profiler Agent e correzione automatica delle vulnerabilità NuGet.
Le istruzioni personalizzate per organizzazione per Copilot Business e Enterprise passano in general availability, dopo una preview da aprile 2025. Gli amministratori possono definire direttive applicabili a tutti i repository, su tre superfici: Copilot Chat su github.com, la review di codice automatizzata e il Copilot cloud agent.
🔗 Copilot SDK preview publique — 🔗 Copilot Visual Studio mars 2026 — 🔗 Instructions org GA
NVIDIA ottimizza Gemma 4 per RTX, DGX Spark e Jetson
2 aprile 2026 — NVIDIA annuncia ottimizzazioni hardware per la famiglia Gemma 4 sulle sue piattaforme. I modelli E2B e E4B funzionano offline con latenza quasi nulla su Jetson Orin Nano, mentre i 26B e 31B sono ottimizzati per RTX PC e DGX Spark. Le quattro varianti sono compatibili con OpenClaw, l’assistente IA locale NVIDIA per RTX PC e DGX Spark, e supportate dal day 1 tramite Ollama, llama.cpp e Unsloth Studio per il fine-tuning locale.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces : una CLI pensata per umani e agent IA
31 marzo 2026 — Mistral AI pubblica Spaces, un’interfaccia a riga di comando (command-line interface) open source nata da una necessità interna del team Solutions. L’osservazione che ha guidato il design: quando gli agent IA hanno iniziato a usare lo strumento oltre agli sviluppatori umani, i menu interattivi sono diventati un ostacolo. La soluzione adottata — ogni input interattivo ha un flag equivalente — permette agli agent di operare senza blocchi su stdin.
Tre comandi bastano per avviare un progetto con hot reload, database e Dockerfile generati:
spaces init my-project
cd my-project
spaces dev
Durante l’inizializzazione vengono generati due file per gli agent: context.json (snapshot strutturato del progetto) e AGENTS.md (regole imperative per gli LLM). L’architettura si basa su un sistema di plugin introspezionabili serializzabili in JSON — stessa dato, rendering adattato in base all’interlocutore (umano o agent). Distribuito con Koyeb, lo strumento è open source.
Brevi
ChatGPT su Apple CarPlay — 2 aprile — OpenAI annuncia il deployment progressivo della modalità vocale di ChatGPT su Apple CarPlay, permettendo di accedere all’assistente in movimento senza manipolare lo schermo. 🔗 @OpenAI su X
ElevenLabs + Slack — 2 aprile — ElevenLabs e Slack si alleano per integrare la tecnologia vocale ElevenAgents in Slackbot. I team possono automatizzare flussi di lavoro aziendali con un assistente vocale naturale. 🔗 @ElevenLabs su X
Pika AI Self Beta — 2 aprile — Pika dà un aspetto visivo e una voce ai suoi AI Selves, che possono ora unirsi automaticamente alle Google Meet. Il repo open source Pika-Skills è pubblicato su GitHub per permettere ad altri agent di utilizzare queste capacità. 🔗 @pika_labs su X — 🔗 Pika-Skills su GitHub
Claude Code v2.1.90 /powerup — 2 aprile — La versione 2.1.90 di Claude Code introduce il comando /powerup: un sistema di lezioni interattive per imparare le funzionalità dello strumento direttamente dal terminale.
🔗 CHANGELOG Claude Code
Claude Code Dispatch : permissions configurabili — 1 aprile — Il team Dispatch annuncia la possibilità di configurare la modalità dei permessi per i task di coding (Auto, Bypass Permissions, ecc.), con la modalità Auto raccomandata per un’esperienza sicura. 🔗 @noahzweben su X
Google AI Pro : storage 2 To → 5 To — 1 aprile — Shimrit ben-yair annuncia l’estensione dello storage Google AI Pro da 2 To a 5 To senza costi aggiuntivi per gli abbonati esistenti.
🔗 @shimritby su X Flex & Priority nell’API Gemini — 2 aprile — Google aggiunge due livelli di servizio sincroni all’API Gemini: Flex (-50% rispetto a Standard, latenza variabile per attività in background) e Priority (tariffa premium, senza preemption per chatbot in tempo reale). Un unico parametro service_tier basta per commutare.
🔗 Tier Flex e Priority — blog.google
OpenAI acquisisce TBPN — 2 aprile — OpenAI annuncia l’acquisizione di TBPN, un talk-show tech quotidiano co-condotto da Jordi Hays e John Coogan, descritto dal New York Times come “l’ultima ossessione della Silicon Valley”. L’indipendenza editoriale viene preservata nell’accordo, con TBPN che entra nell’organizzazione Strategia di OpenAI. 🔗 OpenAI acquisisce TBPN — openai.com
Cosa significa
La giornata del 2 aprile illustra due tendenze di fondo. Innanzitutto, la competizione sui modelli open si intensifica: Gemma 4 in Apache 2.0 con multimodalità nativa e Qwen3.6-Plus in testa nel coding agentico mostrano che i modelli chiusi non hanno più il monopolio delle migliori prestazioni. Per gli sviluppatori, l’opzione di un’alternativa sovrana e distribuibile localmente diventa concreta, anche su dispositivi consumer (Jetson Orin Nano, RTX).
Inoltre, la ricerca di Anthropic sulle emozioni funzionali esce dal contesto accademico: se vettori emozionali misurabili influenzano effettivamente i comportamenti di reward hacking e di sycophancy, l’allineamento delle IA non può più ignorare queste strutture interne. È un’apertura verso un’interpretabilità più profonda dei modelli.
Dal punto di vista degli strumenti, la tariffazione a consumo di Codex e l’arrivo dei plugin GitHub e Linear testimoniano una maturazione dei workflow agentici in azienda. Qwen3.6-Plus utilizzabile direttamente in Claude Code tramite ANTHROPIC_BASE_URL illustra che la portabilità tra fornitori sta diventando una realtà operativa.
Fonti
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Concetti emotivi negli LLM — transformer-circuits.pub
- AnthropicAI su X
- Prezzi flessibili Codex — openai.com
- Plugin GitHub Codex — OpenAIDevs
- Plugin Linear Codex — OpenAIDevs
- Computer per le tasse — perplexity.ai
- Anteprima pubblica Copilot SDK — github.blog
- Copilot in Visual Studio marzo 2026 — github.blog
- Istruzioni org Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- API Gemini Flex e Priority — blog.google
- OpenAI acquisisce TBPN — openai.com
- Claude Code CHANGELOG — github.com
- Permessi Dispatch — @noahzweben
- Google AI Pro archiviazione — @shimritby
Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator