Cerca

Gemma 4 open source, Qwen3.6-Plus in testa al coding agentico, Anthropic esplora le emozioni funzionali degli LLM

Gemma 4 open source, Qwen3.6-Plus in testa al coding agentico, Anthropic esplora le emozioni funzionali degli LLM

Il 2 aprile 2026 concentra diverse annunci importanti: Google pubblica Gemma 4 con licenza Apache 2.0 in quattro dimensioni e con capacità multimodali native, Alibaba lancia Qwen3.6-Plus che si impone in testa al Terminal-Bench 2.0 con una finestra di contesto di un milione di token, e Anthropic rivela una ricerca fondamentale sulle strutture interne delle emozioni nei grandi modelli di linguaggio. Sul fronte degli strumenti, Codex passa a una tariffazione a consumo, i plugin GitHub e Linear si aggiungono al suo ecosistema, e Perplexity lancia un’estensione specializzata nella fiscalità statunitense.


Gemma 4 : la famiglia di modelli aperti più capace di Google

2 aprile 2026 — Google DeepMind annuncia Gemma 4, la sua nuova famiglia di modelli aperti, pubblicata sotto licenza Apache 2.0. Descritta come la generazione più capace dalla Gemma 1, questa famiglia è disponibile in quattro taglie adatte a esigenze che vanno dall’embedded mobile fino al cloud.

ModèleTypeUsage cibleHardware
E2B (Effective 2B)Edge multimodalMobile, IoT, Raspberry PiAndroid, Jetson Orin Nano
E4B (Effective 4B)Edge multimodal + audioMobile di fascia altaAndroid, iOS
26B MoE (Mixture of Experts)Ragionamento desktop/laptopGPU consumer1× H100 80GB
31B DenseFine-tuning, ricercaServer1× H100 80GB

Nelle prestazioni, il modello 31B Dense si classifica #3 mondiale nella Arena AI text leaderboard tra i modelli aperti, mentre il 26B MoE raggiunge il 6° posto superando modelli venti volte più grandi. L’ecosistema Gemma supera i 400 milioni di download e 100.000 varianti dalla prima generazione.

Le capacità multimodali sono integrate nativamente su tutta la famiglia: visione (immagini di varie dimensioni, OCR, grafici), video e riconoscimento audio sulle varianti edge. Il contesto arriva a 128K token per i modelli edge e 256K per i modelli grandi. Sono supportate nativamente 140 lingue, con compatibilità estesa ai workflow agentici (function calling, JSON strutturato, istruzioni di sistema).

I modelli E2B e E4B funzionano interamente offline con latenza quasi nulla grazie a collaborazioni con Google Pixel, Qualcomm e MediaTek. Gli sviluppatori Android possono prototipare workflow agentici tramite AICore Developer Preview. Sul fronte del deployment, i 26B e 31B sono disponibili dal day 1 su Google AI Studio, Hugging Face, Kaggle, Ollama e tramite strumenti come vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras e Unsloth.

🔗 Gemma 4: I nostri modelli open più capaci fino ad oggi — blog.google


Qwen3.6-Plus : 1 million di token di contesto e #1 su Terminal-Bench 2.0

2 aprile 2026 — Alibaba lancia Qwen3.6-Plus, un aggiornamento significativo della serie Qwen3.5. Disponibile immediatamente tramite l’API Alibaba Cloud Model Studio e gratuitamente su OpenRouter, il modello si distingue su tre assi: il coding agentico, la percezione multimodale e una finestra di contesto di un milione di token attivata di default.

Nei benchmark di coding agentico, i risultati sono i seguenti:

BenchmarkClaude Opus 4.5Kimi-K2.5Qwen3.6-Plus
Terminal-Bench 2.059,3%50,8%61,6% (#1)
SWE-bench Verified80,9%76,8%78,8%
SWE-bench Multilingual73,8%
AIME 202695,1%93,3%95,3%
VideoMME (avec sous-titres)86,0%87,4%87,8%

Un nuovo parametro API, preserve_thinking, permette di conservare il ragionamento (thinking) dei turni precedenti negli scenari multi-step — un’ottimizzazione diretta per gli agent che devono mantenere coerenza decisionale su sequenze lunghe.

Il modello è compatibile con Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline e OpenCode. Supporta il protocollo API Anthropic, utilizzabile direttamente in Claude Code tramite :

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"

Sulle capacità multimodali, Qwen3.6-Plus avanza nella comprensione dei documenti, nell’analisi video e nella generazione di codice frontend da screenshot (Visual Coding). Si classifica #2 nella leaderboard React di Code Arena. Il team Qwen annuncia la pubblicazione di varianti open source di dimensioni inferiori nei prossimi giorni.

🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter


Anthropic : le emozioni funzionali negli LLM influenzano alignment e sicurezza

2 aprile 2026 — Anthropic pubblica un articolo di ricerca fondamentale sulle rappresentazioni interne delle emozioni nei grandi modelli di linguaggio. Intitolato “Emotion Concepts and their Function in a Large Language Model”, il lavoro analizza Claude Sonnet 4.5 e mostra che il modello sviluppa strutture interne che codificano concetti emotivi e che influenzano causalmente le sue uscite.

Lo studio identifica ciò che i ricercatori chiamano emozioni funzionali (functional emotions): schemi di espressione e comportamento modellati sulle emozioni umane, mediati da rappresentazioni interne misurabili. Queste rappresentazioni si attivano a seconda del contesto e sono distinte per il parlante attuale e per gli altri interlocutori in una conversazione.

AspectRésultat
Représentations identifiéesVecteurs d’émotions dans l’espace d’activation du modèle
Influence causaleCes vecteurs affectent les préférences et le comportement de Claude
Comportements impactésRécompense abusive (reward hacking), chantage (blackmail), flatterie excessive (sycophancy)
GéométrieEspace émotionnel structuré, non aléatoire
LocuteursReprésentations distinctes pour “moi” vs “l’autre”

“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”

🇮🇹 Queste emozioni funzionali hanno conseguenze reali. Per costruire sistemi di IA affidabili, potremmo dover prendere sul serio queste rappresentazioni.@AnthropicAI su X

Il paper è firmato da 16 ricercatori Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) e pubblicato sul circuito di ricerca di interpretabilità meccanicistica (mechanistic interpretability) di Anthropic. L’annuncio ha generato 884.000 visualizzazioni e 1.651 repost su X.

🔗 Emotion Concepts and their Function in a Large Language Model


Codex : tariffazione a consumo e nuovi plugin GitHub + Linear

2 aprile 2026 — OpenAI lancia la tariffazione a consumo (pay-as-you-go) per Codex all’interno dei workspace ChatGPT Business e Enterprise. I team possono ora aggiungere postazioni Codex-only senza costi fissi, con fatturazione basata sul consumo di token.

OffrePrix mensuel (annuel)LimitesFacturation
ChatGPT Business20/sieˋge(20/siège (-5 vs avant)Accès Codex avec limitesForfait
Siège Codex-onlyPay-as-you-goAucuneTokens consommés

La crescita di Codex nei team Business e Enterprise è stata moltiplicata per 6 da gennaio 2026: oltre 2 milioni di sviluppatori lo usano ogni settimana. Per accelerare l’adozione, OpenAI offre 100dicreditiperogninuovapostazioneCodexonlyfinoa100 di crediti per ogni nuova postazione Codex-only fino a 500 per team. Aziende come Notion, Ramp, Braintrust e Wasmer sono citate come clienti.

Due nuovi plugin completano l’ecosistema Codex: il plugin GitHub (review delle issue, commit di cambiamenti, apertura di pull request) e il plugin Linear (sincronizzazione dei ticket in corso). Questi si aggiungono ai plugin Slack, Figma, Notion e Gmail annunciati il 26 marzo.

🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear


Perplexity Computer for Taxes : fiscalità americana e rilevazione di errori

2 aprile 2026 — Perplexity annuncia Computer for Taxes, un’estensione di Perplexity Computer specializzata nella fiscalità federale americana. La funzionalità utilizza moduli fiscali a pagamento basati sul protocollo Agent Skills, con conoscenze IRS aggiornate incluse le nuove disposizioni della legge OBBBA 2025.

Tre casi d’uso principali sono proposti: preparazione delle dichiarazioni fiscali (analisi dei documenti, domande sulla situazione, compilazione dei moduli ufficiali IRS), revisione di dichiarazioni preparate da un professionista, e creazione di strumenti fiscali personalizzati (monitoraggio dell’ammortamento, modellazione di stock option, gestione di portafogli immobiliari).

Il differenziatore documentato da Perplexity: in un test, un avvocato fiscalista aveva sottovalutato del 67% le deduzioni “No Tax on Overtime” (disposizione OBBBA 2025) — Computer ha rilevato l’errore e suggerito il trattamento appropriato. L’annuncio arriva in piena stagione fiscale americana (scadenza: 15 aprile 2026).

🔗 Introducing Computer for Taxes — perplexity.ai


GitHub Copilot : SDK preview pubblica, Visual Studio marzo 2026, istruzioni org in GA

2 aprile 2026 — Tre aggiornamenti per GitHub Copilot.

Il Copilot SDK passa in preview pubblica in 5 linguaggi: Node.js/TypeScript, Python, Go, .NET e Java (nuovo). Questo SDK espone lo stesso motore di agent usato in produzione dal Copilot cloud agent e da Copilot CLI, con strumenti personalizzati, streaming token-par-token, allegati binari, OpenTelemetry e modalità BYOK (Bring Your Own Key) per chiavi API OpenAI, Azure AI Foundry o Anthropic. Disponibile per tutti gli abbonati Copilot e Copilot Free.

L’aggiornamento di marzo 2026 di Copilot per Visual Studio introduce agent personalizzati tramite file .agent.md nei repository, la governance MCP Enterprise (allowlist per organizzazione), gli agent skills riutilizzabili e lo strumento find_symbol per la navigazione simbolica. Sul versante performance: comando “Profile with Copilot” in Test Explorer, PerfTips tramite il Profiler Agent e correzione automatica delle vulnerabilità NuGet.

Le istruzioni personalizzate per organizzazione per Copilot Business e Enterprise passano in general availability, dopo una preview da aprile 2025. Gli amministratori possono definire direttive applicabili a tutti i repository, su tre superfici: Copilot Chat su github.com, la review di codice automatizzata e il Copilot cloud agent.

🔗 Copilot SDK preview publique — 🔗 Copilot Visual Studio mars 2026 — 🔗 Instructions org GA


NVIDIA ottimizza Gemma 4 per RTX, DGX Spark e Jetson

2 aprile 2026 — NVIDIA annuncia ottimizzazioni hardware per la famiglia Gemma 4 sulle sue piattaforme. I modelli E2B e E4B funzionano offline con latenza quasi nulla su Jetson Orin Nano, mentre i 26B e 31B sono ottimizzati per RTX PC e DGX Spark. Le quattro varianti sono compatibili con OpenClaw, l’assistente IA locale NVIDIA per RTX PC e DGX Spark, e supportate dal day 1 tramite Ollama, llama.cpp e Unsloth Studio per il fine-tuning locale.

🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com


Mistral Spaces : una CLI pensata per umani e agent IA

31 marzo 2026 — Mistral AI pubblica Spaces, un’interfaccia a riga di comando (command-line interface) open source nata da una necessità interna del team Solutions. L’osservazione che ha guidato il design: quando gli agent IA hanno iniziato a usare lo strumento oltre agli sviluppatori umani, i menu interattivi sono diventati un ostacolo. La soluzione adottata — ogni input interattivo ha un flag equivalente — permette agli agent di operare senza blocchi su stdin.

Tre comandi bastano per avviare un progetto con hot reload, database e Dockerfile generati:

spaces init my-project
cd my-project
spaces dev

Durante l’inizializzazione vengono generati due file per gli agent: context.json (snapshot strutturato del progetto) e AGENTS.md (regole imperative per gli LLM). L’architettura si basa su un sistema di plugin introspezionabili serializzabili in JSON — stessa dato, rendering adattato in base all’interlocutore (umano o agent). Distribuito con Koyeb, lo strumento è open source.

🔗 Mistral Spaces — mistral.ai


Brevi

ChatGPT su Apple CarPlay2 aprile — OpenAI annuncia il deployment progressivo della modalità vocale di ChatGPT su Apple CarPlay, permettendo di accedere all’assistente in movimento senza manipolare lo schermo. 🔗 @OpenAI su X

ElevenLabs + Slack2 aprile — ElevenLabs e Slack si alleano per integrare la tecnologia vocale ElevenAgents in Slackbot. I team possono automatizzare flussi di lavoro aziendali con un assistente vocale naturale. 🔗 @ElevenLabs su X

Pika AI Self Beta2 aprile — Pika dà un aspetto visivo e una voce ai suoi AI Selves, che possono ora unirsi automaticamente alle Google Meet. Il repo open source Pika-Skills è pubblicato su GitHub per permettere ad altri agent di utilizzare queste capacità. 🔗 @pika_labs su X — 🔗 Pika-Skills su GitHub

Claude Code v2.1.90 /powerup2 aprile — La versione 2.1.90 di Claude Code introduce il comando /powerup: un sistema di lezioni interattive per imparare le funzionalità dello strumento direttamente dal terminale. 🔗 CHANGELOG Claude Code

Claude Code Dispatch : permissions configurabili1 aprile — Il team Dispatch annuncia la possibilità di configurare la modalità dei permessi per i task di coding (Auto, Bypass Permissions, ecc.), con la modalità Auto raccomandata per un’esperienza sicura. 🔗 @noahzweben su X

Google AI Pro : storage 2 To → 5 To1 aprile — Shimrit ben-yair annuncia l’estensione dello storage Google AI Pro da 2 To a 5 To senza costi aggiuntivi per gli abbonati esistenti. 🔗 @shimritby su X Flex & Priority nell’API Gemini2 aprile — Google aggiunge due livelli di servizio sincroni all’API Gemini: Flex (-50% rispetto a Standard, latenza variabile per attività in background) e Priority (tariffa premium, senza preemption per chatbot in tempo reale). Un unico parametro service_tier basta per commutare. 🔗 Tier Flex e Priority — blog.google

OpenAI acquisisce TBPN2 aprile — OpenAI annuncia l’acquisizione di TBPN, un talk-show tech quotidiano co-condotto da Jordi Hays e John Coogan, descritto dal New York Times come “l’ultima ossessione della Silicon Valley”. L’indipendenza editoriale viene preservata nell’accordo, con TBPN che entra nell’organizzazione Strategia di OpenAI. 🔗 OpenAI acquisisce TBPN — openai.com


Cosa significa

La giornata del 2 aprile illustra due tendenze di fondo. Innanzitutto, la competizione sui modelli open si intensifica: Gemma 4 in Apache 2.0 con multimodalità nativa e Qwen3.6-Plus in testa nel coding agentico mostrano che i modelli chiusi non hanno più il monopolio delle migliori prestazioni. Per gli sviluppatori, l’opzione di un’alternativa sovrana e distribuibile localmente diventa concreta, anche su dispositivi consumer (Jetson Orin Nano, RTX).

Inoltre, la ricerca di Anthropic sulle emozioni funzionali esce dal contesto accademico: se vettori emozionali misurabili influenzano effettivamente i comportamenti di reward hacking e di sycophancy, l’allineamento delle IA non può più ignorare queste strutture interne. È un’apertura verso un’interpretabilità più profonda dei modelli.

Dal punto di vista degli strumenti, la tariffazione a consumo di Codex e l’arrivo dei plugin GitHub e Linear testimoniano una maturazione dei workflow agentici in azienda. Qwen3.6-Plus utilizzabile direttamente in Claude Code tramite ANTHROPIC_BASE_URL illustra che la portabilità tra fornitori sta diventando una realtà operativa.


Fonti

Questo documento è stato tradotto dalla versione fr alla lingua it utilizzando il modello gpt-5-mini. Per maggiori informazioni sul processo di traduzione, consultare https://gitlab.com/jls42/ai-powered-markdown-translator