ai-powered-markdown-translatorArticolo tradotto dal fr all’it con gpt-5.4-mini.
Settimana intensa: OpenAI spinge GPT-5.5 Instant al posto diretto di GPT-5.3 per tutti gli utenti ChatGPT, xAI lancia Grok 4.3 sulla sua API con un contesto di un milione di token, e Anthropic annuncia una nuova società di servizi IA co-fondata con Blackstone, Hellman & Friedman e Goldman Sachs. Sul fronte degli strumenti, GitHub triplica le GA/preview di sicurezza tramite il suo server MCP, Perplexity lancia un prodotto dedicato ai team finanziari e Runway presenta agenti video in tempo reale generati da una sola immagine.
GPT-5.5 Instant — nuovo modello predefinito di ChatGPT
5 maggio — OpenAI sostituisce GPT-5.3 Instant con GPT-5.5 Instant come modello predefinito di ChatGPT per tutti gli utenti. La distribuzione si estende su due giorni.
| Dimensione | Miglioramento vs GPT-5.3 Instant |
|---|---|
| Allucinazioni (medicina, diritto, finanza) | -52,5 % |
| Reclami inesatti (segnalati dagli utenti) | -37,3 % |
| Verbosità delle risposte | -30,2 % di parole in media |
Il modello migliora anche l’analisi delle immagini, le risposte STEM e la decisione di usare la ricerca web. Le risposte sono più concise senza perdita di sostanza, con meno formattazione superflua e meno domande di follow-up inutili.
Fonti della memoria — OpenAI introduce le “memory sources” su tutti i modelli ChatGPT: quando una risposta viene personalizzata a partire da ricordi salvati, conversazioni passate o Gmail collegato, l’utente vede esattamente quali fonti sono state utilizzate e può correggerle o rimuoverle. La personalizzazione dalle conversazioni passate e dai file è inizialmente riservata agli abbonati Plus e Pro (web), gli altri piani seguiranno.
Disponibilità:
- Distribuzione progressiva su 2 giorni per tutti gli utenti ChatGPT
- Disponibile via API con l’alias
chat-latest - GPT-5.3 Instant resta accessibile per 3 mesi per gli abbonati paganti
🔗 Annuncio ufficiale GPT-5.5 Instant
Grok 4.3 lanciato su API xAI — contesto 1M token, #1 agentic tool calling
5 maggio — xAI annuncia tramite X il lancio di Grok 4.3 sull’API xAI (console.x.ai). Il modello viene presentato come il più veloce e il più intelligente della gamma fino ad oggi.
| Caratteristica | Valore |
|---|---|
| Finestra di contesto | 1 milione di token |
| Benchmark agentic tool calling | #1 (@ArtificialAnlys leaderboard) |
| Benchmark instruction following | #1 (@ArtificialAnlys leaderboard) |
| Ambiti enterprise | #1 case law e corporate finance (@ValsAI) |
| Disponibilità | API xAI (console.x.ai) — non ancora su grok.com |
Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.
🇮🇹 Grok 4.3 è ora disponibile sull’API xAI. Si tratta del nostro modello più veloce e più intelligente fino a oggi. È in testa alle classifiche @ArtificialAnlys per agentic tool calling e instruction following, e si classifica al #1 su @ValsAI negli ambiti enterprise come il diritto societario e la finanza aziendale. Grok 4.3 supporta un contesto di un milione di token. — @xai su X
Il tweet ha generato 25,7 milioni di visualizzazioni e 6 029 like. Da notare: nessuna pagina dedicata su x.ai/news al momento dell’annuncio — il lancio è passato esclusivamente tramite X.
Anthropic e Blackstone, Hellman & Friedman, Goldman Sachs — nuova società di servizi IA enterprise
4 maggio — Anthropic, Blackstone, Hellman & Friedman e Goldman Sachs annunciano la creazione di una nuova società di servizi IA enterprise, sostenuta da un consorzio di ulteriori attori alternativi.
L’obiettivo: distribuire Claude nelle operazioni principali delle grandi aziende per attività che richiedono ingegneria intensiva e una profonda conoscenza settoriale. Secondo Anthropic, la domanda enterprise per Claude supera ciò che un unico modello di distribuzione può assorbire.
Il modello operativo tipico inizia con un piccolo team che lavora a stretto contatto con il cliente per individuare i punti di attrito, quindi costruisce agenti Claude adattati al mestiere. L’esempio concreto fornito: una rete di studi medici multi-sede in cui Claude gestisce la documentazione clinica, le attività amministrative ripetitive e il coordinamento tra specialità, permettendo ai clinici di concentrarsi sulla cura dei pazienti.
La nuova società entrerà nel Claude Partner Network, al fianco di Accenture, Deloitte e PwC. Rappresenta una tappa strutturante nella strategia di distribuzione enterprise di Anthropic: invece di vendere solo licenze API, l’azienda si impegna ora in implementazioni operative complesse con partner finanziari di primo livello.
Agenti Claude per i servizi finanziari e le assicurazioni
5 maggio — Anthropic lancia dieci template di agenti pronti all’uso (ready-to-run) per i servizi finanziari e le assicurazioni. Disponibili come plugin in Claude Cowork o Claude Code, oppure come Claude Managed Agents autonomi sulla piattaforma Claude.
Ricerca e copertura clienti:
| Agente | Ruolo |
|---|---|
| Pitch builder | Liste target, comparables, pitchbook |
| Meeting preparer | Brief clienti e controparti |
| Earnings reviewer | Lettura di trascrizioni e aggiornamenti di modelli |
| Model builder | Creazione di modelli finanziari da filing e dati |
| Market researcher | Monitoraggio settoriale e sintesi delle notizie |
Finanza e operazioni:
| Agente | Ruolo |
|---|---|
| Valuation reviewer | Verifica delle valutazioni |
| General ledger reconciler | Riconciliazione contabile e calcoli VNI |
| Month-end closer | Chiusura mensile e registri contabili |
| Statement auditor | Revisione dei bilanci |
| KYC screener | Raccolta di dossier entità e filtraggio compliance |
Claude si integra ora in Microsoft Excel, PowerPoint, Word e Outlook (in corso) tramite componenti aggiuntivi (add-ins). La funzione Dispatch di Claude Cowork consente di assegnare attività tramite testo o voce da qualsiasi luogo.
Nuovi connettori di dati: Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk e un MCP Moody’s (rating e dati su oltre 6 000 entità).
Tra i clienti citati: Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % dei dipendenti usa Claude Code), Hg, Morningstar, FactSet. Questi agenti sono ottimizzati per Claude Opus 4.7, classificato #1 nel benchmark Vals AI Finance Agent.
Perplexity Computer for Professional Finance
5 maggio — Perplexity lancia Computer per la finanza professionale, una versione di Computer progettata specificamente per i team di analisi e investimento: analisti buy-side e sell-side, hedge fund, private equity.
| Dimensione | Valore |
|---|---|
| Workflow inclusi | 35 (10 segmenti) |
| Fornitori di dati integrati | 14 (tra cui Quartr, Fiscal) |
| Connettori MCP premium | Morningstar, PitchBook, Daloopa, Carbon Arc |
| Piattaforme disponibili | Microsoft Teams, Agent API |
| In arrivo | Excel add-in |
| Benchmark FinSearchComp T1 | 1° (precisione, costo, latenza) |
I team con abbonamenti in licenza possono collegare i propri identificativi tramite connettori MCP per accedere a Morningstar, PitchBook, Daloopa e Carbon Arc. Gli altri accedono agli strumenti finanziari integrati supportati da 14 fornitori di dati.
Ogni valore numerico rimanda alla sua fonte: per i valori tratti da documenti SEC, Computer mostra il calcolo e punta alle pagine precise del documento. Sul benchmark FinSearchComp T1 (estrazione di dati sensibili al fattore tempo), Perplexity si classifica al primo posto per precisione, costo per risposta corretta e latenza — includendo i prezzi in tempo reale, i prezzi crypto e i tassi di cambio.
🔗 Blog Perplexity — Computer for Professional Finance
Runway Characters — agente video in tempo reale da una sola immagine
4 maggio — Runway annuncia Characters, una tecnologia che consente di trasformare una sola immagine in un agente video conversazionale in tempo reale.
| Metrica | Valore |
|---|---|
| Latenza end-to-end | 1,75 secondi |
| Qualità video | 24 fps HD |
| Immagine sorgente richiesta | 1 sola immagine |
| Avvii a freddo | 60× più veloci (GPU peer-to-peer) |
Il ritardo di 1,75 secondi si misura dal momento in cui l’utente smette di parlare fino alla prima risposta del personaggio. Runway ha pubblicato contemporaneamente due articoli di ingegneria: il primo descrive l’architettura dell’agente video in tempo reale, il secondo spiega come l’infrastruttura GPU peer-to-peer (peer-to-peer) riduca di 60 volte i tempi di avvio a freddo.
I casi d’uso previsti includono agenti conversazionali, personaggi interattivi in tempo reale e interfacce video per applicazioni. La tecnologia segna il passaggio dal rendering video offline a un’interazione sincrona.
🔗 Tweet di annuncio Runway Characters
GitHub MCP Server — triplo avanzamento sicurezza
5 maggio — GitHub pubblica simultaneamente tre aggiornamenti di sicurezza per il suo server MCP, tutti eseguiti nello stesso giorno.
Secret scanning GA
Il secret scanning tramite GitHub MCP Server passa alla disponibilità generale (uscita dalla preview da marzo 2026). In GitHub Copilot CLI, l’installazione si effettua con /plugin install advanced-security@copilot-plugins; in VS Code, il plugin advanced-security espone il comando /secret-scanning.
| Aspetto | Dettaglio |
|---|---|
| Stato | GA (disponibilità generale) |
| Disponibilità | Repository con GitHub Secret Protection attivato |
| Integrazioni | Copilot CLI, VS Code, qualsiasi IDE compatibile con MCP |
Gli strumenti MCP rispettano ora le personalizzazioni esistenti della push protection — il comportamento di bypass è coerente con la configurazione del repository o dell’organizzazione.
🔗 Changelog — Secret scanning GA
Dependency scanning in anteprima pubblica
Il rilevamento di vulnerabilità sulle dipendenze tramite MCP Server passa in anteprima pubblica. Il sistema interroga la GitHub Advisory Database e restituisce risultati strutturati con pacchetti interessati, gravità e versioni corrette raccomandate.
| Aspetto | Dettaglio |
|---|---|
| Stato | Anteprima pubblica |
| Disponibilità | Repository con Dependabot alerts attivato |
| Attivazione CLI | copilot --add-github-mcp-toolset dependabot |
🔗 Changelog — Dependency scanning
GitHub Advanced Security × Microsoft Defender for Cloud GA
Anche l’integrazione GitHub Advanced Security × Microsoft Defender for Cloud passa in GA. Correlando le immagini container distribuite in ambiente cloud con il codice sorgente GitHub, porta contesto runtime nelle viste di sicurezza.
Nuovi filtri disponibili nella vista organizzazione: has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. Le campagne di sicurezza possono essere assegnate direttamente all’agente di coding GitHub Copilot.
🔗 Changelog — Code-to-cloud GA
Model Spec Midtraining (MSM) — allineamento agentico ridotto dal 68 % al 5 %
5 maggio — Ricercatori di Anthropic pubblicano “Model Spec Midtraining” (MSM), un metodo di allineamento inserito tra il pre-training e il fine-tuning di allineamento (alignment fine-tuning, AFT).
Il principio: i modelli vengono addestrati su un corpus sintetico di documenti che discutono il contenuto del loro Model Spec prima di imparare a seguirne le regole. L’idea è che capire perché esiste una regola migliori la robustezza della sua applicazione.
| Modello | Disallineamento (solo AFT) | Con MSM + AFT |
|---|---|---|
| Qwen2.5-32B | 68 % | 5 % |
| Qwen3-32B | 54 % | 7 % |
MSM rende anche l’AFT molto più efficiente in termini di dati: servono da 40 a 60 volte meno dati AFT per raggiungere prestazioni comparabili. Gli autori mostrano inoltre che spiegare le motivazioni dietro le regole (piuttosto che moltiplicare le sotto-regole) migliora la generalizzazione fuori distribuzione.
🔗 Articolo MSM — alignment.anthropic.com
NotebookLM Mind Maps — personalizzazione, organizzazione, navigazione
5 maggio — NotebookLM migliora le sue mappe mentali (Mind Maps) con tre funzionalità distribuite simultaneamente.
| Funzionalità | Descrizione |
|---|---|
| Personalizzazione | Guidare la mappa con istruzioni utente specifiche |
| Organizzazione | Rinominare e condividere le Mind Map istantaneamente |
| Navigazione | Transizioni fluide tra i nodi |
La distribuzione è progressiva per tutti gli utenti. L’aggiornamento completa la serie di miglioramenti rapidi di NotebookLM da inizio aprile: organizzazione automatica delle fonti (24 aprile, 100 % di distribuzione raggiunto il 5 maggio), integrazione nell’app Gemini mobile (30 aprile).
Genspark sb-git — server Git riscritto per gli agenti IA
5 maggio — Genspark lancia sb-git, un server Git riscritto da zero per gli agenti IA. Semantica Git completa: versionamento, branch, diff, blame, rollback e push.
| Aspetto | Dettaglio |
|---|---|
| CLI | gsk (init, clone-url, cat, commit) |
| Compatibilità | Claude Code, OpenClaw, qualsiasi agente Git |
| Archiviazione | 1 GB (gratis), 10 GB (Plus/Pro) |
| Account richiesto | No — nessun account GitHub necessario |
| Disponibilità | Immediata (web + mobile) |
Nessun account GitHub richiesto, nessuna configurazione preliminare del repository. L’attenzione è rivolta alla compatibilità con i comuni agenti IA (Claude Code, OpenClaw) senza attriti di installazione.
NVIDIA + ServiceNow — Project Arc, agente desktop autonomo long-running
5 maggio — Alla conferenza ServiceNow Knowledge 2026, Jensen Huang e Bill McDermott hanno annunciato l’espansione della loro partnership intorno agli agenti IA autonomi in azienda.
ServiceNow lancia Project Arc, un agente desktop autonomo long-running progettato per i knowledge worker: sviluppatori, team IT, amministratori. L’agente usa NVIDIA OpenShell (sandbox open source) per governance e sicurezza, e si connette nativamente alla piattaforma ServiceNow tramite ServiceNow Action Fabric.
| Metrica | Valore |
|---|---|
| Efficienza Blackwell vs Hopper | 50× tokens/watt |
| Riduzione del costo per milione di token | ~35× |
| Nemotron 3 Super (open source) | #1 EnterpriseOps-Gym (NOWAI-Bench) |
| Ticket risolti autonomamente | 90 % (ServiceNow + Apriel/Nemotron) |
NVIDIA NemoClaw + OpenClaw — agente persistente open source che supera React su GitHub
30 aprile — OpenClaw (creato da Peter Steinberger) ha superato 250.000 stelle GitHub in 60 giorni, superando React e diventando il progetto più stellato della piattaforma. NVIDIA collabora con la comunità per mettere in sicurezza questo progetto di agente IA self-hosted persistente.
NVIDIA lancia NemoClaw, un’implementazione di riferimento installabile con un solo comando, che combina OpenClaw + NVIDIA OpenShell + Nemotron con configurazioni di sicurezza rafforzate per impostazione predefinita.
| Metrica | Valore |
|---|---|
| Stelle GitHub OpenClaw | 250.000+ (marzo 2026) |
| Crescita | Progetto GitHub #1 in 60 giorni (supera React) |
| Moltiplicatore inferenza agenti vs reasoning AI | 1.000× |
| Installazione NemoClaw | 1 solo comando |
🔗 Blog NVIDIA — OpenClaw/NemoClaw
Luma AI Uni-1.1 API — generazione di immagini che ragiona su brief creativi
5 maggio — Luma AI lancia l’API Uni-1.1, un modello di generazione di immagini progettato per ragionare su brief creativi invece che sui token. A differenza delle API tradizionali che richiedono prompt engineering, Uni-1.1 comprende il contesto estetico di ogni tradizione visiva e produce risultati utilizzabili fin dal primo tentativo.
Casi d’uso citati: strumenti di moda, rendering architettonici, pipeline manga, contenuti cinematografici. Nessun middleware richiesto. L’API è disponibile su lumalabs.ai/api.
ChatGPT Ads Manager self-serve e CPC bidding
5 maggio — OpenAI estende il suo programma pubblicitario con due novità: uno strumento self-serve (Ads Manager, in beta negli Stati Uniti) e il lancio della modalità di bidding CPC (costo per clic).
| Modalità | Stato | Descrizione |
|---|---|---|
| CPM (costo per mille impressioni) | Esistente | Disponibile dal lancio del programma |
| CPC (costo per clic) | Nuovo | L’inserzionista paga solo al clic effettivo |
| Ads Manager self-serve (beta) | Nuovo | Disponibile agli inserzionisti USA |
Partner agenzie: Dentsu, Omnicom, Publicis, WPP. Partner tecnologici: Adobe, Criteo, Kargo, Pacvue, StackAdapt. OpenAI ha inoltre lanciato una Conversions API e un tracciamento tramite pixel per misurare le azioni post-clic senza esporre le conversazioni individuali agli inserzionisti.
🔗 Annuncio pubblicitario OpenAI
Perplexity Premium Health Sources
5 maggio — Perplexity lancia le fonti di salute premium. Più di una query su dieci riguarda la salute sulla piattaforma. Le fonti disponibili al lancio sono NEJM, BMJ Journals e BMJ Best Practice — riferimenti medici solitamente riservati agli abbonamenti istituzionali.
In Computer, queste fonti si attivano automaticamente per le domande di salute senza selezione manuale. Ogni risposta include citazioni tracciabili. Fonti in arrivo: Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.
🔗 Blog Perplexity — Fonti di salute premium
Brevi
-
Manus — Raccomandazione automatica dei connettori — Manus ora rileva quale connettore (Slack, Notion, Gmail, Google Drive) è necessario per completare un’attività e lo raccomanda nella conversazione, senza uscire dal thread. L’attivazione resta soggetta alla conferma dell’utente. 🔗 fonte
-
Black Forest Labs — FLUX Creator Program — BFL apre un programma selettivo per creator per l’accesso anticipato ai prossimi modelli FLUX, con amplificazione dei loro lavori tramite i canali BFL. 🔗 fonte
-
GPT-5.5 Instant System Card — Prima System Card della gamma Instant classificata “High capability” nelle categorie Cybersicurezza e Biologia & Chimica del Preparedness Framework di OpenAI. Di conseguenza sono state implementate misure di protezione rafforzate. 🔗 fonte
-
OpenAI — Architettura WebRTC relay+transceiver — OpenAI pubblica un articolo di ingegneria che descrive la riprogettazione della sua infrastruttura WebRTC per la voce in tempo reale (ChatGPT Voice, Realtime API), al servizio di oltre 900 milioni di utenti settimanali. L’architettura separa il routing dei pacchetti (relay leggero, senza stato) dalla terminazione del protocollo (transceiver, con stato), consentendo un deployment Kubernetes standard con un’impronta UDP pubblica ridotta. 🔗 fonte
Cosa significa
La finanza come terreno di gioco prioritario dell’IA enterprise. Nell’arco di 24 ore, Anthropic, Perplexity e xAI hanno ciascuna pubblicato annunci rivolti esplicitamente ai team finanziari: dieci template di agenti Claude (valutazione, KYC, chiusura mensile), Computer for Professional Finance con 35 workflow e 14 fornitori di dati, e Grok 4.3 classificato #1 sul benchmark Vals AI in corporate finance e case law. La convergenza non è casuale: la finanza combina volume di documenti strutturati, esigenza di precisione e tolleranza ai costi degli strumenti premium, il che la rende il terreno ideale per i primi deploy di agenti autonomi ad alto valore business.
La corsa ai modelli di default. GPT-5.5 Instant riduce le allucinazioni del 52,5% rispetto al suo predecessore immediato, e Grok 4.3 raggiunge il contesto di un milione di token con prestazioni agentiche misurate e pubblicate. Questi due modelli vengono lanciati lo stesso giorno. La posta in gioco non è più solo pubblicare i migliori benchmark accademici, ma essere il modello caricato di default nelle interfacce consumer (ChatGPT) o attivato per primo nei pipeline per sviluppatori (API xAI).
MCP come standard di sicurezza per sviluppatori. GitHub ha pubblicato simultaneamente tre aggiornamenti di sicurezza tramite il suo server MCP (secret scanning GA, dependency scanning in anteprima, code-to-cloud GA). Questo rollout coordinato trasforma il server MCP di GitHub in un canale di integrazione di sicurezza nativo per gli agenti di coding — Copilot CLI, VS Code e qualsiasi IDE compatibile MCP possono ora scansionare segreti e dipendenze vulnerabili prima di ogni commit, direttamente nel flusso di lavoro agentico.
Agenti persistenti e infrastruttura in tempo reale. Runway Characters (agente video con latenza di 1,75 s da un’immagine), Project Arc di ServiceNow (agente desktop long-running), OpenClaw/NemoClaw (250.000 stelle GitHub, domanda di inferenza 1.000× superiore rispetto alle IA di reasoning) e Genspark sb-git (Git riscritto per agenti) segnalano tutti la stessa svolta: gli agenti IA escono dall’era delle richieste puntuali per entrare in quella dei processi persistenti, con esigenze infrastrutturali radicalmente diverse — storage di stato, latenza in tempo reale, versioning nativo.
Fonti
- GPT-5.5 Instant — OpenAI
- GPT-5.5 Instant System Card
- ChatGPT Ads — OpenAI
- Architettura WebRTC OpenAI
- Grok 4.3 — @xai su X
- Anthropic Finance Agents
- Anthropic Enterprise AI Services Company
- Model Spec Midtraining — Anthropic
- Perplexity Computer for Professional Finance
- Perplexity Premium Health Sources
- Runway Characters — @runwayml su X
- NVIDIA + ServiceNow Project Arc
- NVIDIA NemoClaw + OpenClaw
- Luma AI Uni-1.1 — @LumaLabsAI su X
- GitHub MCP Secret Scanning GA
- GitHub MCP Dependency Scanning
- GitHub + Microsoft Defender for Cloud GA
- Genspark sb-git — @genspark_ai su X
- NotebookLM Mind Maps — @NotebookLM su X
- Manus Recommended Connectors
- Black Forest Labs FLUX Creator Program — @bfl_ml su X