Pesquisar

GPT-5.4 mini e nano lançados pela OpenAI, Mistral junta-se à Nemotron Coalition da NVIDIA, Perplexity Comet Enterprise disponível

GPT-5.4 mini e nano lançados pela OpenAI, Mistral junta-se à Nemotron Coalition da NVIDIA, Perplexity Comet Enterprise disponível

Em 17 de março de 2026, o foco está no GTC da NVIDIA e em vários lançamentos importantes. A OpenAI publica GPT-5.4 mini e nano, os seus modelos compactos mais capazes até à data, que se aproximam do modelo completo em vários benchmarks. A NVIDIA Nemotron Coalition ganha força com a adesão da Mistral AI e da Perplexity. A Perplexity abre simultaneamente o Comet Enterprise com uma governação MDM completa, o Claude Code v2.1.77 duplica o limite de geração para o Opus 4.6, e a GitHub, a Anthropic, a Google e a OpenAI unem-se para financiar a segurança open source no valor de 12,5 milhões de dólares.


GPT-5.4 mini e nano: os modelos compactos da OpenAI

17 de março — A OpenAI lança GPT-5.4 mini e GPT-5.4 nano, os seus modelos compactos mais eficientes até à data. Estas duas variantes trazem as capacidades do GPT-5.4 para formatos otimizados para cargas de trabalho de grande volume, com latência reduzida e custo mais baixo.

GPT-5.4 mini melhora significativamente o GPT-5 mini em código, raciocínio, compreensão multimodal e utilização de ferramentas, ao mesmo tempo que funciona mais de duas vezes mais rápido. Aproxima-se do desempenho do modelo completo GPT-5.4 em várias avaliações-chave, incluindo SWE-Bench Pro e OSWorld-Verified.

GPT-5.4 nano é a versão mais pequena e menos dispendiosa da família GPT-5.4, concebida para tarefas em que a rapidez e o custo são prioritários: classificação, extração de dados, ranking e subagentes de código simples.

AvaliaçãoGPT-5.4GPT-5.4 miniGPT-5.4 nanoGPT-5 mini
SWE-Bench Pro (public)57,7 %54,4 %52,4 %45,7 %
Terminal-Bench 2.075,1 %60,0 %46,3 %38,2 %
Toolathlon54,6 %42,9 %35,5 %26,9 %
GPQA Diamond93,0 %88,0 %82,8 %81,6 %
OSWorld-Verified75,0 %72,1 %39,0 %42,0 %

Os casos de uso dividem-se em três registos: os assistentes de código (GPT-5.4 mini destaca-se em workflows de codificação rápida, loops de depuração, geração frontend), os subagentes (no Codex, o GPT-5.4 pode delegar subtarefas ao GPT-5.4 mini usando apenas 30 % do quota GPT-5.4) e o controlo de interface (computer use), onde o GPT-5.4 mini interpreta rapidamente capturas de ecrã de interfaces densas.

ModeloDisponibilidadePreço de entradaPreço de saídaContexto
GPT-5.4 miniAPI, Codex, ChatGPT Free/Go0,75 $/million tokens4,50 $/million tokens400 000 tokens
GPT-5.4 nanoApenas API0,20 $/million tokens1,25 $/million tokens

No ChatGPT, o GPT-5.4 mini está acessível aos utilizadores Free e Go através da funcionalidade “Thinking” no menu +. Nos planos pagos, serve como modelo de recurso em caso de limite de débito do GPT-5.4 Thinking.

🔗 Apresentando o GPT-5.4 mini e nano


NVIDIA GTC 2026: a Nemotron Coalition e o Dynamo 1.0

A conferência GTC da NVIDIA, que decorreu a partir de 16 de março, foi o catalisador de vários anúncios importantes do setor: formação de uma coligação aberta em torno de modelos frontier open source, lançamento em produção de um sistema operativo de inferência e anúncio de um blueprint de dados para IA física.

Mistral junta-se à NVIDIA Nemotron Coalition

16 de março — A Mistral AI anuncia uma parceria estratégica com a NVIDIA para co-desenvolver modelos de IA frontier open source. A Mistral torna-se membro fundador da NVIDIA Nemotron Coalition, combinando a sua arquitetura frontier com a infraestrutura de computação da NVIDIA e as suas ferramentas de desenvolvimento.

AspetoDetalhe
Papel da MistralMembro fundador, arquitetura frontier + oferta full-stack IA
Contribuição NVIDIAInfraestrutura GPU + ferramentas de desenvolvimento
ObjetivoCo-desenvolver modelos abertos de nível frontier

🔗 Anúncio da Mistral no X

A Perplexity também se junta à coalizão

16 de março — A Perplexity anuncia a sua adesão à mesma NVIDIA Nemotron Coalition. Pontos-chave: a Perplexity afina diferentes modelos abertos para cada etapa do seu pipeline de resposta (análise de consulta, raciocínio, resposta final). O modelo Nemotron 3 Super (120 mil milhões de parâmetros, arquitetura MoE) está agora disponível na barra de pesquisa da Perplexity, na Agent API e no Perplexity Computer.

🔗 Blog da Perplexity – Nemotron Coalition 🔗 Anúncio da NVIDIA

Dynamo 1.0: o sistema operativo de inferência entra em produção

16 de março — A NVIDIA anuncia no GTC a entrada em produção do Dynamo 1.0, apresentado como o “sistema operativo de inferência” (inference operating system) para as fábricas de IA (AI factories). O Dynamo impulsiona o desempenho de inferência nos GPU Blackwell até 7x em comparação com implementações não otimizadas. A passagem para a v1.0 marca a sua transição da fase experimental para a produção industrial.

🔗 Anúncio da NVIDIA Dynamo 1.0

Physical AI Data Factory Blueprint

16 de março — A NVIDIA revela o Physical AI Data Factory Blueprint: uma arquitetura de referência para transformar computação acelerada em dados de treino de alta qualidade destinados à robótica, a agentes de visão IA e a veículos autónomos. Este blueprint permite às empresas gerar sinteticamente dados de treino para IA física em grande escala.

🔗 Anúncio da NVIDIA Physical AI

Cohere + NVIDIA: IA soberana no DGX Spark

16 de março — A Cohere e a NVIDIA associam-se para desenvolver uma IA soberana, segura e eficiente, também anunciada no GTC. Dois eixos principais: modelos NVIDIA ecosystem-native (modelos personalizados otimizados para a mais recente arquitetura NVIDIA, destinados a workloads enterprise especializados) e North no DGX Spark (a plataforma agentic North da Cohere estará disponível no NVIDIA DGX Spark, localmente e com baixa latência para dados sensíveis). Os setores-alvo são finanças, saúde e setor público.

🔗 Blog da Cohere – IA soberana NVIDIA


Perplexity Comet Enterprise: governação MDM e integração CrowdStrike

17 de março — A Perplexity lança Comet Enterprise para todos os assinantes Enterprise. O navegador IA passa para a versão enterprise com uma governação de implementação completa.

FuncionalidadeDescrição
Implementação MDMInstalador silencioso, implementação em milhares de máquinas, logs de auditoria
Telemetria granularSeguimento por utilizador
CrowdStrike FalconProteção anti-phishing, deteção de exfiltração (capturas de ecrã, downloads)
Intervenção em tempo realPossível através da integração CrowdStrike
PrivacidadeA Perplexity nunca treina os seus modelos com dados enterprise

Entre os primeiros utilizadores: empresas da Fortune, AWS, AlixPartners, Gunderson Dettmer e Bessemer Venture Partners. Os casos de uso documentados incluem preparação de reuniões com clientes (notícias em tempo real), análise de contratos SOW, cálculos financeiros e pesquisa setorial.

🔗 Blog da Perplexity – Comet Enterprise


Claude Code v2.1.77: 64k tokens por defeito para o Opus 4.6

17 de março — Claude Code v2.1.77 é lançado com um aumento significativo dos limites de geração e várias correções de bugs críticos.

ModeloLimite por defeitoLimite máximo
Claude Opus 4.664 000 tokens128 000 tokens
Claude Sonnet 4.6128 000 tokens

O limite por defeito para o Opus 4.6 duplica (de 32k para 64k tokens), permitindo respostas muito mais longas sem configuração adicional.

Novas funcionalidades:

  • allowRead nas sandboxes: novo parâmetro de configuração filesystem que permite readicionar a leitura em áreas abrangidas por uma regra denyRead. Útil para configurações de segurança granulares.
  • /copy N: o comando /copy aceita agora um índice opcional — /copy 2 copia a segunda resposta anterior do assistente sem navegar no histórico.

Correções notáveis:

  • “Always Allow” em comandos bash compostos: a regra era guardada para a cadeia completa (cd src && npm test) em vez de por subcomando. Corrigido.
  • Auto-updater: iniciava downloads paralelos em aberturas e fechamentos repetidos da janela, podendo acumular dezenas de gigabytes em memória. Corrigido.
  • --resume a truncar o histórico: uma condition de race (race condition) entre as escritas de extração de memória e o transcript principal podia causar truncagem silenciosa. Corrigido.
  • Hooks PreToolUse a contornar regras deny: um hook que devolvia "allow" contornava as regras de permissão deny, incluindo definições geridas pela empresa. Correção de segurança importante.

🔗 CHANGELOG do Claude Code


Artigo técnico: como a equipa Claude Code utiliza os Skills

17 de março — Thariq (@trq212), engenheiro da equipa Claude Code na Anthropic, publica “Lessons from Building Claude Code: How We Use Skills”, segundo artigo da série após “Seeing like an Agent” (27 de fevereiro, 3,6 milhões de visualizações).

O artigo documenta como os Skills se tornaram um dos pontos de extensão mais utilizados do Claude Code — flexíveis, fáceis de manter e permitindo às equipas definir workflows reutilizáveis diretamente no seu ambiente de desenvolvimento. Boris Cherny (@bcherny), responsável pelo Claude Code, partilhou o artigo descrevendo-o como “Really great writeup”. O autor anuncia também a próxima publicação de um skill iMessage open source como exemplo concreto.

“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”

🇵🇹 Usar bem os Skills é uma questão de competência. Não me tinha apercebido de quão grande é isso até escrever este artigo.@trq212 no X

🔗 Tweet de publicação


Codex Security: porque não há relatório SAST

16 de março — A OpenAI publica um artigo técnico a explicar a decisão de design por trás do Codex Security: porque é que o sistema não se baseia na análise estática (SAST) como ponto de partida.

A abordagem assenta em quatro pilares: a leitura contextual (analisar o caminho de código completo com o contexto do repositório), o micro-fuzzing direcionado (reduzir ao menor fragmento testável para escrever micro-fuzzers), o raciocínio sobre restrições (usar um ambiente Python com z3-solver para formalizar problemas complexos) e a validação em sandbox (distinguir “isto pode ser um problema” de “isto é um problema” com um PoC compilado). O artigo ilustra estes princípios com CVE-2024-29041 (Express), um redirecionamento aberto em que URLs malformados contornavam implementações de allowlist.

🔗 Porque o Codex Security não inclui um relatório SAST


Gemini Personal Intelligence: expansão gratuita nos Estados Unidos

17 de março — A Google expande Personal Intelligence para mais utilizadores gratuitamente nos Estados Unidos. Esta funcionalidade, até agora reservada a assinantes pagos, está agora acessível a contas gratuitas (free-tier) através de três superfícies: AI Mode na Google Search, a aplicação Gemini (iOS/Android) e a extensão Gemini in Chrome.

A Personal Intelligence liga de forma segura as aplicações Google do utilizador (Gmail, Google Photos, YouTube, Search) para fornecer respostas personalizadas. Exemplos: recomendações de compras adaptadas a compras anteriores, assistência técnica direcionada para o dispositivo exato comprado (extraído dos recibos do Gmail), itinerários de viagem personalizados baseados nas confirmações de hotel. O utilizador escolhe que aplicações ligar e pode desativar a qualquer momento. Disponível apenas para contas Google pessoais (não Workspace enterprise/educação).

🔗 Blog da Google – Personal Intelligence


AlphaFold Database: milhões de novas estruturas de complexos proteicos

17 de março — A Google DeepMind anuncia a expansão da base de dados AlphaFold Database (AFDB) com milhões de novas estruturas de complexos proteicos preditas por IA, em colaboração com o EMBL-EBI (Instituto Europeu de Bioinformática), a NVIDIA e a Universidade Nacional de Seul. As novas estruturas cobrem nomeadamente os patogénios bacterianos prioritários da OMS — as bactérias mais perigosas e resistentes aos antibióticos. Esta expansão passa do nível das proteínas individuais para os complexos proteicos (interações entre várias proteínas), um salto qualitativo para a investigação médica e farmacêutica.

🔗 Anúncio de Pushmeet Kohli no X


xAI: API Text-to-Speech de Grok e primeiro lugar em edição de vídeo

API Text-to-Speech

16 de março — A xAI anuncia a disponibilidade da API Text-to-Speech de Grok, oferecendo vozes naturais e expressivas para developers. A LiveKit integrou esta TTS no LiveKit Inference desde o lançamento.

🔗 Anúncio da xAI no X

Grok Imagine #1 em edição de vídeo

15 de março — O Grok Imagine alcança o primeiro lugar em edição de vídeo no ranking Design Arena, com um Elo de 1290. A API Imagine está agora acessível aos desenvolvedores. A funcionalidade cobre a adição, a remoção e a troca de objetos em cenas de vídeo.

🔗 Anúncio da Grok no X


Perplexity Computer : controlo total de Comet e Android

Controlo do Computer sobre o Comet sem MCP

16 de março — O Computer pode agora assumir o controlo total do navegador Comet para executar tarefas autónomas: o agente do navegador pode aceder a qualquer site ou aplicação conectada, sem conectores nem MCP. Disponível para todos os utilizadores do Computer no Comet.

🔗 Tweet da Perplexity

Computer no Android

16 de março — O Perplexity Computer já está disponível no Android, expandindo o lançamento no iOS de 13 de março para todas as plataformas móveis.

🔗 Tweet da Perplexity Android


Manus : desktop local e Google Workspace ao nível de developer

Manus “My Computer” no macOS e Windows

16 de março — A Manus anuncia “My Computer”, funcionalidade central da nova aplicação Manus Desktop (macOS e Windows). Até aqui limitado a uma sandbox cloud, o Manus pode agora ser executado diretamente na máquina local através de instruções em linha de comando num terminal local — com aprovação explícita do utilizador em cada etapa.

Os casos de uso cobrem um amplo espectro: organizar e renomear milhares de ficheiros, criar aplicações de desktop nativas (exemplo citado: uma aplicação Mac de tradução e legendagem em tempo real criada em 20 minutos, sem abrir o Xcode), ou usar o GPU local para treinar modelos de machine learning. My Computer complementa os Connectors cloud existentes (Google Calendar, Gmail) em vez de os substituir.

🔗 Tweet Manus · 🔗 Blog Manus

Manus domina o Google Workspace com precisão

17 de março — A Manus lança uma atualização importante do seu conector Google Workspace, baseada no Google Workspace CLI (ferramenta open source da equipa da Google). A versão antiga tratava os ficheiros Google como blocos monolíticos; a nova versão permite ações granulares:

DomínioNovas capacidades
Google DocsSubstituições de texto cirúrgicas, respostas a comentários específicos
Google SheetsLeitura cruzada de várias folhas, atualização de uma célula específica, duplicação de separadores
Google SlidesEdição de apresentações existentes (título de um slide, atualização de cronologia)
Google DriveReorganização de pastas

A atualização é gratuita e retrocompatível.

🔗 Tweet Manus · 🔗 Blog Manus


GitHub : /fleet para manutenção em massa e 12,5 M$ para o open source

Copilot /fleet : manutenção em toda a frota de repositórios

15 de março — A GitHub demonstra o comando /fleet no GitHub Copilot. Com uma única instrução, os developers que gerem vários repositórios podem delegar as tarefas repetitivas de manutenção (atualizações de configuração, correções de dependências) ao agente em toda a sua frota, em vez de repositório a repositório.

🔗 Tweet GitHub

12,5 M$ para a segurança open source

17 de março — GitHub, Anthropic, AWS, Google e OpenAI unem-se num compromisso coletivo de 12,5 milhões de dólares em apoio ao Alpha-Omega, o programa da Linux Foundation dedicado a reforçar a segurança do ecossistema open source.

Pontos-chave do lado da GitHub: 280 000+ maintainers em centenas de milhões de repositórios públicos serão elegíveis para acesso gratuito ao GitHub Copilot Pro. A GitHub também injeta 5,5 M$ em créditos Azure para formação. O GitHub Secure Open Source Fund, que já apoiou 138 projetos, abre a sua quarta sessão no final de abril de 2026.

O contexto é significativo: a IA acelerou consideravelmente a descoberta de vulnerabilidades, o que aumenta a carga sobre os maintainers. O objetivo declarado é que a IA reduza essa carga em vez de a aumentar.

🔗 Artigo GitHub Blog 🔗 Anúncio da Linux Foundation


Z.ai GLM-5-Turbo : alta velocidade para ambientes de agents

15 de março — A Z.ai lança GLM-5-Turbo, uma variante de alta velocidade do GLM-5 otimizada para ambientes de agents (nomeadamente OpenClaw). No mesmo dia, os limites de utilização são triplicados para os subscritores do GLM Coding Plan. Disponível na OpenRouter e através da API direta.

🔗 Anúncio da Z.ai no X


Kimi publica um paper sobre os Attention Residuals

16-17 de março — A Moonshot AI publica um paper de investigação sobre os Attention Residuals no arXiv: uma nova abordagem de agregação em profundidade que substitui as ligações residuais standard por uma recorrência inspirada na dualidade tempo/profundidade (depth-wise aggregation). A análise mostra que esta abordagem atenua naturalmente os problemas de crescimento de magnitude dos estados ocultos. Elon Musk respondeu “Impressive work from Kimi” no tweet de anúncio (4,5 milhões de visualizações).

🔗 Tweet Kimi · 🔗 arXiv 2603.15031


ElevenLabs × Deloitte : agents omnicanal para a empresa

14 de março — A ElevenLabs e a Deloitte anunciam uma parceria estratégica que combina a plataforma ElevenLabs Agents com a experiência setorial da Deloitte, para ajudar grandes empresas a implementar agents conversacionais omnicanal. A parceria visa empresas reguladas (finanças, saúde, serviços públicos). A Deloitte traz a integração de negócio, a ElevenLabs fornece a infraestrutura de áudio IA (voz, transcrição, agents).

🔗 Blog ElevenLabs


Breves

Tongyi Fun-CineForge (Alibaba, 16 de março) — A Tongyi Lab open-source Fun-CineForge, um sistema de dobragem cinematográfica IA que se aproxima da qualidade do cinema profissional. Disponível no GitHub, HuggingFace e ModelScope. 🔗 Anúncio no X


O que isso significa

A NVIDIA GTC 2026 cristaliza uma dinâmica importante: vários labs de IA de primeira linha (Mistral, Perplexity, Cohere) alinham-se em torno da infraestrutura NVIDIA para co-desenvolver modelos frontier abertos ou implementações soberanas. Esta convergência em torno de uma coligação aberta contrasta com o período recente de fragmentação — e sinaliza que o pretraining em grande escala se tornou demasiado caro para ser tratado em silo.

GPT-5.4 mini confirma uma tendência forte: os modelos de “pequeno formato” já não são versões degradadas, mas alternativas competitivas. Com 54,4 % no SWE-Bench Pro contra 57,7 % para o modelo completo, e um custo 19x inferior, GPT-5.4 mini redefine a relação desempenho/preço para os workflows de coding.

O dia 17 de março ilustra também a ascensão dos agents locais e de desktop: Manus “My Computer” sai da cloud para aceder à máquina local, o Perplexity Computer toma o controlo do Comet sem MCP, e o Claude Code duplica a sua janela de geração por defeito para o Opus 4.6. A era do agent que se limita a sugerir dá lugar à do agent que executa.


Fontes

Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator