Em 17 de março de 2026, o foco está no GTC da NVIDIA e em vários lançamentos importantes. A OpenAI publica GPT-5.4 mini e nano, os seus modelos compactos mais capazes até à data, que se aproximam do modelo completo em vários benchmarks. A NVIDIA Nemotron Coalition ganha força com a adesão da Mistral AI e da Perplexity. A Perplexity abre simultaneamente o Comet Enterprise com uma governação MDM completa, o Claude Code v2.1.77 duplica o limite de geração para o Opus 4.6, e a GitHub, a Anthropic, a Google e a OpenAI unem-se para financiar a segurança open source no valor de 12,5 milhões de dólares.
GPT-5.4 mini e nano: os modelos compactos da OpenAI
17 de março — A OpenAI lança GPT-5.4 mini e GPT-5.4 nano, os seus modelos compactos mais eficientes até à data. Estas duas variantes trazem as capacidades do GPT-5.4 para formatos otimizados para cargas de trabalho de grande volume, com latência reduzida e custo mais baixo.
GPT-5.4 mini melhora significativamente o GPT-5 mini em código, raciocínio, compreensão multimodal e utilização de ferramentas, ao mesmo tempo que funciona mais de duas vezes mais rápido. Aproxima-se do desempenho do modelo completo GPT-5.4 em várias avaliações-chave, incluindo SWE-Bench Pro e OSWorld-Verified.
GPT-5.4 nano é a versão mais pequena e menos dispendiosa da família GPT-5.4, concebida para tarefas em que a rapidez e o custo são prioritários: classificação, extração de dados, ranking e subagentes de código simples.
| Avaliação | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (public) | 57,7 % | 54,4 % | 52,4 % | 45,7 % |
| Terminal-Bench 2.0 | 75,1 % | 60,0 % | 46,3 % | 38,2 % |
| Toolathlon | 54,6 % | 42,9 % | 35,5 % | 26,9 % |
| GPQA Diamond | 93,0 % | 88,0 % | 82,8 % | 81,6 % |
| OSWorld-Verified | 75,0 % | 72,1 % | 39,0 % | 42,0 % |
Os casos de uso dividem-se em três registos: os assistentes de código (GPT-5.4 mini destaca-se em workflows de codificação rápida, loops de depuração, geração frontend), os subagentes (no Codex, o GPT-5.4 pode delegar subtarefas ao GPT-5.4 mini usando apenas 30 % do quota GPT-5.4) e o controlo de interface (computer use), onde o GPT-5.4 mini interpreta rapidamente capturas de ecrã de interfaces densas.
| Modelo | Disponibilidade | Preço de entrada | Preço de saída | Contexto |
|---|---|---|---|---|
| GPT-5.4 mini | API, Codex, ChatGPT Free/Go | 0,75 $/million tokens | 4,50 $/million tokens | 400 000 tokens |
| GPT-5.4 nano | Apenas API | 0,20 $/million tokens | 1,25 $/million tokens | — |
No ChatGPT, o GPT-5.4 mini está acessível aos utilizadores Free e Go através da funcionalidade “Thinking” no menu +. Nos planos pagos, serve como modelo de recurso em caso de limite de débito do GPT-5.4 Thinking.
🔗 Apresentando o GPT-5.4 mini e nano
NVIDIA GTC 2026: a Nemotron Coalition e o Dynamo 1.0
A conferência GTC da NVIDIA, que decorreu a partir de 16 de março, foi o catalisador de vários anúncios importantes do setor: formação de uma coligação aberta em torno de modelos frontier open source, lançamento em produção de um sistema operativo de inferência e anúncio de um blueprint de dados para IA física.
Mistral junta-se à NVIDIA Nemotron Coalition
16 de março — A Mistral AI anuncia uma parceria estratégica com a NVIDIA para co-desenvolver modelos de IA frontier open source. A Mistral torna-se membro fundador da NVIDIA Nemotron Coalition, combinando a sua arquitetura frontier com a infraestrutura de computação da NVIDIA e as suas ferramentas de desenvolvimento.
| Aspeto | Detalhe |
|---|---|
| Papel da Mistral | Membro fundador, arquitetura frontier + oferta full-stack IA |
| Contribuição NVIDIA | Infraestrutura GPU + ferramentas de desenvolvimento |
| Objetivo | Co-desenvolver modelos abertos de nível frontier |
A Perplexity também se junta à coalizão
16 de março — A Perplexity anuncia a sua adesão à mesma NVIDIA Nemotron Coalition. Pontos-chave: a Perplexity afina diferentes modelos abertos para cada etapa do seu pipeline de resposta (análise de consulta, raciocínio, resposta final). O modelo Nemotron 3 Super (120 mil milhões de parâmetros, arquitetura MoE) está agora disponível na barra de pesquisa da Perplexity, na Agent API e no Perplexity Computer.
🔗 Blog da Perplexity – Nemotron Coalition 🔗 Anúncio da NVIDIA
Dynamo 1.0: o sistema operativo de inferência entra em produção
16 de março — A NVIDIA anuncia no GTC a entrada em produção do Dynamo 1.0, apresentado como o “sistema operativo de inferência” (inference operating system) para as fábricas de IA (AI factories). O Dynamo impulsiona o desempenho de inferência nos GPU Blackwell até 7x em comparação com implementações não otimizadas. A passagem para a v1.0 marca a sua transição da fase experimental para a produção industrial.
🔗 Anúncio da NVIDIA Dynamo 1.0
Physical AI Data Factory Blueprint
16 de março — A NVIDIA revela o Physical AI Data Factory Blueprint: uma arquitetura de referência para transformar computação acelerada em dados de treino de alta qualidade destinados à robótica, a agentes de visão IA e a veículos autónomos. Este blueprint permite às empresas gerar sinteticamente dados de treino para IA física em grande escala.
🔗 Anúncio da NVIDIA Physical AI
Cohere + NVIDIA: IA soberana no DGX Spark
16 de março — A Cohere e a NVIDIA associam-se para desenvolver uma IA soberana, segura e eficiente, também anunciada no GTC. Dois eixos principais: modelos NVIDIA ecosystem-native (modelos personalizados otimizados para a mais recente arquitetura NVIDIA, destinados a workloads enterprise especializados) e North no DGX Spark (a plataforma agentic North da Cohere estará disponível no NVIDIA DGX Spark, localmente e com baixa latência para dados sensíveis). Os setores-alvo são finanças, saúde e setor público.
🔗 Blog da Cohere – IA soberana NVIDIA
Perplexity Comet Enterprise: governação MDM e integração CrowdStrike
17 de março — A Perplexity lança Comet Enterprise para todos os assinantes Enterprise. O navegador IA passa para a versão enterprise com uma governação de implementação completa.
| Funcionalidade | Descrição |
|---|---|
| Implementação MDM | Instalador silencioso, implementação em milhares de máquinas, logs de auditoria |
| Telemetria granular | Seguimento por utilizador |
| CrowdStrike Falcon | Proteção anti-phishing, deteção de exfiltração (capturas de ecrã, downloads) |
| Intervenção em tempo real | Possível através da integração CrowdStrike |
| Privacidade | A Perplexity nunca treina os seus modelos com dados enterprise |
Entre os primeiros utilizadores: empresas da Fortune, AWS, AlixPartners, Gunderson Dettmer e Bessemer Venture Partners. Os casos de uso documentados incluem preparação de reuniões com clientes (notícias em tempo real), análise de contratos SOW, cálculos financeiros e pesquisa setorial.
🔗 Blog da Perplexity – Comet Enterprise
Claude Code v2.1.77: 64k tokens por defeito para o Opus 4.6
17 de março — Claude Code v2.1.77 é lançado com um aumento significativo dos limites de geração e várias correções de bugs críticos.
| Modelo | Limite por defeito | Limite máximo |
|---|---|---|
| Claude Opus 4.6 | 64 000 tokens | 128 000 tokens |
| Claude Sonnet 4.6 | — | 128 000 tokens |
O limite por defeito para o Opus 4.6 duplica (de 32k para 64k tokens), permitindo respostas muito mais longas sem configuração adicional.
Novas funcionalidades:
allowReadnas sandboxes: novo parâmetro de configuração filesystem que permite readicionar a leitura em áreas abrangidas por uma regradenyRead. Útil para configurações de segurança granulares./copy N: o comando/copyaceita agora um índice opcional —/copy 2copia a segunda resposta anterior do assistente sem navegar no histórico.
Correções notáveis:
- “Always Allow” em comandos bash compostos: a regra era guardada para a cadeia completa (
cd src && npm test) em vez de por subcomando. Corrigido. - Auto-updater: iniciava downloads paralelos em aberturas e fechamentos repetidos da janela, podendo acumular dezenas de gigabytes em memória. Corrigido.
--resumea truncar o histórico: uma condition de race (race condition) entre as escritas de extração de memória e o transcript principal podia causar truncagem silenciosa. Corrigido.- Hooks
PreToolUsea contornar regrasdeny: um hook que devolvia"allow"contornava as regras de permissãodeny, incluindo definições geridas pela empresa. Correção de segurança importante.
Artigo técnico: como a equipa Claude Code utiliza os Skills
17 de março — Thariq (@trq212), engenheiro da equipa Claude Code na Anthropic, publica “Lessons from Building Claude Code: How We Use Skills”, segundo artigo da série após “Seeing like an Agent” (27 de fevereiro, 3,6 milhões de visualizações).
O artigo documenta como os Skills se tornaram um dos pontos de extensão mais utilizados do Claude Code — flexíveis, fáceis de manter e permitindo às equipas definir workflows reutilizáveis diretamente no seu ambiente de desenvolvimento. Boris Cherny (@bcherny), responsável pelo Claude Code, partilhou o artigo descrevendo-o como “Really great writeup”. O autor anuncia também a próxima publicação de um skill iMessage open source como exemplo concreto.
“Using Skills well is a skill issue. I didn’t quite realize how much until I wrote this.”
🇵🇹 Usar bem os Skills é uma questão de competência. Não me tinha apercebido de quão grande é isso até escrever este artigo. — @trq212 no X
Codex Security: porque não há relatório SAST
16 de março — A OpenAI publica um artigo técnico a explicar a decisão de design por trás do Codex Security: porque é que o sistema não se baseia na análise estática (SAST) como ponto de partida.
A abordagem assenta em quatro pilares: a leitura contextual (analisar o caminho de código completo com o contexto do repositório), o micro-fuzzing direcionado (reduzir ao menor fragmento testável para escrever micro-fuzzers), o raciocínio sobre restrições (usar um ambiente Python com z3-solver para formalizar problemas complexos) e a validação em sandbox (distinguir “isto pode ser um problema” de “isto é um problema” com um PoC compilado). O artigo ilustra estes princípios com CVE-2024-29041 (Express), um redirecionamento aberto em que URLs malformados contornavam implementações de allowlist.
🔗 Porque o Codex Security não inclui um relatório SAST
Gemini Personal Intelligence: expansão gratuita nos Estados Unidos
17 de março — A Google expande Personal Intelligence para mais utilizadores gratuitamente nos Estados Unidos. Esta funcionalidade, até agora reservada a assinantes pagos, está agora acessível a contas gratuitas (free-tier) através de três superfícies: AI Mode na Google Search, a aplicação Gemini (iOS/Android) e a extensão Gemini in Chrome.
A Personal Intelligence liga de forma segura as aplicações Google do utilizador (Gmail, Google Photos, YouTube, Search) para fornecer respostas personalizadas. Exemplos: recomendações de compras adaptadas a compras anteriores, assistência técnica direcionada para o dispositivo exato comprado (extraído dos recibos do Gmail), itinerários de viagem personalizados baseados nas confirmações de hotel. O utilizador escolhe que aplicações ligar e pode desativar a qualquer momento. Disponível apenas para contas Google pessoais (não Workspace enterprise/educação).
🔗 Blog da Google – Personal Intelligence
AlphaFold Database: milhões de novas estruturas de complexos proteicos
17 de março — A Google DeepMind anuncia a expansão da base de dados AlphaFold Database (AFDB) com milhões de novas estruturas de complexos proteicos preditas por IA, em colaboração com o EMBL-EBI (Instituto Europeu de Bioinformática), a NVIDIA e a Universidade Nacional de Seul. As novas estruturas cobrem nomeadamente os patogénios bacterianos prioritários da OMS — as bactérias mais perigosas e resistentes aos antibióticos. Esta expansão passa do nível das proteínas individuais para os complexos proteicos (interações entre várias proteínas), um salto qualitativo para a investigação médica e farmacêutica.
🔗 Anúncio de Pushmeet Kohli no X
xAI: API Text-to-Speech de Grok e primeiro lugar em edição de vídeo
API Text-to-Speech
16 de março — A xAI anuncia a disponibilidade da API Text-to-Speech de Grok, oferecendo vozes naturais e expressivas para developers. A LiveKit integrou esta TTS no LiveKit Inference desde o lançamento.
Grok Imagine #1 em edição de vídeo
15 de março — O Grok Imagine alcança o primeiro lugar em edição de vídeo no ranking Design Arena, com um Elo de 1290. A API Imagine está agora acessível aos desenvolvedores. A funcionalidade cobre a adição, a remoção e a troca de objetos em cenas de vídeo.
Perplexity Computer : controlo total de Comet e Android
Controlo do Computer sobre o Comet sem MCP
16 de março — O Computer pode agora assumir o controlo total do navegador Comet para executar tarefas autónomas: o agente do navegador pode aceder a qualquer site ou aplicação conectada, sem conectores nem MCP. Disponível para todos os utilizadores do Computer no Comet.
Computer no Android
16 de março — O Perplexity Computer já está disponível no Android, expandindo o lançamento no iOS de 13 de março para todas as plataformas móveis.
Manus : desktop local e Google Workspace ao nível de developer
Manus “My Computer” no macOS e Windows
16 de março — A Manus anuncia “My Computer”, funcionalidade central da nova aplicação Manus Desktop (macOS e Windows). Até aqui limitado a uma sandbox cloud, o Manus pode agora ser executado diretamente na máquina local através de instruções em linha de comando num terminal local — com aprovação explícita do utilizador em cada etapa.
Os casos de uso cobrem um amplo espectro: organizar e renomear milhares de ficheiros, criar aplicações de desktop nativas (exemplo citado: uma aplicação Mac de tradução e legendagem em tempo real criada em 20 minutos, sem abrir o Xcode), ou usar o GPU local para treinar modelos de machine learning. My Computer complementa os Connectors cloud existentes (Google Calendar, Gmail) em vez de os substituir.
🔗 Tweet Manus · 🔗 Blog Manus
Manus domina o Google Workspace com precisão
17 de março — A Manus lança uma atualização importante do seu conector Google Workspace, baseada no Google Workspace CLI (ferramenta open source da equipa da Google). A versão antiga tratava os ficheiros Google como blocos monolíticos; a nova versão permite ações granulares:
| Domínio | Novas capacidades |
|---|---|
| Google Docs | Substituições de texto cirúrgicas, respostas a comentários específicos |
| Google Sheets | Leitura cruzada de várias folhas, atualização de uma célula específica, duplicação de separadores |
| Google Slides | Edição de apresentações existentes (título de um slide, atualização de cronologia) |
| Google Drive | Reorganização de pastas |
A atualização é gratuita e retrocompatível.
🔗 Tweet Manus · 🔗 Blog Manus
GitHub : /fleet para manutenção em massa e 12,5 M$ para o open source
Copilot /fleet : manutenção em toda a frota de repositórios
15 de março — A GitHub demonstra o comando /fleet no GitHub Copilot. Com uma única instrução, os developers que gerem vários repositórios podem delegar as tarefas repetitivas de manutenção (atualizações de configuração, correções de dependências) ao agente em toda a sua frota, em vez de repositório a repositório.
12,5 M$ para a segurança open source
17 de março — GitHub, Anthropic, AWS, Google e OpenAI unem-se num compromisso coletivo de 12,5 milhões de dólares em apoio ao Alpha-Omega, o programa da Linux Foundation dedicado a reforçar a segurança do ecossistema open source.
Pontos-chave do lado da GitHub: 280 000+ maintainers em centenas de milhões de repositórios públicos serão elegíveis para acesso gratuito ao GitHub Copilot Pro. A GitHub também injeta 5,5 M$ em créditos Azure para formação. O GitHub Secure Open Source Fund, que já apoiou 138 projetos, abre a sua quarta sessão no final de abril de 2026.
O contexto é significativo: a IA acelerou consideravelmente a descoberta de vulnerabilidades, o que aumenta a carga sobre os maintainers. O objetivo declarado é que a IA reduza essa carga em vez de a aumentar.
🔗 Artigo GitHub Blog 🔗 Anúncio da Linux Foundation
Z.ai GLM-5-Turbo : alta velocidade para ambientes de agents
15 de março — A Z.ai lança GLM-5-Turbo, uma variante de alta velocidade do GLM-5 otimizada para ambientes de agents (nomeadamente OpenClaw). No mesmo dia, os limites de utilização são triplicados para os subscritores do GLM Coding Plan. Disponível na OpenRouter e através da API direta.
Kimi publica um paper sobre os Attention Residuals
16-17 de março — A Moonshot AI publica um paper de investigação sobre os Attention Residuals no arXiv: uma nova abordagem de agregação em profundidade que substitui as ligações residuais standard por uma recorrência inspirada na dualidade tempo/profundidade (depth-wise aggregation). A análise mostra que esta abordagem atenua naturalmente os problemas de crescimento de magnitude dos estados ocultos. Elon Musk respondeu “Impressive work from Kimi” no tweet de anúncio (4,5 milhões de visualizações).
🔗 Tweet Kimi · 🔗 arXiv 2603.15031
ElevenLabs × Deloitte : agents omnicanal para a empresa
14 de março — A ElevenLabs e a Deloitte anunciam uma parceria estratégica que combina a plataforma ElevenLabs Agents com a experiência setorial da Deloitte, para ajudar grandes empresas a implementar agents conversacionais omnicanal. A parceria visa empresas reguladas (finanças, saúde, serviços públicos). A Deloitte traz a integração de negócio, a ElevenLabs fornece a infraestrutura de áudio IA (voz, transcrição, agents).
Breves
Tongyi Fun-CineForge (Alibaba, 16 de março) — A Tongyi Lab open-source Fun-CineForge, um sistema de dobragem cinematográfica IA que se aproxima da qualidade do cinema profissional. Disponível no GitHub, HuggingFace e ModelScope. 🔗 Anúncio no X
O que isso significa
A NVIDIA GTC 2026 cristaliza uma dinâmica importante: vários labs de IA de primeira linha (Mistral, Perplexity, Cohere) alinham-se em torno da infraestrutura NVIDIA para co-desenvolver modelos frontier abertos ou implementações soberanas. Esta convergência em torno de uma coligação aberta contrasta com o período recente de fragmentação — e sinaliza que o pretraining em grande escala se tornou demasiado caro para ser tratado em silo.
GPT-5.4 mini confirma uma tendência forte: os modelos de “pequeno formato” já não são versões degradadas, mas alternativas competitivas. Com 54,4 % no SWE-Bench Pro contra 57,7 % para o modelo completo, e um custo 19x inferior, GPT-5.4 mini redefine a relação desempenho/preço para os workflows de coding.
O dia 17 de março ilustra também a ascensão dos agents locais e de desktop: Manus “My Computer” sai da cloud para aceder à máquina local, o Perplexity Computer toma o controlo do Comet sem MCP, e o Claude Code duplica a sua janela de geração por defeito para o Opus 4.6. A era do agent que se limita a sugerir dá lugar à do agent que executa.
Fontes
- Introducing GPT-5.4 mini and nano – OpenAI
- Why Codex Security Doesn’t Include a SAST Report – OpenAI
- Mistral × NVIDIA – anúncio no X
- Perplexity junta-se à NVIDIA Nemotron Coalition
- NVIDIA Nemotron Coalition
- NVIDIA Dynamo 1.0 – X
- NVIDIA Physical AI Data Factory Blueprint – X
- Cohere + NVIDIA IA soberana
- Perplexity Comet Enterprise
- CHANGELOG Claude Code v2.1.77
- Thariq – artigo Skills
- Google Personal Intelligence expansion
- AlphaFold Database expansion – X
- xAI TTS API – X
- Grok Imagine #1 Design Arena – X
- Perplexity Computer controlo Comet – X
- Perplexity Computer Android – X
- Manus My Computer
- Manus Google Workspace CLI
- GitHub Copilot /fleet – X
- GitHub + Alpha-Omega 12,5 M$
- Linux Foundation – fundo de segurança open source
- Z.ai GLM-5-Turbo – X
- Kimi Attention Residuals – X
- Kimi Attention Residuals – arXiv
- ElevenLabs × Deloitte
- Tongyi Fun-CineForge – X
Este documento foi traduzido da versão fr para o idioma pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator