ai-powered-markdown-translatorArtigo traduzido do fr para o pt com gpt-5.4-mini.
Semana agitada: a OpenAI coloca o GPT-5.5 Instant como substituto direto do GPT-5.3 para todos os utilizadores do ChatGPT, a xAI lança o Grok 4.3 na sua API com um contexto de um milhão de tokens, e a Anthropic anuncia uma nova empresa de serviços de IA enterprise cofundada com Blackstone, Hellman & Friedman e Goldman Sachs. Do lado das ferramentas, a GitHub triplica os GA/previews de segurança através do seu servidor MCP, a Perplexity lança um produto dedicado às equipas financeiras, e a Runway apresenta agentes de vídeo em tempo real gerados a partir de uma única imagem.
GPT-5.5 Instant — novo modelo padrão do ChatGPT
5 de maio — A OpenAI substitui o GPT-5.3 Instant pelo GPT-5.5 Instant como modelo padrão do ChatGPT para todos os utilizadores. A implementação decorre ao longo de dois dias.
| Dimensão | Melhoria vs GPT-5.3 Instant |
|---|---|
| Alucinações (medicina, direito, finanças) | -52,5 % |
| Alegações incorretas (sinalizadas pelos utilizadores) | -37,3 % |
| Verbosidade das respostas | -30,2 % de palavras em média |
O modelo também melhora a análise de imagens, as respostas STEM e a decisão de usar a pesquisa web. As respostas são mais concisas sem perda de substância, com menos formatação supérflua e menos perguntas de seguimento desnecessárias.
Memory sources — A OpenAI introduz as “memory sources” em todos os modelos ChatGPT: quando uma resposta é personalizada a partir de memórias guardadas, conversas passadas ou Gmail ligado, o utilizador vê exatamente que fontes foram usadas e pode corrigi-las ou eliminá-las. A personalização a partir de conversas passadas e ficheiros fica, numa primeira fase, reservada aos subscritores Plus e Pro (web); os restantes planos seguirão.
Disponibilidade:
- Implementação gradual ao longo de 2 dias para todos os utilizadores do ChatGPT
- Disponível na API sob o alias
chat-latest - O GPT-5.3 Instant continua acessível por 3 meses para os subscritores pagos
🔗 Anúncio oficial GPT-5.5 Instant
Grok 4.3 lançado na API da xAI — contexto de 1M de tokens, #1 em agentic tool calling
5 de maio — A xAI anuncia via X o lançamento do Grok 4.3 na API da xAI (console.x.ai). O modelo é apresentado como o mais rápido e o mais inteligente da gama até à data.
| Característica | Valor |
|---|---|
| Janela de contexto | 1 milhão de tokens |
| Benchmark agentic tool calling | #1 (@ArtificialAnlys leaderboard) |
| Benchmark instruction following | #1 (@ArtificialAnlys leaderboard) |
| Domínios enterprise | #1 case law e corporate finance (@ValsAI) |
| Disponibilidade | API da xAI (console.x.ai) — ainda não em grok.com |
Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.
🇵🇹 O Grok 4.3 já está disponível na API da xAI. Trata-se do nosso modelo mais rápido e mais inteligente até à data. Lidera os rankings @ArtificialAnlys em agentic tool calling e instruction following, e classifica-se em #1 na @ValsAI em domínios enterprise como direito empresarial e finanças corporativas. O Grok 4.3 suporta um contexto de um milhão de tokens. — @xai no X
O tweet gerou 25,7 milhões de visualizações e 6 029 gostos. Nota: não existia nenhuma página dedicada em x.ai/news no momento do anúncio — o lançamento passou exclusivamente pelo X.
Anthropic e Blackstone, Hellman & Friedman, Goldman Sachs — nova empresa de serviços IA enterprise
4 de maio — A Anthropic, Blackstone, Hellman & Friedman e Goldman Sachs anunciam a criação de uma nova empresa de serviços de IA enterprise, apoiada por um consórcio adicional de investidores alternativos.
O objetivo: implementar o Claude nas operações principais das grandes empresas para tarefas que exigem engenharia intensiva e conhecimento setorial aprofundado. Segundo a Anthropic, a procura enterprise pelo Claude ultrapassa o que um modelo de distribuição único consegue absorver.
O modelo operacional típico começa com uma pequena equipa que trabalha em estreita colaboração com o cliente para identificar os pontos de atrito e, depois, constrói agentes Claude adaptados ao negócio. O exemplo concreto dado: uma rede de clínicas médicas multisite em que o Claude trata da documentação clínica, das tarefas administrativas repetitivas e da coordenação entre especialidades, permitindo aos clínicos concentrarem-se nos cuidados aos pacientes.
A nova empresa juntará-se à Claude Partner Network, ao lado de Accenture, Deloitte e PwC. Representa um passo estrutural na estratégia de distribuição enterprise da Anthropic: em vez de vender apenas licenças de API, a empresa passa agora a envolver-se em implementações operacionais complexas com parceiros financeiros de primeiro plano.
Agentes Claude para serviços financeiros e seguros
5 de maio — A Anthropic lança dez templates de agentes prontos a usar (ready-to-run) para serviços financeiros e seguros. Disponíveis como plugins no Claude Cowork ou Claude Code, ou como Claude Managed Agents autónomos na plataforma Claude.
Pesquisa e cobertura de clientes:
| Agent | Função |
|---|---|
| Pitch builder | Listas-alvo, comparáveis, pitchbooks |
| Meeting preparer | Briefs de clientes e contrapartes |
| Earnings reviewer | Leitura de transcrições e atualizações de modelos |
| Model builder | Criação de modelos financeiros a partir de filings e dados |
| Market researcher | Monitorização setorial e síntese de notícias |
Finanças e operações:
| Agent | Função |
|---|---|
| Valuation reviewer | Verificação de avaliações |
| General ledger reconciler | Reconciliação contabilística e cálculos VNI |
| Month-end closer | Fecho mensal e lançamentos contabilísticos |
| Statement auditor | Revisão das demonstrações financeiras |
| KYC screener | Montagem de dossiês de entidade e filtragem de conformidade |
O Claude integra-se agora no Microsoft Excel, PowerPoint, Word e Outlook (em curso) através de complementos (add-ins). A funcionalidade Dispatch do Claude Cowork permite atribuir tarefas por texto ou voz a partir de qualquer lugar.
Novos conectores de dados: Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk, e um MCP Moody’s (ratings e dados sobre mais de 6 000 entidades).
Entre os clientes citados: Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % dos funcionários usam o Claude Code), Hg, Morningstar, FactSet. Estes agentes são otimizados para o Claude Opus 4.7, classificado em #1 no benchmark Vals AI Finance Agent.
Perplexity Computer for Professional Finance
5 de maio — A Perplexity lança Computer para finanças profissionais, uma versão do Computer concebida especificamente para equipas de análise e investimento: analistas buy-side e sell-side, fundos hedge, private equity.
| Dimensão | Valor |
|---|---|
| Workflows incluídos | 35 (10 segmentos) |
| Fornecedores de dados integrados | 14 (incluindo Quartr, Fiscal) |
| Conectores MCP premium | Morningstar, PitchBook, Daloopa, Carbon Arc |
| Plataformas disponíveis | Microsoft Teams, Agent API |
| Em breve | Excel add-in |
| Benchmark FinSearchComp T1 | 1.º (precisão, custo, latência) |
As equipas com subscrições licenciadas podem ligar os seus próprios credenciais através de conectores MCP para aceder a Morningstar, PitchBook, Daloopa e Carbon Arc. As restantes acedem às ferramentas financeiras integradas suportadas por 14 fornecedores de dados.
Cada valor numérico remete para a sua fonte: para os valores vindos de documentos SEC, o Computer mostra o cálculo e aponta para as páginas exatas do documento. No benchmark FinSearchComp T1 (extração de dados sensíveis ao tempo), a Perplexity fica em primeiro lugar em precisão, custo por resposta correta e latência — incluindo cotações em tempo real, preços de cripto e taxas de câmbio.
🔗 Blog da Perplexity — Computer for Professional Finance
Runway Characters — agente de vídeo em tempo real a partir de uma única imagem
4 de maio — A Runway anuncia Characters, uma tecnologia que permite transformar uma única imagem num agente de vídeo conversacional em tempo real.
| Métrica | Valor |
|---|---|
| Latência ponta a ponta | 1,75 segundos |
| Qualidade de vídeo | 24 fps HD |
| Imagem de origem necessária | 1 única imagem |
| Arranques a frio | 60× mais rápidos (GPU peer-to-peer) |
O atraso de 1,75 segundos mede-se desde o momento em que o utilizador deixa de falar até à primeira resposta da personagem. A Runway publicou simultaneamente dois artigos de engenharia: o primeiro descreve a arquitetura do agente de vídeo em tempo real, o segundo explica como a infraestrutura GPU peer-to-peer (peer-to-peer) divide os tempos de arranque a frio por 60.
Os casos de uso visados incluem agentes conversacionais, personagens interativas em tempo real e interfaces de vídeo para aplicações. A tecnologia marca uma passagem da renderização de vídeo offline para uma interação síncrona.
🔗 Tweet de anúncio do Runway Characters
GitHub MCP Server — Tripla evolução de segurança
5 de maio — A GitHub publica simultaneamente três atualizações de segurança para o seu servidor MCP, todas efetuadas no mesmo dia.
Secret scanning GA
O secret scanning via GitHub MCP Server passa para disponibilidade geral (saída de preview desde março de 2026). No GitHub Copilot CLI, a instalação faz-se com /plugin install advanced-security@copilot-plugins; no VS Code, o plugin advanced-security expõe o comando /secret-scanning.
| Aspeto | Detalhe |
|---|---|
| Estado | GA (disponibilidade geral) |
| Disponibilidade | Repositórios com GitHub Secret Protection ativado |
| Integrações | Copilot CLI, VS Code, qualquer IDE compatível com MCP |
As ferramentas MCP respeitam agora as personalizações de push protection existentes — o comportamento de bypass é coerente com a configuração do repositório ou da organização.
🔗 Changelog — Secret scanning GA
Dependency scanning em pré-visualização pública
A deteção de vulnerabilidades em dependências via MCP Server passa para pré-visualização pública. O sistema consulta a GitHub Advisory Database e devolve resultados estruturados com pacotes afetados, gravidade e versões corrigidas recomendadas.
| Aspeto | Detalhe |
|---|---|
| Estado | Pré-visualização pública |
| Disponibilidade | Repositórios com Dependabot alerts ativado |
| Ativação CLI | copilot --add-github-mcp-toolset dependabot |
🔗 Changelog — Dependency scanning
GitHub Advanced Security × Microsoft Defender for Cloud GA
A integração GitHub Advanced Security × Microsoft Defender for Cloud também passa para GA. Ela correlaciona as imagens de contentor implementadas em ambiente cloud com o código-fonte GitHub, trazendo contexto de runtime para as vistas de segurança.
Novos filtros disponíveis na vista da organização: has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. As campanhas de segurança podem ser atribuídas diretamente ao agente de programação GitHub Copilot.
🔗 Changelog — Code-to-cloud GA
Model Spec Midtraining (MSM) — alinhamento agentic reduzido de 68 % para 5 %
5 de maio — Investigadores da Anthropic publicam “Model Spec Midtraining” (MSM), um método de alinhamento intercalado entre o pré-treinamento e o fine-tuning de alinhamento (alignment fine-tuning, AFT).
O princípio: os modelos são treinados num corpus sintético de documentos que discutem o conteúdo da sua Model Spec antes de aprenderem a seguir as regras. A ideia é que compreender por que existe uma regra melhora a robustez da sua aplicação.
| Modelo | Desalinhamento (AFT apenas) | Com MSM + AFT |
|---|---|---|
| Qwen2.5-32B | 68 % | 5 % |
| Qwen3-32B | 54 % | 7 % |
O MSM também torna o AFT muito mais eficiente em dados: 40 a 60 vezes menos dados AFT são necessários para atingir desempenhos comparáveis. Os autores mostram ainda que explicar as motivações por detrás das regras (em vez de multiplicar sub-regras) melhora a generalização fora de distribuição.
🔗 Artigo MSM — alignment.anthropic.com
NotebookLM Mind Maps — personalização, organização, navegação
5 de maio — O NotebookLM melhora os seus mapas mentais (Mind Maps) com três funcionalidades lançadas em simultâneo.
| Funcionalidade | Descrição |
|---|---|
| Personalização | Guiar o mapa com instruções específicas do utilizador |
| Organização | Renomear e partilhar os mapas Mind Map instantaneamente |
| Navegação | Transições suaves entre os nós |
A implementação é gradual para todos os utilizadores. A atualização completa a série de melhorias rápidas do NotebookLM desde o início de abril: organização automática das fontes (24 de abril, 100 % de implementação atingido a 5 de maio), integração na aplicação Gemini para dispositivos móveis (30 de abril).
Genspark sb-git — servidor Git reescrito para agentes de IA
5 de maio — A Genspark lança sb-git, um servidor Git reescrito de raiz para agentes de IA. Semântica Git completa: versionamento, branches, diff, blame, rollback e push.
| Aspeto | Detalhe |
|---|---|
| CLI | gsk (init, clone-url, cat, commit) |
| Compatibilidade | Claude Code, OpenClaw, qualquer agente Git |
| Armazenamento | 1 GB (gratuito), 10 GB (Plus/Pro) |
| Conta necessária | Não — não é necessária nenhuma conta GitHub |
| Disponibilidade | Imediata (web + mobile) |
Não é necessária qualquer conta GitHub, nem configuração prévia de repositório. A ênfase está na compatibilidade com os agentes de IA comuns (Claude Code, OpenClaw) sem fricção de instalação.
NVIDIA + ServiceNow — Project Arc, agente desktop autónomo long-running
5 de maio — Na conferência ServiceNow Knowledge 2026, Jensen Huang e Bill McDermott anunciaram a expansão da sua parceria em torno de agentes de IA autónomos em ambiente empresarial.
A ServiceNow lança Project Arc, um agente desktop autónomo long-running concebido para trabalhadores do conhecimento: programadores, equipas IT, administradores. O agente usa NVIDIA OpenShell (sandbox open source) para governação e segurança, e liga-se nativamente à plataforma ServiceNow através do ServiceNow Action Fabric.
| Métrica | Valor |
|---|---|
| Eficiência Blackwell vs Hopper | 50× tokens/watt |
| Redução do custo por milhão de tokens | ~35× |
| Nemotron 3 Super (open source) | #1 EnterpriseOps-Gym (NOWAI-Bench) |
| Tickets resolvidos autonomamente | 90 % (ServiceNow + Apriel/Nemotron) |
NVIDIA NemoClaw + OpenClaw — agente persistente open source superando o React no GitHub
30 de abril — OpenClaw (criado por Peter Steinberger) ultrapassou 250.000 estrelas no GitHub em 60 dias, superando o React para se tornar o projeto mais estrelado da plataforma. A NVIDIA colabora com a comunidade para proteger este projeto de agente de IA auto-hospedado e persistente.
A NVIDIA lança NemoClaw, uma implementação de referência instalável em um único comando, combinando OpenClaw + NVIDIA OpenShell + Nemotron com configurações de segurança reforçadas por padrão.
| Métrica | Valor |
|---|---|
| Estrelas no GitHub de OpenClaw | 250.000+ (março de 2026) |
| Crescimento | Projeto #1 no GitHub em 60 dias (supera o React) |
| Multiplicador de inferência de agentes vs IA de raciocínio | 1.000× |
| Instalação do NemoClaw | 1 único comando |
🔗 Blog da NVIDIA — OpenClaw/NemoClaw
Luma AI Uni-1.1 API — geração de imagens raciocinando sobre briefs criativos
5 de maio — A Luma AI lança a API Uni-1.1, um modelo de geração de imagens projetado para raciocinar sobre briefs criativos em vez de tokens. Ao contrário das APIs tradicionais que exigem prompt engineering, a Uni-1.1 compreende o contexto estético de cada tradição visual e produz resultados utilizáveis já na primeira tentativa.
Casos de uso citados: ferramentas de moda, renderizações de arquitetura, pipelines de manga, conteúdo cinematográfico. Nenhum middleware é necessário. A API está disponível em lumalabs.ai/api.
ChatGPT Ads Manager self-serve e CPC bidding
5 de maio — A OpenAI amplia seu programa publicitário com duas novidades: uma ferramenta self-serve (Ads Manager, em beta nos Estados Unidos) e o lançamento do modo de lances CPC (custo por clique).
| Modo | Status | Descrição |
|---|---|---|
| CPM (custo por mil impressões) | Existente | Disponível desde o lançamento do programa |
| CPC (custo por clique) | Novo | O anunciante paga apenas pelo clique efetivo |
| Ads Manager self-serve (beta) | Novo | Disponível para anunciantes dos EUA |
Parceiros de agências: Dentsu, Omnicom, Publicis, WPP. Parceiros de tecnologia: Adobe, Criteo, Kargo, Pacvue, StackAdapt. A OpenAI também lançou uma Conversions API e um rastreamento por pixel para medir as ações pós-clique sem expor as conversas individuais aos anunciantes.
🔗 Anúncio publicitário da OpenAI
Perplexity Premium Health Sources
5 de maio — A Perplexity lança as Fontes de saúde premium. Mais de uma consulta em cada dez na plataforma é sobre saúde. As fontes disponíveis no lançamento são NEJM, BMJ Journals e BMJ Best Practice — referências médicas normalmente reservadas a assinaturas institucionais.
No Computer, essas fontes são ativadas automaticamente para perguntas sobre saúde sem seleção manual. Cada resposta inclui citações rastreáveis. Fontes que virão em seguida: Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.
🔗 Blog da Perplexity — Premium Health Sources
Breves
-
Manus — Recomendação automática de conectores — O Manus agora detecta qual conector (Slack, Notion, Gmail, Google Drive) é necessário para concluir uma tarefa e o recomenda na conversa, sem sair do fio de discussão. A ativação continua sujeita à confirmação do usuário. 🔗 fonte
-
Black Forest Labs — FLUX Creator Program — A BFL abre um programa seletivo de criadores para acesso antecipado aos próximos modelos FLUX, com amplificação dos seus trabalhos pelos canais da BFL. 🔗 fonte
-
GPT-5.5 Instant System Card — Primeira System Card da linha Instant classificada como “High capability” nas categorias Cibersegurança e Biologia & Química do Preparedness Framework da OpenAI. Medidas de proteção reforçadas foram implementadas em consequência. 🔗 fonte
-
OpenAI — Arquitetura WebRTC relay+transceiver — A OpenAI publica um artigo de engenharia descrevendo a reformulação de sua infraestrutura WebRTC para voz em tempo real (ChatGPT Voice, Realtime API), atendendo mais de 900 milhões de usuários semanais. A arquitetura separa o roteamento de pacotes (relay leve, sem estado) da terminação do protocolo (transceiver, com estado), permitindo uma implantação Kubernetes padrão com uma pegada UDP pública reduzida. 🔗 fonte
O que isso significa
As finanças como campo de jogo prioritário da IA enterprise. Em um intervalo de 24 horas, Anthropic, Perplexity e xAI publicaram anúncios voltados explicitamente para equipes financeiras: dez templates de agentes Claude (avaliação, KYC, fechamento mensal), Computer for Professional Finance com 35 workflows e 14 fornecedores de dados, e Grok 4.3 classificado como #1 no benchmark Vals AI em corporate finance e case law. A convergência não é coincidência — as finanças combinam volume de documentos estruturados, exigência de precisão e tolerância a custos de ferramentas premium, o que as torna o terreno ideal para os primeiros deployments de agentes autônomos de alto valor de negócio.
A corrida pelos modelos padrão. O GPT-5.5 Instant reduz as alucinações em 52,5% em relação ao seu predecessor imediato, e o Grok 4.3 alcança o contexto de um milhão de tokens com desempenho agentic medido e publicado. Esses dois modelos são lançados no mesmo dia. O desafio não é mais apenas publicar os melhores benchmarks acadêmicos, mas ser o modelo carregado por padrão nas interfaces de consumo (ChatGPT) ou ativado primeiro nos pipelines de desenvolvedores (API xAI).
MCP como padrão de segurança para desenvolvedores. O GitHub publicou simultaneamente três atualizações de segurança por meio do seu servidor MCP (secret scanning GA, dependency scanning em prévia e code-to-cloud GA). Esse lançamento coordenado transforma o servidor MCP do GitHub em um canal nativo de integração de segurança para agentes de codificação — Copilot CLI, VS Code e qualquer IDE compatível com MCP agora podem escanear segredos e dependências vulneráveis antes de cada commit, diretamente no fluxo de trabalho do agente.
Agentes persistentes e infraestrutura em tempo real. Runway Characters (agente de vídeo com latência de 1,75 s a partir de uma imagem), Project Arc da ServiceNow (agente desktop de longa execução), OpenClaw/NemoClaw (250.000 estrelas no GitHub, 1.000× mais demanda de inferência do que IA de raciocínio) e Genspark sb-git (Git reescrito para agentes) sinalizam todos a mesma mudança: os agentes de IA estão saindo da era das requisições pontuais para entrar na dos processos persistentes, com necessidades de infraestrutura radicalmente diferentes — armazenamento de estado, latência em tempo real, versionamento nativo.
Fontes
- GPT-5.5 Instant — OpenAI
- GPT-5.5 Instant System Card
- ChatGPT Ads — OpenAI
- Arquitetura WebRTC da OpenAI
- Grok 4.3 — @xai no X
- Anthropic Finance Agents
- Anthropic Enterprise AI Services Company
- Model Spec Midtraining — Anthropic
- Perplexity Computer for Professional Finance
- Perplexity Premium Health Sources
- Runway Characters — @runwayml no X
- NVIDIA + ServiceNow Project Arc
- NVIDIA NemoClaw + OpenClaw
- Luma AI Uni-1.1 — @LumaLabsAI no X
- GitHub MCP Secret Scanning GA
- GitHub MCP Dependency Scanning
- GitHub + Microsoft Defender for Cloud GA
- Genspark sb-git — @genspark_ai no X
- NotebookLM Mind Maps — @NotebookLM no X
- Manus Recommended Connectors
- Black Forest Labs FLUX Creator Program — @bfl_ml no X