Pesquisar

GPT-5.5 Instant novo padrão do ChatGPT, Grok 4.3 na API da xAI, Anthropic x Blackstone enterprise

GPT-5.5 Instant novo padrão do ChatGPT, Grok 4.3 na API da xAI, Anthropic x Blackstone enterprise

ai-powered-markdown-translator

Artigo traduzido do fr para o pt com gpt-5.4-mini.

Ver o projeto no GitHub ↗

Semana agitada: a OpenAI coloca o GPT-5.5 Instant como substituto direto do GPT-5.3 para todos os utilizadores do ChatGPT, a xAI lança o Grok 4.3 na sua API com um contexto de um milhão de tokens, e a Anthropic anuncia uma nova empresa de serviços de IA enterprise cofundada com Blackstone, Hellman & Friedman e Goldman Sachs. Do lado das ferramentas, a GitHub triplica os GA/previews de segurança através do seu servidor MCP, a Perplexity lança um produto dedicado às equipas financeiras, e a Runway apresenta agentes de vídeo em tempo real gerados a partir de uma única imagem.


GPT-5.5 Instant — novo modelo padrão do ChatGPT

5 de maio — A OpenAI substitui o GPT-5.3 Instant pelo GPT-5.5 Instant como modelo padrão do ChatGPT para todos os utilizadores. A implementação decorre ao longo de dois dias.

DimensãoMelhoria vs GPT-5.3 Instant
Alucinações (medicina, direito, finanças)-52,5 %
Alegações incorretas (sinalizadas pelos utilizadores)-37,3 %
Verbosidade das respostas-30,2 % de palavras em média

O modelo também melhora a análise de imagens, as respostas STEM e a decisão de usar a pesquisa web. As respostas são mais concisas sem perda de substância, com menos formatação supérflua e menos perguntas de seguimento desnecessárias.

Memory sources — A OpenAI introduz as “memory sources” em todos os modelos ChatGPT: quando uma resposta é personalizada a partir de memórias guardadas, conversas passadas ou Gmail ligado, o utilizador vê exatamente que fontes foram usadas e pode corrigi-las ou eliminá-las. A personalização a partir de conversas passadas e ficheiros fica, numa primeira fase, reservada aos subscritores Plus e Pro (web); os restantes planos seguirão.

Disponibilidade:

  • Implementação gradual ao longo de 2 dias para todos os utilizadores do ChatGPT
  • Disponível na API sob o alias chat-latest
  • O GPT-5.3 Instant continua acessível por 3 meses para os subscritores pagos

🔗 Anúncio oficial GPT-5.5 Instant


Grok 4.3 lançado na API da xAI — contexto de 1M de tokens, #1 em agentic tool calling

5 de maio — A xAI anuncia via X o lançamento do Grok 4.3 na API da xAI (console.x.ai). O modelo é apresentado como o mais rápido e o mais inteligente da gama até à data.

CaracterísticaValor
Janela de contexto1 milhão de tokens
Benchmark agentic tool calling#1 (@ArtificialAnlys leaderboard)
Benchmark instruction following#1 (@ArtificialAnlys leaderboard)
Domínios enterprise#1 case law e corporate finance (@ValsAI)
DisponibilidadeAPI da xAI (console.x.ai) — ainda não em grok.com

Grok 4.3 is now live on the xAI API. It’s our fastest, most intelligent model to date. It tops the @ArtificialAnlys leaderboards in agentic tool calling and instruction following, and ranks #1 in @ValsAI enterprise domains like case law and corporate finance. Grok 4.3 supports a 1 million token context.

🇵🇹 O Grok 4.3 já está disponível na API da xAI. Trata-se do nosso modelo mais rápido e mais inteligente até à data. Lidera os rankings @ArtificialAnlys em agentic tool calling e instruction following, e classifica-se em #1 na @ValsAI em domínios enterprise como direito empresarial e finanças corporativas. O Grok 4.3 suporta um contexto de um milhão de tokens.@xai no X

O tweet gerou 25,7 milhões de visualizações e 6 029 gostos. Nota: não existia nenhuma página dedicada em x.ai/news no momento do anúncio — o lançamento passou exclusivamente pelo X.


Anthropic e Blackstone, Hellman & Friedman, Goldman Sachs — nova empresa de serviços IA enterprise

4 de maio — A Anthropic, Blackstone, Hellman & Friedman e Goldman Sachs anunciam a criação de uma nova empresa de serviços de IA enterprise, apoiada por um consórcio adicional de investidores alternativos.

O objetivo: implementar o Claude nas operações principais das grandes empresas para tarefas que exigem engenharia intensiva e conhecimento setorial aprofundado. Segundo a Anthropic, a procura enterprise pelo Claude ultrapassa o que um modelo de distribuição único consegue absorver.

O modelo operacional típico começa com uma pequena equipa que trabalha em estreita colaboração com o cliente para identificar os pontos de atrito e, depois, constrói agentes Claude adaptados ao negócio. O exemplo concreto dado: uma rede de clínicas médicas multisite em que o Claude trata da documentação clínica, das tarefas administrativas repetitivas e da coordenação entre especialidades, permitindo aos clínicos concentrarem-se nos cuidados aos pacientes.

A nova empresa juntará-se à Claude Partner Network, ao lado de Accenture, Deloitte e PwC. Representa um passo estrutural na estratégia de distribuição enterprise da Anthropic: em vez de vender apenas licenças de API, a empresa passa agora a envolver-se em implementações operacionais complexas com parceiros financeiros de primeiro plano.

🔗 Anúncio oficial


Agentes Claude para serviços financeiros e seguros

5 de maio — A Anthropic lança dez templates de agentes prontos a usar (ready-to-run) para serviços financeiros e seguros. Disponíveis como plugins no Claude Cowork ou Claude Code, ou como Claude Managed Agents autónomos na plataforma Claude.

Pesquisa e cobertura de clientes:

AgentFunção
Pitch builderListas-alvo, comparáveis, pitchbooks
Meeting preparerBriefs de clientes e contrapartes
Earnings reviewerLeitura de transcrições e atualizações de modelos
Model builderCriação de modelos financeiros a partir de filings e dados
Market researcherMonitorização setorial e síntese de notícias

Finanças e operações:

AgentFunção
Valuation reviewerVerificação de avaliações
General ledger reconcilerReconciliação contabilística e cálculos VNI
Month-end closerFecho mensal e lançamentos contabilísticos
Statement auditorRevisão das demonstrações financeiras
KYC screenerMontagem de dossiês de entidade e filtragem de conformidade

O Claude integra-se agora no Microsoft Excel, PowerPoint, Word e Outlook (em curso) através de complementos (add-ins). A funcionalidade Dispatch do Claude Cowork permite atribuir tarefas por texto ou voz a partir de qualquer lugar.

Novos conectores de dados: Dun & Bradstreet, Fiscal AI, Financial Modeling Prep, Guidepoint, IBISWorld, SS&C IntraLinks, Third Bridge, Verisk, e um MCP Moody’s (ratings e dados sobre mais de 6 000 entidades).

Entre os clientes citados: Citadel, FIS, BNY, Carlyle, Mizuho, Travelers, Walleye Capital (100 % dos funcionários usam o Claude Code), Hg, Morningstar, FactSet. Estes agentes são otimizados para o Claude Opus 4.7, classificado em #1 no benchmark Vals AI Finance Agent.

🔗 Anúncio oficial


Perplexity Computer for Professional Finance

5 de maio — A Perplexity lança Computer para finanças profissionais, uma versão do Computer concebida especificamente para equipas de análise e investimento: analistas buy-side e sell-side, fundos hedge, private equity.

DimensãoValor
Workflows incluídos35 (10 segmentos)
Fornecedores de dados integrados14 (incluindo Quartr, Fiscal)
Conectores MCP premiumMorningstar, PitchBook, Daloopa, Carbon Arc
Plataformas disponíveisMicrosoft Teams, Agent API
Em breveExcel add-in
Benchmark FinSearchComp T11.º (precisão, custo, latência)

As equipas com subscrições licenciadas podem ligar os seus próprios credenciais através de conectores MCP para aceder a Morningstar, PitchBook, Daloopa e Carbon Arc. As restantes acedem às ferramentas financeiras integradas suportadas por 14 fornecedores de dados.

Cada valor numérico remete para a sua fonte: para os valores vindos de documentos SEC, o Computer mostra o cálculo e aponta para as páginas exatas do documento. No benchmark FinSearchComp T1 (extração de dados sensíveis ao tempo), a Perplexity fica em primeiro lugar em precisão, custo por resposta correta e latência — incluindo cotações em tempo real, preços de cripto e taxas de câmbio.

🔗 Blog da Perplexity — Computer for Professional Finance


Runway Characters — agente de vídeo em tempo real a partir de uma única imagem

4 de maio — A Runway anuncia Characters, uma tecnologia que permite transformar uma única imagem num agente de vídeo conversacional em tempo real.

MétricaValor
Latência ponta a ponta1,75 segundos
Qualidade de vídeo24 fps HD
Imagem de origem necessária1 única imagem
Arranques a frio60× mais rápidos (GPU peer-to-peer)

O atraso de 1,75 segundos mede-se desde o momento em que o utilizador deixa de falar até à primeira resposta da personagem. A Runway publicou simultaneamente dois artigos de engenharia: o primeiro descreve a arquitetura do agente de vídeo em tempo real, o segundo explica como a infraestrutura GPU peer-to-peer (peer-to-peer) divide os tempos de arranque a frio por 60.

Os casos de uso visados incluem agentes conversacionais, personagens interativas em tempo real e interfaces de vídeo para aplicações. A tecnologia marca uma passagem da renderização de vídeo offline para uma interação síncrona.

🔗 Tweet de anúncio do Runway Characters


GitHub MCP Server — Tripla evolução de segurança

5 de maio — A GitHub publica simultaneamente três atualizações de segurança para o seu servidor MCP, todas efetuadas no mesmo dia.

Secret scanning GA

O secret scanning via GitHub MCP Server passa para disponibilidade geral (saída de preview desde março de 2026). No GitHub Copilot CLI, a instalação faz-se com /plugin install advanced-security@copilot-plugins; no VS Code, o plugin advanced-security expõe o comando /secret-scanning.

AspetoDetalhe
EstadoGA (disponibilidade geral)
DisponibilidadeRepositórios com GitHub Secret Protection ativado
IntegraçõesCopilot CLI, VS Code, qualquer IDE compatível com MCP

As ferramentas MCP respeitam agora as personalizações de push protection existentes — o comportamento de bypass é coerente com a configuração do repositório ou da organização.

🔗 Changelog — Secret scanning GA

Dependency scanning em pré-visualização pública

A deteção de vulnerabilidades em dependências via MCP Server passa para pré-visualização pública. O sistema consulta a GitHub Advisory Database e devolve resultados estruturados com pacotes afetados, gravidade e versões corrigidas recomendadas.

AspetoDetalhe
EstadoPré-visualização pública
DisponibilidadeRepositórios com Dependabot alerts ativado
Ativação CLIcopilot --add-github-mcp-toolset dependabot

🔗 Changelog — Dependency scanning

GitHub Advanced Security × Microsoft Defender for Cloud GA

A integração GitHub Advanced Security × Microsoft Defender for Cloud também passa para GA. Ela correlaciona as imagens de contentor implementadas em ambiente cloud com o código-fonte GitHub, trazendo contexto de runtime para as vistas de segurança.

Novos filtros disponíveis na vista da organização: has:deployment, runtime-risk:internet-exposed, runtime-risk:sensitive-data. As campanhas de segurança podem ser atribuídas diretamente ao agente de programação GitHub Copilot.

🔗 Changelog — Code-to-cloud GA


Model Spec Midtraining (MSM) — alinhamento agentic reduzido de 68 % para 5 %

5 de maio — Investigadores da Anthropic publicam “Model Spec Midtraining” (MSM), um método de alinhamento intercalado entre o pré-treinamento e o fine-tuning de alinhamento (alignment fine-tuning, AFT).

O princípio: os modelos são treinados num corpus sintético de documentos que discutem o conteúdo da sua Model Spec antes de aprenderem a seguir as regras. A ideia é que compreender por que existe uma regra melhora a robustez da sua aplicação.

ModeloDesalinhamento (AFT apenas)Com MSM + AFT
Qwen2.5-32B68 %5 %
Qwen3-32B54 %7 %

O MSM também torna o AFT muito mais eficiente em dados: 40 a 60 vezes menos dados AFT são necessários para atingir desempenhos comparáveis. Os autores mostram ainda que explicar as motivações por detrás das regras (em vez de multiplicar sub-regras) melhora a generalização fora de distribuição.

🔗 Artigo MSM — alignment.anthropic.com


NotebookLM Mind Maps — personalização, organização, navegação

5 de maio — O NotebookLM melhora os seus mapas mentais (Mind Maps) com três funcionalidades lançadas em simultâneo.

FuncionalidadeDescrição
PersonalizaçãoGuiar o mapa com instruções específicas do utilizador
OrganizaçãoRenomear e partilhar os mapas Mind Map instantaneamente
NavegaçãoTransições suaves entre os nós

A implementação é gradual para todos os utilizadores. A atualização completa a série de melhorias rápidas do NotebookLM desde o início de abril: organização automática das fontes (24 de abril, 100 % de implementação atingido a 5 de maio), integração na aplicação Gemini para dispositivos móveis (30 de abril).

🔗 Tweet do NotebookLM


Genspark sb-git — servidor Git reescrito para agentes de IA

5 de maio — A Genspark lança sb-git, um servidor Git reescrito de raiz para agentes de IA. Semântica Git completa: versionamento, branches, diff, blame, rollback e push.

AspetoDetalhe
CLIgsk (init, clone-url, cat, commit)
CompatibilidadeClaude Code, OpenClaw, qualquer agente Git
Armazenamento1 GB (gratuito), 10 GB (Plus/Pro)
Conta necessáriaNão — não é necessária nenhuma conta GitHub
DisponibilidadeImediata (web + mobile)

Não é necessária qualquer conta GitHub, nem configuração prévia de repositório. A ênfase está na compatibilidade com os agentes de IA comuns (Claude Code, OpenClaw) sem fricção de instalação.

🔗 Tweet Genspark sb-git


NVIDIA + ServiceNow — Project Arc, agente desktop autónomo long-running

5 de maio — Na conferência ServiceNow Knowledge 2026, Jensen Huang e Bill McDermott anunciaram a expansão da sua parceria em torno de agentes de IA autónomos em ambiente empresarial.

A ServiceNow lança Project Arc, um agente desktop autónomo long-running concebido para trabalhadores do conhecimento: programadores, equipas IT, administradores. O agente usa NVIDIA OpenShell (sandbox open source) para governação e segurança, e liga-se nativamente à plataforma ServiceNow através do ServiceNow Action Fabric.

MétricaValor
Eficiência Blackwell vs Hopper50× tokens/watt
Redução do custo por milhão de tokens~35×
Nemotron 3 Super (open source)#1 EnterpriseOps-Gym (NOWAI-Bench)
Tickets resolvidos autonomamente90 % (ServiceNow + Apriel/Nemotron)

🔗 NVIDIA Blog — ServiceNow


NVIDIA NemoClaw + OpenClaw — agente persistente open source superando o React no GitHub

30 de abril — OpenClaw (criado por Peter Steinberger) ultrapassou 250.000 estrelas no GitHub em 60 dias, superando o React para se tornar o projeto mais estrelado da plataforma. A NVIDIA colabora com a comunidade para proteger este projeto de agente de IA auto-hospedado e persistente.

A NVIDIA lança NemoClaw, uma implementação de referência instalável em um único comando, combinando OpenClaw + NVIDIA OpenShell + Nemotron com configurações de segurança reforçadas por padrão.

MétricaValor
Estrelas no GitHub de OpenClaw250.000+ (março de 2026)
CrescimentoProjeto #1 no GitHub em 60 dias (supera o React)
Multiplicador de inferência de agentes vs IA de raciocínio1.000×
Instalação do NemoClaw1 único comando

🔗 Blog da NVIDIA — OpenClaw/NemoClaw


Luma AI Uni-1.1 API — geração de imagens raciocinando sobre briefs criativos

5 de maio — A Luma AI lança a API Uni-1.1, um modelo de geração de imagens projetado para raciocinar sobre briefs criativos em vez de tokens. Ao contrário das APIs tradicionais que exigem prompt engineering, a Uni-1.1 compreende o contexto estético de cada tradição visual e produz resultados utilizáveis já na primeira tentativa.

Casos de uso citados: ferramentas de moda, renderizações de arquitetura, pipelines de manga, conteúdo cinematográfico. Nenhum middleware é necessário. A API está disponível em lumalabs.ai/api.

🔗 Tweet da Luma AI Uni-1.1


ChatGPT Ads Manager self-serve e CPC bidding

5 de maio — A OpenAI amplia seu programa publicitário com duas novidades: uma ferramenta self-serve (Ads Manager, em beta nos Estados Unidos) e o lançamento do modo de lances CPC (custo por clique).

ModoStatusDescrição
CPM (custo por mil impressões)ExistenteDisponível desde o lançamento do programa
CPC (custo por clique)NovoO anunciante paga apenas pelo clique efetivo
Ads Manager self-serve (beta)NovoDisponível para anunciantes dos EUA

Parceiros de agências: Dentsu, Omnicom, Publicis, WPP. Parceiros de tecnologia: Adobe, Criteo, Kargo, Pacvue, StackAdapt. A OpenAI também lançou uma Conversions API e um rastreamento por pixel para medir as ações pós-clique sem expor as conversas individuais aos anunciantes.

🔗 Anúncio publicitário da OpenAI


Perplexity Premium Health Sources

5 de maio — A Perplexity lança as Fontes de saúde premium. Mais de uma consulta em cada dez na plataforma é sobre saúde. As fontes disponíveis no lançamento são NEJM, BMJ Journals e BMJ Best Practice — referências médicas normalmente reservadas a assinaturas institucionais.

No Computer, essas fontes são ativadas automaticamente para perguntas sobre saúde sem seleção manual. Cada resposta inclui citações rastreáveis. Fontes que virão em seguida: Micromedex, EBSCOhost, Health Affairs, VisualDx, American Academy of Orthopaedic Surgeons, American Diabetes Association, Springer Publishing.

🔗 Blog da Perplexity — Premium Health Sources


Breves

  • Manus — Recomendação automática de conectores — O Manus agora detecta qual conector (Slack, Notion, Gmail, Google Drive) é necessário para concluir uma tarefa e o recomenda na conversa, sem sair do fio de discussão. A ativação continua sujeita à confirmação do usuário. 🔗 fonte

  • Black Forest Labs — FLUX Creator Program — A BFL abre um programa seletivo de criadores para acesso antecipado aos próximos modelos FLUX, com amplificação dos seus trabalhos pelos canais da BFL. 🔗 fonte

  • GPT-5.5 Instant System Card — Primeira System Card da linha Instant classificada como “High capability” nas categorias Cibersegurança e Biologia & Química do Preparedness Framework da OpenAI. Medidas de proteção reforçadas foram implementadas em consequência. 🔗 fonte

  • OpenAI — Arquitetura WebRTC relay+transceiver — A OpenAI publica um artigo de engenharia descrevendo a reformulação de sua infraestrutura WebRTC para voz em tempo real (ChatGPT Voice, Realtime API), atendendo mais de 900 milhões de usuários semanais. A arquitetura separa o roteamento de pacotes (relay leve, sem estado) da terminação do protocolo (transceiver, com estado), permitindo uma implantação Kubernetes padrão com uma pegada UDP pública reduzida. 🔗 fonte


O que isso significa

As finanças como campo de jogo prioritário da IA enterprise. Em um intervalo de 24 horas, Anthropic, Perplexity e xAI publicaram anúncios voltados explicitamente para equipes financeiras: dez templates de agentes Claude (avaliação, KYC, fechamento mensal), Computer for Professional Finance com 35 workflows e 14 fornecedores de dados, e Grok 4.3 classificado como #1 no benchmark Vals AI em corporate finance e case law. A convergência não é coincidência — as finanças combinam volume de documentos estruturados, exigência de precisão e tolerância a custos de ferramentas premium, o que as torna o terreno ideal para os primeiros deployments de agentes autônomos de alto valor de negócio.

A corrida pelos modelos padrão. O GPT-5.5 Instant reduz as alucinações em 52,5% em relação ao seu predecessor imediato, e o Grok 4.3 alcança o contexto de um milhão de tokens com desempenho agentic medido e publicado. Esses dois modelos são lançados no mesmo dia. O desafio não é mais apenas publicar os melhores benchmarks acadêmicos, mas ser o modelo carregado por padrão nas interfaces de consumo (ChatGPT) ou ativado primeiro nos pipelines de desenvolvedores (API xAI).

MCP como padrão de segurança para desenvolvedores. O GitHub publicou simultaneamente três atualizações de segurança por meio do seu servidor MCP (secret scanning GA, dependency scanning em prévia e code-to-cloud GA). Esse lançamento coordenado transforma o servidor MCP do GitHub em um canal nativo de integração de segurança para agentes de codificação — Copilot CLI, VS Code e qualquer IDE compatível com MCP agora podem escanear segredos e dependências vulneráveis antes de cada commit, diretamente no fluxo de trabalho do agente.

Agentes persistentes e infraestrutura em tempo real. Runway Characters (agente de vídeo com latência de 1,75 s a partir de uma imagem), Project Arc da ServiceNow (agente desktop de longa execução), OpenClaw/NemoClaw (250.000 estrelas no GitHub, 1.000× mais demanda de inferência do que IA de raciocínio) e Genspark sb-git (Git reescrito para agentes) sinalizam todos a mesma mudança: os agentes de IA estão saindo da era das requisições pontuais para entrar na dos processos persistentes, com necessidades de infraestrutura radicalmente diferentes — armazenamento de estado, latência em tempo real, versionamento nativo.


Fontes