Três anúncios dominam o fim do mês: OpenAI fecha a maior captação privada da história da tech com 122 bilhões de dólares a uma avaliação de 852 bilhões, Qwen atinge um marco com um modelo omnimodal nativo capaz de ver, ouvir e codificar simultaneamente, e o responsável pelo Claude Code publica um thread viral revelando 15 funcionalidades pouco documentadas da ferramenta. A semana também é marcada pelo lançamento do Secure Intelligence Institute da Perplexity, novas ferramentas GitHub Copilot e iniciativas de infraestrutura na Runway e NVIDIA.
OpenAI levanta 122 bilhões de dólares
31 de março — OpenAI anuncia o fechamento de sua última rodada de financiamento com 122 bilhões de dólares de capital comprometido, para uma avaliação post-money de 852 bilhões de dólares. É uma das maiores rodadas privadas da história da tecnologia.
A rodada é co-liderada pela SoftBank e a16z, com participação estratégica da Amazon, NVIDIA e Microsoft. Pela primeira vez, a OpenAI ampliou a participação a investidores individuais via bancos, levantando mais de 3 bilhões de dólares de pessoas físicas. A ARK Invest também integrará a OpenAI em vários fundos indiciais cotados (Exchange-Traded Funds / ETF).
Apoiada por essa captação, a OpenAI publica métricas de crescimento:
| Indicador | Valor |
|---|---|
| Utilizadores ativos semanais do ChatGPT | 900 milhões |
| Assinantes pagos do ChatGPT | 50 milhões |
| Receitas mensais | 2 bilhões de dólares |
| Tokens processados pela API (por minuto) | 15 bilhões |
| Utilizadores semanais do Codex | 2 milhões (+5× em 3 meses) |
| Crescimento mensal do Codex | +70% |
A empresa descreve um roadmap articulado em torno de uma “IA superapp” (AI superapp): uma interface unificada reunindo ChatGPT, Codex, pesquisa web e agentes IA. O objetivo declarado é ultrapassar um bilhão de utilizadores ativos semanais. As empresas já representam 40% das receitas.
GPT-5.4, o modelo mais recente da OpenAI, é descrito como trazendo ganhos em raciocínio, em codificação e em fluxos de trabalho agenticos (agentic workflows). O crescimento da OpenAI é apresentado como 4 vezes mais rápido que o do Google e do Meta em estágio equivalente.
Qwen3.5-Omni: modelo omnimodal nativo
29 de março — Alibaba Qwen lança o Qwen3.5-Omni, um modelo concebido nativamente para processar texto, imagens, áudio e vídeo em um único modelo unificado. Ao contrário das abordagens multimodais clássicas que acrescentam modalidades em camadas, este modelo processa essas entradas simultaneamente.
As capacidades brutas são significativas: até 10 horas de áudio ou 400 segundos de vídeo 720p nativamente, treinado em mais de 100 milhões de horas de dados, reconhecimento de fala em 113 idiomas e expressão em 36 idiomas.
Funcionalidade principal: Audio-Visual Vibe Coding
A funcionalidade mais diretamente utilizável é o “Audio-Visual Vibe Coding”: o utilizador descreve seu projeto em voz alta diante de uma câmara, e o Qwen3.5-Omni-Plus gera um site ou um jogo funcional. É uma aplicação do conceito de codificação por intenção (vibe coding) estendida ao áudio e ao vídeo em tempo real.
Desempenho comparado
| Categoria | Qwen3.5-Omni-Plus | Gemini 3.1 Pro |
|---|---|---|
| DailyOmni (áudio/visão) | 84,6 | 82,7 |
| WorldScene | 62,8 | 65,5 |
| QualocommInteractive | 68,5 | 52,3 |
| OmniClear | 64,8 | 55,5 |
| IFEval (texto) | 89,7 | 93,5 |
| MMLU-Redux | 94,2 | 90,0 |
O modelo supera o Gemini 3.1 Pro em benchmarks de áudio e é equivalente na compreensão áudio-visual.
Capacidades vocais
- Controlo vocal fino: ajuste de emoção, ritmo e volume em tempo real
- Clonagem de voz (Voice Cloning) a partir de uma amostra curta (implantação de engenharia anunciada em breve)
- Turno de fala inteligente (Semantic Interruption) que compreende a intenção real e ignora o ruído ambiente
- Pesquisa web integrada e chamadas de funções complexas
Família de modelos
| Variante | Posicionamento |
|---|---|
| Qwen3.5-Omni-Plus | Performance SOTA, legendagem áudio-visual detalhada |
| Qwen3.5-Omni-Plus-Realtime | Voice Control, WebSearch, Voice Clone, Semantic Interruption |
| Qwen3.5-Omni-Flash | Velocidade |
| Qwen3.5-Omni-Light | Leveza |
Acesso via chat.qwen.ai (botão VoiceChat/VideoChat) e pela API da Alibaba Cloud.
Nota complementar: O Qwen 3.6 Plus Preview está disponível gratuitamente no OpenRouter por tempo limitado — as interações são recolhidas durante esse período para melhorar o modelo.
15 funcionalidades ocultas do Claude Code
30 de março — Boris Cherny, responsável pelo Claude Code na Anthropic, publicou um thread revelando 15 funcionalidades pouco documentadas da ferramenta. O thread alcançou 3,6 milhões de visualizações, 2 000 reposts e 22 000 likes.
“I wanted to share a bunch of my favorite hidden and under-utilized features in Claude Code. I’ll focus on the ones I use the most. Here goes.”
🇵🇹 Queria partilhar algumas das minhas funcionalidades favoritas, pouco conhecidas e subutilizadas no Claude Code. Vou focar-me naquelas que eu uso mais. Vamos a isso. — @bcherny no X
Mobilidade e sessões remotas
- A aplicação Claude no iOS e Android inclui um separador Code que permite programar a partir do telefone
--teleport(ou/teleport) permite transferir uma sessão cloud para uma máquina local;/remote-controlpermite controlar uma sessão local a partir de qualquer dispositivo- Cowork Dispatch: controlo remoto seguro da Claude Desktop App a partir do móvel, com acesso aos servidores MCP (Model Context Protocol), ao navegador, etc.
Automação
/loope/schedulepermitem iniciar o Claude automaticamente em intervalos definidos, até uma semana — Cherny usa/loop 5m /babysitpara uma revisão de código e um rebase automáticos contínuos- Os hooks (
SessionStart,PreToolUse, etc.) permitem injetar lógica determinística no ciclo do agente, por exemplo para encaminhar pedidos de permissão para o WhatsApp
Paralelização
/batchdistribui o trabalho para dezenas, centenas ou mesmo milhares de agentes em paralelo — útil para migrações de código em grande escalaclaude -winicia sessões paralelas em espaços de trabalho git (git worktrees) distintos
Produtividade diária
/btwpermite colocar uma pergunta rápida enquanto um agente trabalha, sem interromper a tarefa em curso/branchpermite bifurcar (fork) uma sessão; ou via CLI:claude --resume <session-id> --fork-session--agentpermite definir agentes personalizados em.claude/agents/com um sistema de prompt e ferramentas configuráveis--add-dir//add-dirdá ao Claude acesso a múltiplas pastas ou repositórios simultaneamente--bareacelera o arranque do SDK até 10× (evita o carregamento de CLAUDE.md, parâmetros e servidores MCP)/voiceativa a entrada por voz (barra de espaço na CLI, botão dedicado no Desktop, ditado iOS)- Extensão Chrome (beta): Claude Code + Chrome para testar aplicações web, depurar logs da consola e automatizar o navegador
Claude Code: modo auto estendido ao Enterprise e à API
30 de março — O auto mode do Claude Code, lançado a 24 de março para utilizadores Pro e Max, está agora disponível no plano Enterprise e para desenvolvedores com acesso à API. Esta funcionalidade permite ao Claude tomar decisões de aprovação de ações (escrita de ficheiros, comandos bash) por si só, em vez de solicitar ao utilizador a cada passo.
Para o ativar num ambiente Enterprise ou via API:
claude --enable-auto-mode
O auto mode baseia-se em classificadores internos que avaliam o risco de cada ação antes de a executar, oferecendo um equilíbrio entre o modo permissivo (--dangerously-skip-permissions) e as aprovações manuais.
30 de março — O Cowork Dispatch pode agora iniciar tarefas de codificação com um modelo específico, referido diretamente em linguagem natural na instrução.
Perplexity lança o Secure Intelligence Institute
31 de março — A Perplexity lança o Secure Intelligence Institute (SII), um laboratório de investigação dedicado à segurança, privacidade e robustez dos sistemas de IA avançada. O Instituto é liderado pelo Dr. Ninghui Li — Samuel D. Conte Professor na Universidade Purdue, Fellow da ACM e IEEE, ex-presidente da ACM SIGSAC —, com parcerias académicas incluindo o grupo de criptografia aplicada do Dan Boneh e o Gong Lab do Neil Gong.
O SII publica três primeiros trabalhos:
| Publicação | Tipo | Descrição |
|---|---|---|
| BrowseSafe | Benchmark open-source | 14 700+ cenários de ataque reais, 14 categorias de risco para navegação por IA |
| Securing Agents NIST/CAISI | Política | Resposta ao RFI (Request for Information) sobre proteger agentes autónomos |
| Building Security Into Comet | Arquitetura | Defesa em profundidade do navegador IA Comet |
O SII transforma a sua investigação em melhorias concretas nos sistemas da Perplexity e partilha os seus trabalhos com o ecossistema de IA.
🔗 Secure Intelligence Institute
Cohere e Ensemble: LLM especializado na gestão do ciclo de receitas para a saúde
31 de março — Cohere e Ensemble anunciam a construção do primeiro grande modelo de linguagem (large language model / LLM) nativo em gestão do ciclo de receitas (Revenue Cycle Management / RCM) da indústria de saúde dos EUA.
A Ensemble oferece uma solução de ponta a ponta para hospitais e grupos médicos, desde o agendamento até a faturação final. Ao contrário das ofertas concorrentes que encapsulam LLMs gerais em prompts especializados, este modelo é totalmente personalizado na família Command da Cohere.
| Domínio | Capacidade |
|---|---|
| Financeiro | Previsão de recusas antes da submissão, controlo de qualidade de faturação contínuo |
| Clínico | Orientação de documentação no ponto de cuidado, montagem de dossiês de apelação |
| Agentico | Orquestração multi-etapas do ciclo de receitas |
O modelo foi treinado com os dados de pré-treino da Cohere, logs operacionais da Ensemble, fontes públicas de conhecimento RCM e anotações de especialistas do domínio. Um quadro de avaliação (benchmark) específico por domínio, co-desenvolvido, medirá o desempenho face aos LLMs gerais em tarefas RCM reais.
GitHub Copilot: desenvolvimento agent-first e integração com Slack
31 de março — Tyler McGoffin, investigador sénior da equipa Copilot Applied Science na GitHub, publica um relato de experiência sobre a construção de uma ferramenta interna com o Copilot como agente de codificação principal. A ferramenta automatiza a análise de trajetórias de agentes IA em benchmarks como o TerminalBench2 e o SWEBench-Pro.
As práticas descritas: uso do modo /plan antes de codificar, criação de “testes de contrato” (contract tests) que só um humano pode alterar, prompts detalhados em vez de concisos, e manutenção automática semanal via /plan Review the code for any missing tests.... A conclusão: as qualidades de um bom engenheiro (planeamento, contexto, comunicação) são idênticas para colaborar eficazmente com um agente IA.
30 de março — A app GitHub para Slack integra agora o Copilot para criar issues GitHub diretamente desde o Slack em linguagem natural. Basta mencionar @GitHub em qualquer canal e descrever o trabalho.
| Funcionalidade | Detalhe |
|---|---|
| Criação em linguagem natural | Descrição → issues estruturadas (título, corpo, atribuídos, labels, milestones) |
| Sub-issues | Decompor o trabalho em issues pai/filho a partir de uma única mensagem |
| Modo conversação | Iterar sobre as issues antes de as criar |
31 de março — A GitHub apresenta o Copilot SDK permitindo integrar fluxos de trabalho agenticos (agentic workflows) em aplicações de terceiros segundo 3 modelos arquiteturais.
🔗 Blog GitHub - Agent-driven development 🔗 Changelog GitHub - Issues desde Slack
Runway: fundo de investimento e programa para startups
31 de março — A Runway lança duas iniciativas simultâneas.
O Runway Fund é um fundo de investimento para startups em fase inicial (early-stage) em IA, media e simulação do mundo. Compromisso inicial de até 10 milhões de dólares, com investimentos de até 500 000 dólares em pré-seed/seed. Foco em três eixos: pesquisa em IA (modelos do mundo e IA generativa), novas aplicações (camada aplicacional sobre LLMs) e novos media e conteúdos. Já foram realizados investimentos na Cartesia, LanceDB e Tamarind Bio.
O Runway Builders é um programa de aceleração para startups do seed à série C que constroem produtos com vídeo generativo e IA conversacional em tempo real. Os participantes recebem créditos API oferecidos, os limites de taxa mais altos e acesso a uma comunidade privada.
🔗 Runway Fund 🔗 Runway Builders
NVIDIA e Emerald AI: fábricas de IA flexíveis na rede elétrica
31 de março — NVIDIA e Emerald AI apresentam no CERAWeek uma nova abordagem para as fábricas de IA (AI factories): tratá-las como ativos flexíveis da rede elétrica em vez de cargas estáticas. A arquitetura assenta no NVIDIA Vera Rubin DSX e na plataforma Conductor da Emerald AI.
Parceiros de energia anunciados: AES, Constellation, Invenergy, NextEra Energy, Nscale Energy e Vistra. Anúncios associados:
- Maximo: instalação solar robótica IA de 100 MW operacional em Bellefield com NVIDIA Isaac Sim
- TerraPower + SoftServe: gêmeo digital (digital twin) NVIDIA Omniverse para reduzir prazos de conceção de centrais nucleares Natrium
- Adaptive Construction Solutions: programa nacional de formação para construção de fábricas de IA
- GE Vernova, Schneider Electric, Vertiv: designs de referência (reference designs) validados para Vera Rubin
Jensen Huang descreve a energia como a camada fundamental de um “bolo IA de cinco camadas” (five-layer AI cake).
Em resumo
Gemini Live no Gemini 3.1 Flash Live — 30 de março — O Google confirmou o despliegue do modelo Gemini 3.1 Flash Live na aplicação Gemini Live, disponível para todos os utilizadores. Essa transição (anunciada a 26 de março) traz conversas de áudio mais naturais e melhor precisão em ambientes ruidosos. 🔗 Tweet @GeminiApp
Manus: controlo desde o telefone para Desktop — 30 de março — Manus adiciona a possibilidade de controlar a aplicação Desktop a partir do smartphone: iniciar tarefas, aceder a ficheiros e lançar fluxos de trabalho sem tocar no computador. 🔗 Tweet @ManusAI
Midjourney V8 teaser — 29 de março — David Holz (fundador da Midjourney) anuncia uma versão “radicalmente diferente” do V8, “chegando muito em breve”. Sem data anunciada. 🔗 Tweet @DavidSHolz
Claude Code v2.1.87 — Correção de um bug no Cowork Dispatch em que as mensagens não eram entregues. 🔗 CHANGELOG GitHub
O que isso significa
A captação da OpenAI a uma avaliação de 852 mil milhões marca um ponto de inflexão: com estes números, a distância entre os intervenientes de topo e o resto do setor alarga-se estruturalmente. Com 900 milhões de utilizadores semanais e uma meta de mil milhões, o ChatGPT impõe-se como uma infraestrutura de massa, não apenas um produto tecnológico.
O lançamento do Qwen3.5-Omni ilustra a competição crescente sobre modelos omnimodais. O Audio-Visual Vibe Coding representa uma evolução concreta da codificação por intenção (vibe coding) — passar do texto para a voz e para o vídeo como interface principal com a IA generativa.
Do lado das ferramentas para desenvolvedores, o thread de Boris Cherny revela que o Claude Code acumulou funcionalidades avançadas (paralelização massiva com /batch, automatização via hooks, sessões distribuídas) que permaneceram desconhecidas por falta de documentação visível. A extensão do auto mode aos planos Enterprise segue uma trajetória clássica: validação em preview, depois implantação progressiva.
Finalmente, a criação do Secure Intelligence Institute pela Perplexity e as iniciativas da Cohere na área da saúde sinalizam uma tendência: os atores de segunda linha procuram diferenciar-se em verticais especializados (segurança IA, saúde regulamentada) em vez de competir frontalmente nos modelos gerais.
Fontes
- OpenAI - Acelerando a Próxima Fase da IA
- Tweet OpenAI - Captação de fundos
- Tweet Alibaba Qwen - Qwen3.5-Omni
- Thread Boris Cherny - 15 funcionalidades do Claude Code
- Tweet @claudeai - Auto mode Enterprise
- Tweet @noahzweben - modelo Dispatch
- CHANGELOG Claude Code GitHub
- Perplexity Secure Intelligence Institute
- Tweet Perplexity - SII
- Blog Cohere - LLM RCM para saúde
- Blog GitHub - Desenvolvimento orientado por agentes
- Changelog GitHub - Criar issues desde o Slack
- Runway Fund
- Runway Builders
- Blog NVIDIA - Fábricas de IA
- Tweet @GeminiApp - Gemini Live 3.1 Flash
- Tweet @ManusAI - Controlo por telefone
- Tweet @DavidSHolz - Midjourney V8
- Tweet @OpenRouter - Pré-visualização Qwen 3.6 Plus
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator