O dia 12 de março de 2026 é marcado por três anúncios de produto importantes: Claude atinge um novo patamar ao gerar visuais interativos diretamente na conversa, OpenAI disponibiliza uma Video API programática impulsionada por Sora 2, e o Google Maps integra Gemini para sua reformulação mais profunda em mais de uma década. Paralelamente, Claude Code recebe duas atualizações (v2.1.73 e v2.1.74), Perplexity amplia o Computer para assinantes Pro, e ElevenLabs lança Flows e Music Finetunes em sua plataforma criativa.
Claude gera visuais interativos na conversa
12 de março — Claude agora pode criar gráficos interativos, diagramas e visualizações diretamente na conversa, sem escrever código. A funcionalidade está disponível em beta em todos os planos, incluindo o plano gratuito.
Resultado da prévia “Imagine with Claude” anunciada no outono passado, essa funcionalidade muda a forma de interação com o assistente: os visuais aparecem inline nas respostas, e não em um painel lateral separado. Eles são temporários — evoluem ou desaparecem ao longo da conversa — ao contrário dos Artifacts, que são documentos permanentes destinados a serem compartilhados ou baixados.
Exemplos de uso concreto: pedir como funcionam os juros compostos gera uma curva interativa para manipular; pedir a tabela periódica produz uma visualização clicável com os detalhes de cada elemento. É possível acionar um visual com fórmulas como “draw this as a diagram” ou “visualize how this might change over time”. Claude decide por si quando criar um visual, ou o usuário pode solicitar explicitamente.
Essa funcionalidade faz parte de uma série de melhorias recentes nas respostas do Claude: formatos dedicados para receitas, previsão do tempo visual e integrações diretas com Figma, Canva e Slack.
“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”
🇵🇹 Claude agora pode criar gráficos e diagramas interativos diretamente na conversa. Disponível a partir de hoje em beta em todos os planos, incluindo o gratuito. — @claudeai no X
🔗 Claude agora cria gráficos, diagramas e visualizações interativas
Claude Code v2.1.74 : gestão de contexto e correções multiplataforma
12 de março — A versão 2.1.74 do Claude Code traz melhorias na gestão do contexto e corrige uma série de bugs no Windows e macOS.
Novas funcionalidades :
| Fonctionnalité | Description |
|---|---|
/context amélioré | Suggestions actionnables : identifie les outils lourds en contexte, le gonflement de mémoire, et les avertissements de capacité avec des conseils d’optimisation |
autoMemoryDirectory | Nouveau paramètre pour configurer un répertoire personnalisé pour le stockage auto-mémoire |
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MS | Nouveau paramètre pour configurer le timeout des hooks SessionEnd (auparavant figé à 1,5 s) |
Parmi les correções notáveis: um vazamento de memória nos buffers de resposta da API em modo streaming que causava crescimento ilimitado do RSS no Node.js; as políticas managed ask não podiam mais ser contornadas pelas regras allow do usuário; os IDs de modelo completos (ex.: claude-opus-4-5) ignorados silenciosamente no frontmatter model: dos agentes agora são aceitos corretamente. As correções MCP OAuth cobrem o bloqueio por callback em porta já em uso e a reautenticação ausente após expiração do refresh token para conectores como Slack. No macOS, o binário nativo agora inclui o entitlement audio-input para que o macOS exiba corretamente o pedido de permissão de microfone no modo de voz.
Claude Code v2.1.73 : estabilidade, Bedrock ARNs e OAuth SSL
11 de março — A versão 2.1.73 corrige vários problemas de estabilidade importantes, incluindo travamentos de CPU e deadlocks relacionados a skills.
Novas funcionalidades :
| Fonctionnalité | Description |
|---|---|
modelOverrides | Novo parâmetro para mapear as entradas do seletor de modelo para IDs de modelo de providers personalizados (ex.: Bedrock inference profile ARNs) |
| Guidance OAuth SSL | Orientações acionáveis quando a conexão OAuth ou as verificações de conectividade falham por causa de erros de certificado SSL (proxies corporativos, NODE_EXTRA_CA_CERTS) |
As correções principais: travamentos e loops de CPU a 100% desencadeados por prompts de permissão em comandos bash complexos; um bloqueio que podia congelar o Claude Code quando muitos arquivos de skill mudavam simultaneamente (ex.: git pull em um repositório com uma grande pasta .claude/skills/); os sub-agentes com model: opus / sonnet / haiku eram rebaixados silenciosamente para versões antigas no Bedrock, Vertex e Microsoft Foundry.
Ramp AI Index : Anthropic torna-se a escolha padrão das empresas
11 de março — Segundo o último relatório Ramp AI Index, a Anthropic tornou-se o fornecedor de IA preferido pelas empresas em sua primeira compra. O gráfico compartilhado por Ara Kharazian (economista-chefe do Ramp Economics Lab) mostra que a participação de mercado da Anthropic entre novos clientes empresariais chega a ~70% no início de 2026, contra ~25% para a OpenAI — uma inversão notável em relação a 2025.
Os dados vêm de mais de 50.000 empresas usando a plataforma Ramp (cartão de crédito e pagamentos empresariais), tornando-o um termômetro confiável dos gastos reais com IA nas empresas. O crescimento da Anthropic é impulsionado especialmente pela adoção do Claude em ambientes profissionais (API, Claude for Work, integrações enterprise).
OpenAI Video API : Sora 2 acessível aos desenvolvedores
12 de março — A OpenAI lança a Video API para desenvolvedores, uma interface programática que permite criar, estender, modificar e gerir vídeos. Essa capacidade é alimentada por Sora 2, o modelo de geração de vídeo de segunda geração da OpenAI.
A Video API expõe duas variantes: sora-2, concebida para velocidade e exploração (iterações rápidas, conteúdos para redes sociais, protótipos), e sora-2-pro, orientada para qualidade de produção (saídas cinematográficas, assets de marketing, resoluções até 1920×1080). Ambas as variantes suportam durações de geração de 16 a 20 segundos, com extensão possível até 120 segundos no total.
As principais funcionalidades disponíveis via endpoint POST /videos incluem: geração a partir de um prompt de texto, orientação por imagem de referência (que condiciona o primeiro frame), coerência de personagens não humanos reutilizáveis entre várias gerações (POST /v1/videos/characters), e edição direcionada via POST /v1/videos/edits. O processamento é assíncrono, com suporte a webhooks para notificações de fim de renderização. Um processamento em lote via Batch API também está disponível para filas de render offline.
Aplicam-se restrições de conteúdo: sem representação de pessoas reais, sem personagens protegidos por direitos autorais, sem conteúdo adulto (essa restrição pode evoluir no futuro).
Google Maps : Ask Maps e Immersive Navigation
12 de março — O Google Maps recebe sua maior atualização de navegação em mais de uma década, impulsionada pelos modelos Gemini. Duas novas experiências são anunciadas simultaneamente.
Ask Maps é uma nova experiência conversacional que permite fazer perguntas complexas sobre locais reais. Por exemplo, é possível perguntar “Meu telefone está quase sem bateria — onde posso carregá-lo sem pegar fila para um café?” ou “Existe uma quadra de tênis com iluminação disponível esta noite?” A funcionalidade baseia-se em dados de mais de 300 milhões de locais e avaliações de mais de 500 milhões de contribuintes. As respostas são personalizadas com base nos lugares salvos ou buscados anteriormente. O Ask Maps começa a ser lançado nos Estados Unidos e na Índia no Android e iOS, com a versão para desktop a seguir.
Immersive Navigation transforma a experiência de condução com uma vista 3D que reflete edifícios, pontes e relevo ao redor. Gemini analisa imagens do Street View e fotos aéreas para mostrar detalhes críticos: faixas, faixas de pedestres, semáforos, placas de pare. A funcionalidade também oferece orientação por voz natural (estilo “Passe esta saída e pegue a próxima para Illinois 43 South”), informações sobre compromissos entre rotas alternativas (pedágio vs trânsito) e alertas em tempo real sobre interrupções. O Immersive Navigation está a ser lançado hoje nos Estados Unidos em dispositivos iOS e Android elegíveis, CarPlay, Android Auto e carros com Google integrado.
🔗 Ask Maps e Immersive Navigation: novas funcionalidades de IA no Google Maps
GitHub Copilot : seleção automática de modelo GA no JetBrains
12 de março — O GitHub anunciou a disponibilidade geral (Generally Available) da seleção automática de modelo para o GitHub Copilot em todos os ambientes de desenvolvimento JetBrains (IntelliJ IDEA, PyCharm, WebStorm, etc.), para todas as assinaturas Copilot.
O modo “Auto” seleciona dinamicamente o modelo mais adequado à tarefa, considerando as limitações de taxa. Os desenvolvedores mantêm visibilidade completa: ao passar o cursor sobre a resposta, veem qual modelo foi usado e podem a qualquer momento alternar para um modelo específico. A cobrança segue o modelo realmente selecionado, com multiplicadores atualmente entre 0x e 1x.
O GitHub anuncia que a seleção automática ficará progressivamente mais inteligente, com capacidade de escolher o modelo com base no contexto preciso da tarefa (geração de código, revisão, chat, etc.). Essa funcionalidade já estava disponível em prévia no JetBrains e em GA no VS Code.
🔗 Copilot auto model selection GA nos IDEs JetBrains
GitHub Copilot CLI : histórico de sessões em SQLite
11 de março — O GitHub Copilot CLI passa a integrar um banco de dados SQLite local para memorizar o histórico das suas sessões de terminal. Na prática, se resolveu um problema há alguns dias na linha de comando, o Copilot CLI pode lembrar a solução — sem necessidade de vasculhar o histórico do shell ou suas notas. Essa funcionalidade faz parte da fase 2 da disponibilidade geral do GitHub Copilot CLI, acessível via gh copilot.
Perplexity Computer abre-se aos assinantes Pro
12 de março — Perplexity Computer, o agente capaz de executar fluxos de trabalho complexos em múltiplas etapas na web, em arquivos e em ferramentas conectadas, passa a estar disponível para assinantes Pro.
Até agora reservado a assinantes Max e clientes Enterprise, o Perplexity Computer dá acesso a mais de 20 modelos avançados, a skills predefinidas e personalizáveis, bem como a centenas de conectores. Os assinantes Max mantêm vantagem em créditos mensais e limites de gasto mais altos.
Perplexity Computer for Enterprise : US$1,6M economizados em quatro semanas
12 de março — A Perplexity publicou um artigo detalhando o deployment do Perplexity Computer for Enterprise, disponível desde já para clientes Enterprise.
O Computer for Enterprise integra-se às ferramentas já usadas pelas empresas: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub, e mais de 400 outras via conectores. Ele roteia cada tarefa para o modelo mais adequado entre cerca de vinte, e permite que as equipes definam skills alinhadas aos seus processos internos.
| Équipe | Cas d’usage |
|---|---|
| Finance | Suivi de vérification préalable (due diligence) pour les fusions-acquisitions, analyse des documents et signalement des risques |
| Juridique | Révision d’accord fournisseur, comparaison de versions, annotation de contrat (redlining) |
| Marketing | Création de campagne (créatifs, posts sociaux, pages d’atterrissage) + tableau de bord de performance |
A Perplexity compartilhou números de um estudo interno sobre mais de 16.000 requisições: o Computer permitiu economizar 1,6 milhão de dólares em custos de mão de obra e realizou o equivalente a 3,25 anos de trabalho em quatro semanas. A solução é certificada SOC 2 Type II, com SAML SSO e execução isolada para cada tarefa.
🔗 Perplexity Computer for Enterprise
ElevenLabs Flows : uma tela para unificar imagem, vídeo e áudio
11 de março — A ElevenLabs introduziu o Flows, um editor baseado em nós (node-based) integrado ao ElevenCreative. Em uma única tela, os criadores podem encadear e combinar geração de imagens, vídeo, síntese de voz (Text to Speech), lip-sync, música e efeitos sonoros.
Essa abordagem lembra os fluxos de trabalho do ComfyUI, mas aplicada ao ecossistema multimodal da ElevenLabs, com todos os modelos de áudio e vídeo do estúdio acessíveis em um só lugar.
🔗 Apresentando Flows no ElevenCreative
ElevenLabs Music Finetunes : coerência estilística para geração musical
12 de março — A ElevenLabs lançou os Music Finetunes no ElevenCreative. Essa funcionalidade permite que os criadores gerem vozes individuais, instrumentos ou faixas musicais completas mantendo coerência estilística, graças a uma versão fine-tuned do modelo musical da ElevenLabs.
🔗 Apresentando Music Finetunes no ElevenCreative
BFL FLUX.2 [klein] 9B : edição de imagens 2× mais rápida
12 de março — A Black Forest Labs (BFL) anunciou uma atualização significativa do seu modelo FLUX.2 [klein] 9B: a edição de imagens agora é 2× mais rápida, especialmente quando várias imagens de referência são usadas.
| Détail | Valeur |
|---|---|
| Modèle | FLUX.2 [klein] 9B |
| Amélioration | 2× plus rapide à l’édition |
| Cas d’usage renforcé | Références multiples |
| Prix | Inchangé |
| Poids | HuggingFace (black-forest-labs/FLUX.2-klein-9b-kv) |
A atualização é automática e gratuita para os usuários existentes do FLUX.2 [klein] 9B via API. Os utilizadores do modelo [klein] 4B podem aceder à versão 9B melhorada através de um novo endpoint em pré-visualização.
Mistral AI Now Summit : Paris, 28 de maio de 2026
12 de março — Mistral AI anuncia o seu primeiro evento emblemático: o “AI Now Summit”, um dia dedicado à transformação por IA das empresas, agendado para 28 de maio de 2026 em Paris.
| Tema | Descrição |
|---|---|
| Código aberto empresarial | O código aberto como base para transformações IA de ponta a ponta |
| Colocação em produção | Passar de pilotos para implementações em larga escala |
| Infraestrutura de IA | Construir uma infraestrutura de nível empresarial |
| Inovações 2026 | Robótica, modelos visão-linguagem (VLMs), IA multimodal |
O evento reunirá líderes de todo o mundo. As inscrições ainda não estão abertas; está disponível uma lista de espera em ainowsummit.com.
O que isso significa
O dia 12 de março ilustra duas tendências convergentes. Por um lado, os assistentes de IA generalistas — Claude, Perplexity, Google Maps — enriquecem-se com capacidades que reduzem o atrito entre a pergunta e a resposta acionável: já não é necessário escrever código para ver um gráfico, já não é preciso reformular para encontrar um restaurante. Por outro lado, os desenvolvedores recebem novos blocos programáticos: a Video API da OpenAI abre a geração de vídeo a fluxos de trabalho automatizados, e o Claude Code continua a aperfeiçoar-se para ambientes empresariais (Bedrock, proxies SSL, multiplataformas Windows/macOS).
O relatório Ramp AI Index confirma que este movimento se traduz em compras reais: com ~70% de quota de mercado entre novas empresas, a Anthropic já não se contenta em ser uma alternativa à OpenAI — tornou-se o ponto de entrada por defeito. A competição joga-se agora na qualidade das integrações e na fiabilidade em produção, não apenas na potência dos modelos.
Fontes
- Claude agora cria gráficos interativos, diagramas e visualizações
- @claudeai no X
- CHANGELOG do Claude Code
- Ramp AI Index — @arakharazian no X
- Documentação da Video API da OpenAI
- @OpenAIDevs no X
- Ask Maps and Immersive Navigation — Blog do Google Maps
- Copilot seleção automática de modelo GA nos IDEs da JetBrains
- @github no X — Copilot CLI SQLite
- @perplexity_ai no X — Computer para Pro
- Perplexity Computer para Empresas
- Apresentando Flows no ElevenCreative
- Apresentando Music Finetunes no ElevenCreative
- @bfl_ml no X — FLUX.2 klein 9B
- AI Now Summit Mistral — @MistralAI no X
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator