Pesquisar

Claude cria visuais interativos, OpenAI lança a Video API Sora 2, Google Maps se reinventa com Gemini

Claude cria visuais interativos, OpenAI lança a Video API Sora 2, Google Maps se reinventa com Gemini

O dia 12 de março de 2026 é marcado por três anúncios de produto importantes: Claude atinge um novo patamar ao gerar visuais interativos diretamente na conversa, OpenAI disponibiliza uma Video API programática impulsionada por Sora 2, e o Google Maps integra Gemini para sua reformulação mais profunda em mais de uma década. Paralelamente, Claude Code recebe duas atualizações (v2.1.73 e v2.1.74), Perplexity amplia o Computer para assinantes Pro, e ElevenLabs lança Flows e Music Finetunes em sua plataforma criativa.


Claude gera visuais interativos na conversa

12 de março — Claude agora pode criar gráficos interativos, diagramas e visualizações diretamente na conversa, sem escrever código. A funcionalidade está disponível em beta em todos os planos, incluindo o plano gratuito.

Resultado da prévia “Imagine with Claude” anunciada no outono passado, essa funcionalidade muda a forma de interação com o assistente: os visuais aparecem inline nas respostas, e não em um painel lateral separado. Eles são temporários — evoluem ou desaparecem ao longo da conversa — ao contrário dos Artifacts, que são documentos permanentes destinados a serem compartilhados ou baixados.

Exemplos de uso concreto: pedir como funcionam os juros compostos gera uma curva interativa para manipular; pedir a tabela periódica produz uma visualização clicável com os detalhes de cada elemento. É possível acionar um visual com fórmulas como “draw this as a diagram” ou “visualize how this might change over time”. Claude decide por si quando criar um visual, ou o usuário pode solicitar explicitamente.

Essa funcionalidade faz parte de uma série de melhorias recentes nas respostas do Claude: formatos dedicados para receitas, previsão do tempo visual e integrações diretas com Figma, Canva e Slack.

“Claude can now build interactive charts and diagrams, directly in the chat. Available today in beta on all plans, including free.”

🇵🇹 Claude agora pode criar gráficos e diagramas interativos diretamente na conversa. Disponível a partir de hoje em beta em todos os planos, incluindo o gratuito.@claudeai no X

🔗 Claude agora cria gráficos, diagramas e visualizações interativas


Claude Code v2.1.74 : gestão de contexto e correções multiplataforma

12 de março — A versão 2.1.74 do Claude Code traz melhorias na gestão do contexto e corrige uma série de bugs no Windows e macOS.

Novas funcionalidades :

FonctionnalitéDescription
/context amélioréSuggestions actionnables : identifie les outils lourds en contexte, le gonflement de mémoire, et les avertissements de capacité avec des conseils d’optimisation
autoMemoryDirectoryNouveau paramètre pour configurer un répertoire personnalisé pour le stockage auto-mémoire
CLAUDE_CODE_SESSIONEND_HOOKS_TIMEOUT_MSNouveau paramètre pour configurer le timeout des hooks SessionEnd (auparavant figé à 1,5 s)

Parmi les correções notáveis: um vazamento de memória nos buffers de resposta da API em modo streaming que causava crescimento ilimitado do RSS no Node.js; as políticas managed ask não podiam mais ser contornadas pelas regras allow do usuário; os IDs de modelo completos (ex.: claude-opus-4-5) ignorados silenciosamente no frontmatter model: dos agentes agora são aceitos corretamente. As correções MCP OAuth cobrem o bloqueio por callback em porta já em uso e a reautenticação ausente após expiração do refresh token para conectores como Slack. No macOS, o binário nativo agora inclui o entitlement audio-input para que o macOS exiba corretamente o pedido de permissão de microfone no modo de voz.

🔗 CHANGELOG Claude Code


Claude Code v2.1.73 : estabilidade, Bedrock ARNs e OAuth SSL

11 de março — A versão 2.1.73 corrige vários problemas de estabilidade importantes, incluindo travamentos de CPU e deadlocks relacionados a skills.

Novas funcionalidades :

FonctionnalitéDescription
modelOverridesNovo parâmetro para mapear as entradas do seletor de modelo para IDs de modelo de providers personalizados (ex.: Bedrock inference profile ARNs)
Guidance OAuth SSLOrientações acionáveis quando a conexão OAuth ou as verificações de conectividade falham por causa de erros de certificado SSL (proxies corporativos, NODE_EXTRA_CA_CERTS)

As correções principais: travamentos e loops de CPU a 100% desencadeados por prompts de permissão em comandos bash complexos; um bloqueio que podia congelar o Claude Code quando muitos arquivos de skill mudavam simultaneamente (ex.: git pull em um repositório com uma grande pasta .claude/skills/); os sub-agentes com model: opus / sonnet / haiku eram rebaixados silenciosamente para versões antigas no Bedrock, Vertex e Microsoft Foundry.

🔗 CHANGELOG Claude Code


Ramp AI Index : Anthropic torna-se a escolha padrão das empresas

11 de março — Segundo o último relatório Ramp AI Index, a Anthropic tornou-se o fornecedor de IA preferido pelas empresas em sua primeira compra. O gráfico compartilhado por Ara Kharazian (economista-chefe do Ramp Economics Lab) mostra que a participação de mercado da Anthropic entre novos clientes empresariais chega a ~70% no início de 2026, contra ~25% para a OpenAI — uma inversão notável em relação a 2025.

Os dados vêm de mais de 50.000 empresas usando a plataforma Ramp (cartão de crédito e pagamentos empresariais), tornando-o um termômetro confiável dos gastos reais com IA nas empresas. O crescimento da Anthropic é impulsionado especialmente pela adoção do Claude em ambientes profissionais (API, Claude for Work, integrações enterprise).

🔗 Ramp AI Index no X


OpenAI Video API : Sora 2 acessível aos desenvolvedores

12 de março — A OpenAI lança a Video API para desenvolvedores, uma interface programática que permite criar, estender, modificar e gerir vídeos. Essa capacidade é alimentada por Sora 2, o modelo de geração de vídeo de segunda geração da OpenAI.

A Video API expõe duas variantes: sora-2, concebida para velocidade e exploração (iterações rápidas, conteúdos para redes sociais, protótipos), e sora-2-pro, orientada para qualidade de produção (saídas cinematográficas, assets de marketing, resoluções até 1920×1080). Ambas as variantes suportam durações de geração de 16 a 20 segundos, com extensão possível até 120 segundos no total.

As principais funcionalidades disponíveis via endpoint POST /videos incluem: geração a partir de um prompt de texto, orientação por imagem de referência (que condiciona o primeiro frame), coerência de personagens não humanos reutilizáveis entre várias gerações (POST /v1/videos/characters), e edição direcionada via POST /v1/videos/edits. O processamento é assíncrono, com suporte a webhooks para notificações de fim de renderização. Um processamento em lote via Batch API também está disponível para filas de render offline.

Aplicam-se restrições de conteúdo: sem representação de pessoas reais, sem personagens protegidos por direitos autorais, sem conteúdo adulto (essa restrição pode evoluir no futuro).

🔗 Documentação da Video API


Google Maps : Ask Maps e Immersive Navigation

12 de março — O Google Maps recebe sua maior atualização de navegação em mais de uma década, impulsionada pelos modelos Gemini. Duas novas experiências são anunciadas simultaneamente.

Ask Maps é uma nova experiência conversacional que permite fazer perguntas complexas sobre locais reais. Por exemplo, é possível perguntar “Meu telefone está quase sem bateria — onde posso carregá-lo sem pegar fila para um café?” ou “Existe uma quadra de tênis com iluminação disponível esta noite?” A funcionalidade baseia-se em dados de mais de 300 milhões de locais e avaliações de mais de 500 milhões de contribuintes. As respostas são personalizadas com base nos lugares salvos ou buscados anteriormente. O Ask Maps começa a ser lançado nos Estados Unidos e na Índia no Android e iOS, com a versão para desktop a seguir.

Immersive Navigation transforma a experiência de condução com uma vista 3D que reflete edifícios, pontes e relevo ao redor. Gemini analisa imagens do Street View e fotos aéreas para mostrar detalhes críticos: faixas, faixas de pedestres, semáforos, placas de pare. A funcionalidade também oferece orientação por voz natural (estilo “Passe esta saída e pegue a próxima para Illinois 43 South”), informações sobre compromissos entre rotas alternativas (pedágio vs trânsito) e alertas em tempo real sobre interrupções. O Immersive Navigation está a ser lançado hoje nos Estados Unidos em dispositivos iOS e Android elegíveis, CarPlay, Android Auto e carros com Google integrado.

🔗 Ask Maps e Immersive Navigation: novas funcionalidades de IA no Google Maps


GitHub Copilot : seleção automática de modelo GA no JetBrains

12 de março — O GitHub anunciou a disponibilidade geral (Generally Available) da seleção automática de modelo para o GitHub Copilot em todos os ambientes de desenvolvimento JetBrains (IntelliJ IDEA, PyCharm, WebStorm, etc.), para todas as assinaturas Copilot.

O modo “Auto” seleciona dinamicamente o modelo mais adequado à tarefa, considerando as limitações de taxa. Os desenvolvedores mantêm visibilidade completa: ao passar o cursor sobre a resposta, veem qual modelo foi usado e podem a qualquer momento alternar para um modelo específico. A cobrança segue o modelo realmente selecionado, com multiplicadores atualmente entre 0x e 1x.

O GitHub anuncia que a seleção automática ficará progressivamente mais inteligente, com capacidade de escolher o modelo com base no contexto preciso da tarefa (geração de código, revisão, chat, etc.). Essa funcionalidade já estava disponível em prévia no JetBrains e em GA no VS Code.

🔗 Copilot auto model selection GA nos IDEs JetBrains


GitHub Copilot CLI : histórico de sessões em SQLite

11 de março — O GitHub Copilot CLI passa a integrar um banco de dados SQLite local para memorizar o histórico das suas sessões de terminal. Na prática, se resolveu um problema há alguns dias na linha de comando, o Copilot CLI pode lembrar a solução — sem necessidade de vasculhar o histórico do shell ou suas notas. Essa funcionalidade faz parte da fase 2 da disponibilidade geral do GitHub Copilot CLI, acessível via gh copilot.

🔗 GitHub Copilot CLI


Perplexity Computer abre-se aos assinantes Pro

12 de março — Perplexity Computer, o agente capaz de executar fluxos de trabalho complexos em múltiplas etapas na web, em arquivos e em ferramentas conectadas, passa a estar disponível para assinantes Pro.

Até agora reservado a assinantes Max e clientes Enterprise, o Perplexity Computer dá acesso a mais de 20 modelos avançados, a skills predefinidas e personalizáveis, bem como a centenas de conectores. Os assinantes Max mantêm vantagem em créditos mensais e limites de gasto mais altos.

🔗 Perplexity Computer


Perplexity Computer for Enterprise : US$1,6M economizados em quatro semanas

12 de março — A Perplexity publicou um artigo detalhando o deployment do Perplexity Computer for Enterprise, disponível desde já para clientes Enterprise.

O Computer for Enterprise integra-se às ferramentas já usadas pelas empresas: Salesforce, Microsoft Teams, HubSpot, MySQL, GitHub, e mais de 400 outras via conectores. Ele roteia cada tarefa para o modelo mais adequado entre cerca de vinte, e permite que as equipes definam skills alinhadas aos seus processos internos.

ÉquipeCas d’usage
FinanceSuivi de vérification préalable (due diligence) pour les fusions-acquisitions, analyse des documents et signalement des risques
JuridiqueRévision d’accord fournisseur, comparaison de versions, annotation de contrat (redlining)
MarketingCréation de campagne (créatifs, posts sociaux, pages d’atterrissage) + tableau de bord de performance

A Perplexity compartilhou números de um estudo interno sobre mais de 16.000 requisições: o Computer permitiu economizar 1,6 milhão de dólares em custos de mão de obra e realizou o equivalente a 3,25 anos de trabalho em quatro semanas. A solução é certificada SOC 2 Type II, com SAML SSO e execução isolada para cada tarefa.

🔗 Perplexity Computer for Enterprise


ElevenLabs Flows : uma tela para unificar imagem, vídeo e áudio

11 de março — A ElevenLabs introduziu o Flows, um editor baseado em nós (node-based) integrado ao ElevenCreative. Em uma única tela, os criadores podem encadear e combinar geração de imagens, vídeo, síntese de voz (Text to Speech), lip-sync, música e efeitos sonoros.

Essa abordagem lembra os fluxos de trabalho do ComfyUI, mas aplicada ao ecossistema multimodal da ElevenLabs, com todos os modelos de áudio e vídeo do estúdio acessíveis em um só lugar.

🔗 Apresentando Flows no ElevenCreative


ElevenLabs Music Finetunes : coerência estilística para geração musical

12 de março — A ElevenLabs lançou os Music Finetunes no ElevenCreative. Essa funcionalidade permite que os criadores gerem vozes individuais, instrumentos ou faixas musicais completas mantendo coerência estilística, graças a uma versão fine-tuned do modelo musical da ElevenLabs.

🔗 Apresentando Music Finetunes no ElevenCreative


BFL FLUX.2 [klein] 9B : edição de imagens 2× mais rápida

12 de março — A Black Forest Labs (BFL) anunciou uma atualização significativa do seu modelo FLUX.2 [klein] 9B: a edição de imagens agora é 2× mais rápida, especialmente quando várias imagens de referência são usadas.

DétailValeur
ModèleFLUX.2 [klein] 9B
Amélioration2× plus rapide à l’édition
Cas d’usage renforcéRéférences multiples
PrixInchangé
PoidsHuggingFace (black-forest-labs/FLUX.2-klein-9b-kv)

A atualização é automática e gratuita para os usuários existentes do FLUX.2 [klein] 9B via API. Os utilizadores do modelo [klein] 4B podem aceder à versão 9B melhorada através de um novo endpoint em pré-visualização.

🔗 Anúncio BFL no X


Mistral AI Now Summit : Paris, 28 de maio de 2026

12 de março — Mistral AI anuncia o seu primeiro evento emblemático: o “AI Now Summit”, um dia dedicado à transformação por IA das empresas, agendado para 28 de maio de 2026 em Paris.

TemaDescrição
Código aberto empresarialO código aberto como base para transformações IA de ponta a ponta
Colocação em produçãoPassar de pilotos para implementações em larga escala
Infraestrutura de IAConstruir uma infraestrutura de nível empresarial
Inovações 2026Robótica, modelos visão-linguagem (VLMs), IA multimodal

O evento reunirá líderes de todo o mundo. As inscrições ainda não estão abertas; está disponível uma lista de espera em ainowsummit.com.

🔗 AI Now Summit no X


O que isso significa

O dia 12 de março ilustra duas tendências convergentes. Por um lado, os assistentes de IA generalistas — Claude, Perplexity, Google Maps — enriquecem-se com capacidades que reduzem o atrito entre a pergunta e a resposta acionável: já não é necessário escrever código para ver um gráfico, já não é preciso reformular para encontrar um restaurante. Por outro lado, os desenvolvedores recebem novos blocos programáticos: a Video API da OpenAI abre a geração de vídeo a fluxos de trabalho automatizados, e o Claude Code continua a aperfeiçoar-se para ambientes empresariais (Bedrock, proxies SSL, multiplataformas Windows/macOS).

O relatório Ramp AI Index confirma que este movimento se traduz em compras reais: com ~70% de quota de mercado entre novas empresas, a Anthropic já não se contenta em ser uma alternativa à OpenAI — tornou-se o ponto de entrada por defeito. A competição joga-se agora na qualidade das integrações e na fiabilidade em produção, não apenas na potência dos modelos.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator