Pesquisar

Mistral Medium 3.5 e Vibe Remote Agents, Google TPU de 8ª geração, Claude for Creative Work

Mistral Medium 3.5 e Vibe Remote Agents, Google TPU de 8ª geração, Claude for Creative Work

Esta semana marca uma aceleração em três frentes simultâneas: os modelos abertos (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), a infraestrutura de hardware (Google TPU de 8ª geração) e os ecossistemas de agentes (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). A ElevenLabs também atinge um novo patamar ao transformar o seu motor musical IA numa plataforma para o grande público com monetização.


Mistral Medium 3.5, Vibe Remote Agents e Le Chat Work Mode

29 de abril — A Mistral AI publica simultaneamente três anúncios importantes: o modelo Mistral Medium 3.5, os agentes remotos (remote agents) Vibe e o modo Trabalho (Work Mode) no Le Chat.

Mistral Medium 3.5 em pré-visualização pública

O Medium 3.5 é um modelo denso de 128 mil milhões de parâmetros que unifica seguimento de instruções, raciocínio e código num único conjunto de pesos, com uma janela de contexto de 256 000 tokens. Pode ser executado localmente em apenas quatro GPU.

CaracterísticaValor
ArquiteturaDense 128B
Contexto256 000 tokens
SWE-Bench Verified77,6 %
τ³-Telecom91,4
LicençaMIT modificada (open weights)
API — tokens de entrada$1,50 / milhão
API — tokens de saída$7,50 / milhão
Self-hosting (GPU mín.)4 GPU

O modelo supera o Devstral 2 e o Qwen3.5-397B-A17B no SWE-Bench Verified, o que o posiciona como referência entre os modelos de código open weights no momento do lançamento. Está disponível através da API Mistral, do Le Chat, do Vibe, dos terminais NVIDIA (build.nvidia.com) e do microserviço NVIDIA NIM.

Agentes remotos (remote agents) no Vibe

As sessões de código do Vibe podem agora ser executadas na nuvem, sem permanecerem abertas localmente. Várias sessões correm em paralelo enquanto o programador faz outra coisa. Uma sessão local pode ser “teleportada” para a nuvem com o seu histórico e o seu estado completo. No fim da tarefa, o agente abre automaticamente um pull request no GitHub e notifica o programador.

O Vibe integra-se nativamente com GitHub (código + PR), Linear e Jira (tickets), Sentry (incidentes), Slack e Teams (notificações). Cada sessão é executada numa sessão isolada.

Modo Trabalho (Work Mode) no Le Chat (pré-visualização)

Um novo modo agentic para tarefas complexas no Le Chat: pesquisa multi-fonte, síntese documental, triagem da caixa de correio, criação de tickets Jira, envio de resumos no Slack. Os conectores estão ativados por defeito no modo Trabalho. Cada ação visível exige uma aprovação explícita para operações sensíveis.

🔗 Anúncio da Mistral no X


Google TPU de 8ª geração — TPU 8t e TPU 8i

29 de abril — O Google revela a sua oitava geração de chips TPU (Tensor Processing Unit), anunciada durante o Google Cloud Next ‘26 na semana anterior. Dois chips distintos compõem esta geração, cada um otimizado para uma fase diferente do ciclo da IA.

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇵🇹 Uma década em preparação, os chips para a era agentic chegaram. No evento Next ‘26 da @GoogleCloud na semana passada, revelámos as nossas TPUs de oitava geração. TPU 8t: 3 vezes mais potente do que a geração anterior, movimentação de dados 10 vezes mais rápida, 97% de utilização produtiva dos recursos, tempo de treino reduzido de meses para semanas. TPU 8i: memória interna triplicada, 80% melhor performance por dólar, redução de latência em 5 vezes.@GoogleAI no X

TPU 8t — treino dos modelos

MelhoriaDetalhe
Potência bruta3× superior à geração anterior
Débito de dados10× mais rápido (armazenamento → chips)
Utilização produtiva97 % dos recursos (deteção e redirecionamento automático de falhas)
ImpactoTempo de treino reduzido de vários meses para algumas semanas

TPU 8i — inferência para agentes IA

MelhoriaDetalhe
Memória internaTriplicada para gerir raciocínios complexos em várias etapas
Eficiência custo+80 % de performance por dólar gasto
LatênciaReduzida em 5× graças a um novo motor integrado

Estes chips são concebidos para a era agentic: o TPU 8t acelera a criação dos modelos, o TPU 8i permite que esses modelos ajam (reservar um voo, gerir uma agenda) em tempo quase real. O Google posiciona esta arquitetura dupla como a base tecnológica da próxima década.


Claude for Creative Work — Blender, Autodesk Fusion, Adobe e outros 5 conectores MCP

28 de abril — A Anthropic lança uma série de conectores MCP (Model Context Protocol) oficiais destinados aos profissionais das indústrias criativas, em parceria com Blender, Autodesk, Adobe, Ableton e Splice.

FerramentaUtilização
BlenderDepuração de cenas 3D, criação de ferramentas, alterações em lote em todos os objetos
Autodesk FusionCriação e modificação de modelos 3D por linguagem natural
Adobe Creative CloudConcretização de imagens, vídeos e designs através de 50+ ferramentas CC
Ableton Live e PushExploração da documentação oficial do produto
SplicePesquisa de samples livres de direitos diretamente a partir do Claude
Canva AffinityAutomatização de tarefas repetitivas de produção
SketchUpPonto de partida para modelação 3D por descrição textual
Resolume / TouchdesignerControlo em tempo real por linguagem natural para VJs e artistas visuais

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇵🇹 O Claude liga-se agora às ferramentas que os profissionais criativos já utilizam. Com o novo conector Blender, pode depurar uma cena, criar novas ferramentas ou aplicar alterações em lote a todos os objetos, diretamente a partir do Claude.@claudeai no X

A Anthropic também aderiu ao Blender Development Fund como doador patrono, apoiando o desenvolvimento do software livre. O tweet principal gerou mais de 10 milhões de visualizações em menos de 24 horas (o tweet da Autodesk Fusion chegou aos 11 milhões), o que faz desta uma das anúncios mais virais da Anthropic em vários meses.

Os casos de uso destacados: aprendizagem de software complexo, extensão de ferramentas por código (scripts, plugin, sistemas generativos via Claude Code), ponte entre ferramentas num pipeline, automatização de tarefas repetitivas (processamento em lote, scaffolding).

🔗 Artigo da Anthropic


NVIDIA Nemotron 3 Nano Omni — modelo omnimodal open source 30B

28 de abril — A NVIDIA lança o Nemotron 3 Nano Omni, um modelo omnimodal open source que unifica visão, áudio e linguagem numa única arquitetura.

ParâmetroValor
ArquiteturaHíbrida MoE 30B-A3B (30B total, 3B ativos)
Contexto256K tokens
Modalidades (entrada)Texto, imagens, áudio, vídeo, documentos, gráficos, interfaces
Modalidades (saída)Texto
Eficiência9× mais débito do que os outros modelos omnimodais abertos
DisponibilidadeHugging Face, OpenRouter, build.nvidia.com, 25+ plataformas parceiras

O modelo destaca-se em três casos de uso: computer use (navegação em interfaces gráficas na resolução nativa 1920×1080), inteligência documental (interpretação de PDF, tabelas, gráficos, capturas de ecrã) e manutenção do contexto áudio-vídeo num fluxo de raciocínio único.

Organizações como Aible, H Company, Palantir, Foxconn e Oracle estão a avaliar o modelo desde o lançamento. A H Company integra-o no seu agente de computer use.

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇵🇹 Para construir agentes úteis, não se pode esperar vários segundos para que um modelo interprete um ecrã. Ao construir sobre o Nemotron 3 Nano Omni, os nossos agentes conseguem interpretar rapidamente gravações de ecrã em full HD — algo que antes não era prático. — Gautier Cloix, CEO da H Company

A família Nemotron atinge também 50 milhões de downloads acumulados em todas as variantes Nano/Super/Ultra num ano.

🔗 Blog da NVIDIA


ElevenMusic — plataforma musical IA (descoberta, remix, criação, monetização)

29 de abril — A ElevenLabs lança o ElevenMusic, uma plataforma musical IA que liga escuta, remix e criação original num único sistema, com monetização direta para os artistas.

FuncionalidadeDescrição
Descoberta4 000+ artistas independentes, catálogo curado
RemixMudar o género, o tempo, reinterpretar uma faixa
CriaçãoA partir de letras, melodia ou ambiente
PublicaçãoDifusão + monetização através do envolvimento dos fãs

O modelo económico inspira-se na Voice Library da ElevenLabs, que já distribuiu $11 milhões aos seus criadores. Os artistas publicam e ganham consoante o envolvimento dos ouvintes, sem intermediário discográfico.

O ElevenMusic é lançado com Eleven Album Vol. 2, uma compilação que inclui Danger Twins e Justin Love, concebida para ser experimentada e remixada dentro da plataforma. Kevin Jonas Sr. (Jonas Group Entertainment) e Amy Stroup (Danger Twins) fazem parte dos parceiros artísticos no lançamento.

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇵🇹 Os fãs querem sentir que fazem parte da música, dos compositores e dos artistas. O ElevenMusic dá-lhes uma forma de entrar, transformando uma canção em algo em que as pessoas podem entrar, e não apenas ouvir. — Kevin Jonas Sr., Fundador e Presidente da Jonas Group Entertainment

A plataforma está disponível em aplicação móvel e web a partir de 29 de abril de 2026.

🔗 Anúncio da @ElevenLabs no X — 🔗 Blog da ElevenLabs


GitHub Copilot code review — dupla faturação a partir de 1 de junho de 2026

27 de abril — O GitHub anuncia que, a partir de 1 de junho de 2026, cada revisão de código automatizada pelo GitHub Copilot consumirá minutos de GitHub Actions além dos créditos IA já previstos pelo novo modelo de utilização.

Até agora, as revisões de código do Copilot consumiam apenas unidades de pedidos premium (premium request units, PRU). A partir de 1 de junho, dois contadores serão ativados simultaneamente para os repositórios privados:

ContadorDetalhe
IA CreditsToda a utilização do Copilot (incluindo code review) faturada em créditos IA, em conformidade com o modelo de utilização
Minutos GitHub ActionsConsumidos a partir do pacote do plano para cada revisão em repositório privado; minutos adicionais faturados às tarifas padrão do Actions

Esta dupla contagem explica-se pela arquitetura agentic do GitHub Copilot code review: a ferramenta apoia-se em runners GitHub-hosted para analisar o contexto alargado do repositório e produzir feedback mais relevante.

Planos abrangidos: Copilot Pro, Pro+, Business, Enterprise — incluindo revisões iniciadas por utilizadores sem licença através de faturação direta à organização.

Repositórios públicos: nenhuma alteração, os minutos Actions continuam gratuitos.

Para se preparar antes de 1 de junho:

  • Verificar o consumo atual de Actions nas definições de faturação
  • Ajustar os limites de despesa (spending limits) de Actions, se necessário
  • Informar os responsáveis pela faturação da organização

🔗 Changelog do GitHub


OpenAI DevDay 2026 — São Francisco, 29 de setembro

29 de abril — A OpenAI anuncia o retorno do seu evento anual para desenvolvedores: o OpenAI DevDay 2026 acontecerá em 29 de setembro, em São Francisco. As inscrições oficiais ainda não foram abertas.

Para incentivar a expectativa, a OpenAI lança um concurso: desenvolvedores que construírem algo com GPT-5.5 e geração de imagens podem tentar ganhar um convite antecipado. O procedimento: enviar um link para o projeto acompanhado de uma nota explicando como ele foi construído, com a hashtag oficial #OpenAIDevDay2026.

DetalheValor
Data29 de setembro de 2026
LocalSão Francisco
Hashtag oficial#OpenAIDevDay2026
Visualizações do tweet (primeiras horas)239.000+

O anúncio foi publicado com cinco meses de antecedência, o que é incomumente cedo para um DevDay. As edições anteriores serviram de palco para os lançamentos de produtos mais estruturantes da OpenAI para a comunidade de desenvolvedores: em 2023, GPT-4 Turbo e a Assistants API foram apresentados lá. Com a atual aceleração do ritmo de lançamentos — GPT-5.5, geração de imagens, Codex CLI — o DevDay 2026 se desenha como uma etapa importante do calendário para equipes técnicas que integram os modelos da OpenAI em produção.

Um thread separado convida os desenvolvedores a compartilharem suas criações desde já. A conta @OpenAIDevs repercutiu o anúncio nos minutos seguintes à publicação principal.

🔗 Anúncio da OpenAI no X


Ecossistema de agentes e novas integrações

Claude Code CLI v2.1.120–2.1.123 — mais de 50 correções

28 de abril — A equipe do Claude Code detalha as correções feitas nas quatro versões mais recentes do CLI (v2.1.120 a v2.1.123): mais de 50 melhorias de estabilidade e desempenho.

MétricaValor
Versões afetadasv2.1.120, v2.1.121, v2.1.122, v2.1.123
Número de correções50+
Ganho de desempenho /resumeAté 67% mais rápido
Visualizações do thread @ClaudeDevs493 k

Os cinco eixos: sessões longas aceleradas (/resume até 67% mais rápido), autenticação no macOS estabilizada (uma dúzia de correções no keychain), memória reduzida no Linux, WebFetch sem travamentos em páginas volumosas, copiar e colar preservando as quebras de linha no Windows e no Xcode.

🔗 Thread @ClaudeDevs

OpenAI × AWS — Codex e Managed Agents no Amazon Bedrock

28 de abril — A OpenAI e a AWS ampliam sua parceria estratégica em três frentes: acesso aos modelos OpenAI em ambientes AWS, Codex no Bedrock (prévia limitada, para organizações que desejam manter seus dados na infraestrutura da Amazon) e Bedrock Managed Agents impulsionados pela OpenAI (disponível imediatamente). O Codex tem mais de 4 milhões de usuários semanais.

🔗 Anúncio da OpenAI

Copilot cloud agent inicia 20% mais rápido

27 de abril — O GitHub Copilot cloud agent agora inicia mais de 20% mais rápido graças a ambientes de runner pré-configurados via imagens custom do GitHub Actions. Essa melhoria se soma à redução de 50% já entregue em março de 2026.

🔗 Changelog do GitHub

Gemini — geração de arquivos para download

29 de abril — O Gemini agora pode criar arquivos para download diretamente a partir do chat: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF e Markdown. Disponível imediatamente para todos os usuários web e mobile.

🔗 Blog do Google

Mistral Workflows em pré-visualização pública

27 de abril — A Mistral AI lança o Workflows em pré-visualização pública, uma camada de orquestração empresarial construída sobre o durable execution engine da Temporal (a mesma infraestrutura usada por Netflix, Stripe e Salesforce). Os fluxos são escritos em Python via SDK Mistral v3.0 e depois acionados a partir do Le Chat por equipes de negócio. As organizações ASML, France Travail e La Banque Postale já o utilizam.

🔗 Anúncio da Mistral

Qwen FlashQLA — kernels de atenção linear

29 de abril — A Qwen publica o FlashQLA, uma biblioteca de kernels de atenção linear de alto desempenho construída sobre TileLang, projetada para IA agentic em dispositivos pessoais: ganhos de 2–3× na passagem direta (forward) e 2× na passagem reversa (backward). Publicado em open source no GitHub.

🔗 GitHub QwenLM/FlashQLA

GPT Image 2 integrado ao Manus Slides

29 de abril — A Manus integra o GPT Image 2 ao Manus Slides: edição point-and-click de visuais, substituição por prompt, geração de notas de apresentação, exportação para Google Slides, PowerPoint, PDF, Google Drive e OneDrive.

🔗 Anúncio da Manus

Salesforce conectado ao Genspark

29 de abril — A Genspark integra o Salesforce ao seu ecossistema de agentes: conexão via Genspark Claw (instalação CLI por instrução) ou Super Agent (conexão direta). Casos de uso: processamento automático de solicitações de clientes, dashboards trimestrais, gestão automatizada do pipeline comercial.

🔗 Anúncio da Genspark

GPT-5.5 e ChatGPT Images 2.0 no Genspark

28 de abril — A Genspark integra o GPT-5.5 ao seu chat de IA e o ChatGPT Images 2.0 (GPT Image 2) ao seu gerador de imagens, acessíveis respectivamente em genspark.ai/agents e genspark.ai/ai_image.

🔗 Anúncio da Genspark

Pika Agents — interface conversacional criativa

28 de abril — A Pika lança os Pika Agents: uma interface de criação de vídeo que substitui a caixa de prompt por um agente de IA personalizado (voz, rosto e personalidade configurados pelo usuário). O agente entende as intenções criativas em linguagem natural e monta, refina e produz em uma única conversa.

🔗 Anúncio da Pika

Codex seats a $0 para ChatGPT Business até o fim de junho

29 de abril — A OpenAI permite que assinantes elegíveis do ChatGPT Business adicionem Codex seats sem custo por seat até o fim de junho de 2026, acompanhando a expansão do Codex na AWS.

🔗 Anúncio @OpenAIDevs

Problema de Erdős com 60 anos resolvido com GPT-5.5

28 de abril — A OpenAI publica um episódio de podcast no qual Sébastien Bubeck e Ernest Ryu revisitam a resolução de um problema matemático em aberto havia 60 anos, atribuído a Paul Erdős, com a ajuda do GPT-5.5. O tweet ultrapassa 399.000 visualizações.

🔗 Tweet da OpenAI


Breves

  • DeepSeek-V4-Pro: promoção de -75% prorrogada — O desconto de 75% na API DeepSeek-V4-Pro foi estendido até 31 de maio de 2026. Tarifas promocionais: $0,003625/M tokens na entrada (cache hit), $0,435 (cache miss), $0,87 na saída. 🔗 Tweet da DeepSeek

  • Google DeepMind — Experience AI na América Latina — O programa educacional Experience AI (Raspberry Pi Foundation) se expande para a América Latina com a meta de 24.000 professores formados e 1,25 milhão de alunos alcançados até 2028, financiado em $4,6 milhões pela Google.org. 🔗 Tweet do Google DeepMind

  • GPT-5.3-Codex removido do seletor do Copilot Student — A partir de 27 de abril de 2026, o GPT-5.3-Codex deixa de poder ser selecionado manualmente no plano Copilot Student; ele continua acessível via seleção automática. 🔗 Changelog do GitHub

  • Responses API — domínios bloqueados para busca na web — A Responses API da OpenAI agora permite bloquear domínios específicos enquanto mantém a busca na web ativada, para excluir fontes precisas dos resultados. 🔗 Tweet @charlierguo

  • OpenAI — compromisso com a segurança da comunidade — A OpenAI publica um artigo detalhando suas práticas de segurança no ChatGPT: mitigação de riscos no modelo, monitoramento automatizado, encaminhamento para recursos de ajuda e notificação às autoridades em casos graves. Publicação de transparência sem nova funcionalidade. 🔗 Anúncio da OpenAI


O que isso significa

A corrida pelos modelos abertos está se intensificando. O Mistral Medium 3.5 (128B, SWE-Bench 77,6%) e o NVIDIA Nemotron 3 Nano Omni (30B, 9× mais eficiente do que outros modelos omnimodais abertos) chegam simultaneamente com licenças permissivas. Ambos se posicionam como alternativas críveis às fronteiras fechadas: Mistral em código e raciocínio, Nemotron em multimodalidade agentic. Essa pressão mantém uma diferença cada vez menor entre modelos proprietários e open weights.

A infraestrutura de hardware continua sendo o gargalo estratégico. Os TPUs de 8ª geração do Google (3× em treinamento, 5× menos latência em inferência) ilustram que a corrida da IA também é disputada no nível do silício. O anúncio do Google Cloud Next ‘26 posiciona a infraestrutura do Google como uma vantagem competitiva duradoura frente às GPUs da NVIDIA — mesmo que ambas coexistam em implantações reais.

O ecossistema agentic está se fragmentando em especializações verticais. Nesta semana, os agentes de IA se instalam em ferramentas criativas (Claude for Creative Work com mais de 8 conectores MCP), desenvolvimento de software (Vibe Remote Agents, Copilot cloud agent 20% mais rápido), música (ElevenMusic), vídeo (Pika Agents), CRMs (Salesforce no Genspark) e workflows empresariais (Mistral Workflows). A pergunta já não é mais “a IA consegue fazer isso?”, mas sim “em qual ferramenta especializada e sob qual modelo de cobrança?”.

A cobrança por uso transforma os modelos econômicos dos desenvolvedores. A passagem do GitHub Copilot code review para uma dupla contagem (créditos de IA + minutos do Actions) a partir de 1º de junho, combinada com a oferta de Codex seats a $0 para ChatGPT Business, ilustra uma dinâmica: os editores subsidiam a adoção (gratuidade temporária, promoção de -75% da DeepSeek) para criar hábitos antes de normalizar a cobrança por uso. As equipes técnicas têm interesse em auditar seus gastos com IA antes de junho.


Fontes

Este documento foi traduzido da versão fr para o idioma pt utilizando o modelo gpt-5.4. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator