Esta semana marca uma aceleração em três frentes simultâneas: os modelos abertos (Mistral Medium 3.5, NVIDIA Nemotron 3 Nano Omni), a infraestrutura de hardware (Google TPU de 8ª geração) e os ecossistemas de agentes (Vibe Remote Agents, Claude for Creative Work, GitHub Copilot). A ElevenLabs também atinge um novo patamar ao transformar o seu motor musical IA numa plataforma para o grande público com monetização.
Mistral Medium 3.5, Vibe Remote Agents e Le Chat Work Mode
29 de abril — A Mistral AI publica simultaneamente três anúncios importantes: o modelo Mistral Medium 3.5, os agentes remotos (remote agents) Vibe e o modo Trabalho (Work Mode) no Le Chat.
Mistral Medium 3.5 em pré-visualização pública
O Medium 3.5 é um modelo denso de 128 mil milhões de parâmetros que unifica seguimento de instruções, raciocínio e código num único conjunto de pesos, com uma janela de contexto de 256 000 tokens. Pode ser executado localmente em apenas quatro GPU.
| Característica | Valor |
|---|---|
| Arquitetura | Dense 128B |
| Contexto | 256 000 tokens |
| SWE-Bench Verified | 77,6 % |
| τ³-Telecom | 91,4 |
| Licença | MIT modificada (open weights) |
| API — tokens de entrada | $1,50 / milhão |
| API — tokens de saída | $7,50 / milhão |
| Self-hosting (GPU mín.) | 4 GPU |
O modelo supera o Devstral 2 e o Qwen3.5-397B-A17B no SWE-Bench Verified, o que o posiciona como referência entre os modelos de código open weights no momento do lançamento. Está disponível através da API Mistral, do Le Chat, do Vibe, dos terminais NVIDIA (build.nvidia.com) e do microserviço NVIDIA NIM.
Agentes remotos (remote agents) no Vibe
As sessões de código do Vibe podem agora ser executadas na nuvem, sem permanecerem abertas localmente. Várias sessões correm em paralelo enquanto o programador faz outra coisa. Uma sessão local pode ser “teleportada” para a nuvem com o seu histórico e o seu estado completo. No fim da tarefa, o agente abre automaticamente um pull request no GitHub e notifica o programador.
O Vibe integra-se nativamente com GitHub (código + PR), Linear e Jira (tickets), Sentry (incidentes), Slack e Teams (notificações). Cada sessão é executada numa sessão isolada.
Modo Trabalho (Work Mode) no Le Chat (pré-visualização)
Um novo modo agentic para tarefas complexas no Le Chat: pesquisa multi-fonte, síntese documental, triagem da caixa de correio, criação de tickets Jira, envio de resumos no Slack. Os conectores estão ativados por defeito no modo Trabalho. Cada ação visível exige uma aprovação explícita para operações sensíveis.
Google TPU de 8ª geração — TPU 8t e TPU 8i
29 de abril — O Google revela a sua oitava geração de chips TPU (Tensor Processing Unit), anunciada durante o Google Cloud Next ‘26 na semana anterior. Dois chips distintos compõem esta geração, cada um otimizado para uma fase diferente do ciclo da IA.
A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.
🇵🇹 Uma década em preparação, os chips para a era agentic chegaram. No evento Next ‘26 da @GoogleCloud na semana passada, revelámos as nossas TPUs de oitava geração. TPU 8t: 3 vezes mais potente do que a geração anterior, movimentação de dados 10 vezes mais rápida, 97% de utilização produtiva dos recursos, tempo de treino reduzido de meses para semanas. TPU 8i: memória interna triplicada, 80% melhor performance por dólar, redução de latência em 5 vezes. — @GoogleAI no X
TPU 8t — treino dos modelos
| Melhoria | Detalhe |
|---|---|
| Potência bruta | 3× superior à geração anterior |
| Débito de dados | 10× mais rápido (armazenamento → chips) |
| Utilização produtiva | 97 % dos recursos (deteção e redirecionamento automático de falhas) |
| Impacto | Tempo de treino reduzido de vários meses para algumas semanas |
TPU 8i — inferência para agentes IA
| Melhoria | Detalhe |
|---|---|
| Memória interna | Triplicada para gerir raciocínios complexos em várias etapas |
| Eficiência custo | +80 % de performance por dólar gasto |
| Latência | Reduzida em 5× graças a um novo motor integrado |
Estes chips são concebidos para a era agentic: o TPU 8t acelera a criação dos modelos, o TPU 8i permite que esses modelos ajam (reservar um voo, gerir uma agenda) em tempo quase real. O Google posiciona esta arquitetura dupla como a base tecnológica da próxima década.
Claude for Creative Work — Blender, Autodesk Fusion, Adobe e outros 5 conectores MCP
28 de abril — A Anthropic lança uma série de conectores MCP (Model Context Protocol) oficiais destinados aos profissionais das indústrias criativas, em parceria com Blender, Autodesk, Adobe, Ableton e Splice.
| Ferramenta | Utilização |
|---|---|
| Blender | Depuração de cenas 3D, criação de ferramentas, alterações em lote em todos os objetos |
| Autodesk Fusion | Criação e modificação de modelos 3D por linguagem natural |
| Adobe Creative Cloud | Concretização de imagens, vídeos e designs através de 50+ ferramentas CC |
| Ableton Live e Push | Exploração da documentação oficial do produto |
| Splice | Pesquisa de samples livres de direitos diretamente a partir do Claude |
| Canva Affinity | Automatização de tarefas repetitivas de produção |
| SketchUp | Ponto de partida para modelação 3D por descrição textual |
| Resolume / Touchdesigner | Controlo em tempo real por linguagem natural para VJs e artistas visuais |
“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”
🇵🇹 O Claude liga-se agora às ferramentas que os profissionais criativos já utilizam. Com o novo conector Blender, pode depurar uma cena, criar novas ferramentas ou aplicar alterações em lote a todos os objetos, diretamente a partir do Claude. — @claudeai no X
A Anthropic também aderiu ao Blender Development Fund como doador patrono, apoiando o desenvolvimento do software livre. O tweet principal gerou mais de 10 milhões de visualizações em menos de 24 horas (o tweet da Autodesk Fusion chegou aos 11 milhões), o que faz desta uma das anúncios mais virais da Anthropic em vários meses.
Os casos de uso destacados: aprendizagem de software complexo, extensão de ferramentas por código (scripts, plugin, sistemas generativos via Claude Code), ponte entre ferramentas num pipeline, automatização de tarefas repetitivas (processamento em lote, scaffolding).
NVIDIA Nemotron 3 Nano Omni — modelo omnimodal open source 30B
28 de abril — A NVIDIA lança o Nemotron 3 Nano Omni, um modelo omnimodal open source que unifica visão, áudio e linguagem numa única arquitetura.
| Parâmetro | Valor |
|---|---|
| Arquitetura | Híbrida MoE 30B-A3B (30B total, 3B ativos) |
| Contexto | 256K tokens |
| Modalidades (entrada) | Texto, imagens, áudio, vídeo, documentos, gráficos, interfaces |
| Modalidades (saída) | Texto |
| Eficiência | 9× mais débito do que os outros modelos omnimodais abertos |
| Disponibilidade | Hugging Face, OpenRouter, build.nvidia.com, 25+ plataformas parceiras |
O modelo destaca-se em três casos de uso: computer use (navegação em interfaces gráficas na resolução nativa 1920×1080), inteligência documental (interpretação de PDF, tabelas, gráficos, capturas de ecrã) e manutenção do contexto áudio-vídeo num fluxo de raciocínio único.
Organizações como Aible, H Company, Palantir, Foxconn e Oracle estão a avaliar o modelo desde o lançamento. A H Company integra-o no seu agente de computer use.
“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”
🇵🇹 Para construir agentes úteis, não se pode esperar vários segundos para que um modelo interprete um ecrã. Ao construir sobre o Nemotron 3 Nano Omni, os nossos agentes conseguem interpretar rapidamente gravações de ecrã em full HD — algo que antes não era prático. — Gautier Cloix, CEO da H Company
A família Nemotron atinge também 50 milhões de downloads acumulados em todas as variantes Nano/Super/Ultra num ano.
ElevenMusic — plataforma musical IA (descoberta, remix, criação, monetização)
29 de abril — A ElevenLabs lança o ElevenMusic, uma plataforma musical IA que liga escuta, remix e criação original num único sistema, com monetização direta para os artistas.
| Funcionalidade | Descrição |
|---|---|
| Descoberta | 4 000+ artistas independentes, catálogo curado |
| Remix | Mudar o género, o tempo, reinterpretar uma faixa |
| Criação | A partir de letras, melodia ou ambiente |
| Publicação | Difusão + monetização através do envolvimento dos fãs |
O modelo económico inspira-se na Voice Library da ElevenLabs, que já distribuiu $11 milhões aos seus criadores. Os artistas publicam e ganham consoante o envolvimento dos ouvintes, sem intermediário discográfico.
O ElevenMusic é lançado com Eleven Album Vol. 2, uma compilação que inclui Danger Twins e Justin Love, concebida para ser experimentada e remixada dentro da plataforma. Kevin Jonas Sr. (Jonas Group Entertainment) e Amy Stroup (Danger Twins) fazem parte dos parceiros artísticos no lançamento.
“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”
🇵🇹 Os fãs querem sentir que fazem parte da música, dos compositores e dos artistas. O ElevenMusic dá-lhes uma forma de entrar, transformando uma canção em algo em que as pessoas podem entrar, e não apenas ouvir. — Kevin Jonas Sr., Fundador e Presidente da Jonas Group Entertainment
A plataforma está disponível em aplicação móvel e web a partir de 29 de abril de 2026.
🔗 Anúncio da @ElevenLabs no X — 🔗 Blog da ElevenLabs
GitHub Copilot code review — dupla faturação a partir de 1 de junho de 2026
27 de abril — O GitHub anuncia que, a partir de 1 de junho de 2026, cada revisão de código automatizada pelo GitHub Copilot consumirá minutos de GitHub Actions além dos créditos IA já previstos pelo novo modelo de utilização.
Até agora, as revisões de código do Copilot consumiam apenas unidades de pedidos premium (premium request units, PRU). A partir de 1 de junho, dois contadores serão ativados simultaneamente para os repositórios privados:
| Contador | Detalhe |
|---|---|
| IA Credits | Toda a utilização do Copilot (incluindo code review) faturada em créditos IA, em conformidade com o modelo de utilização |
| Minutos GitHub Actions | Consumidos a partir do pacote do plano para cada revisão em repositório privado; minutos adicionais faturados às tarifas padrão do Actions |
Esta dupla contagem explica-se pela arquitetura agentic do GitHub Copilot code review: a ferramenta apoia-se em runners GitHub-hosted para analisar o contexto alargado do repositório e produzir feedback mais relevante.
Planos abrangidos: Copilot Pro, Pro+, Business, Enterprise — incluindo revisões iniciadas por utilizadores sem licença através de faturação direta à organização.
Repositórios públicos: nenhuma alteração, os minutos Actions continuam gratuitos.
Para se preparar antes de 1 de junho:
- Verificar o consumo atual de Actions nas definições de faturação
- Ajustar os limites de despesa (spending limits) de Actions, se necessário
- Informar os responsáveis pela faturação da organização
OpenAI DevDay 2026 — São Francisco, 29 de setembro
29 de abril — A OpenAI anuncia o retorno do seu evento anual para desenvolvedores: o OpenAI DevDay 2026 acontecerá em 29 de setembro, em São Francisco. As inscrições oficiais ainda não foram abertas.
Para incentivar a expectativa, a OpenAI lança um concurso: desenvolvedores que construírem algo com GPT-5.5 e geração de imagens podem tentar ganhar um convite antecipado. O procedimento: enviar um link para o projeto acompanhado de uma nota explicando como ele foi construído, com a hashtag oficial #OpenAIDevDay2026.
| Detalhe | Valor |
|---|---|
| Data | 29 de setembro de 2026 |
| Local | São Francisco |
| Hashtag oficial | #OpenAIDevDay2026 |
| Visualizações do tweet (primeiras horas) | 239.000+ |
O anúncio foi publicado com cinco meses de antecedência, o que é incomumente cedo para um DevDay. As edições anteriores serviram de palco para os lançamentos de produtos mais estruturantes da OpenAI para a comunidade de desenvolvedores: em 2023, GPT-4 Turbo e a Assistants API foram apresentados lá. Com a atual aceleração do ritmo de lançamentos — GPT-5.5, geração de imagens, Codex CLI — o DevDay 2026 se desenha como uma etapa importante do calendário para equipes técnicas que integram os modelos da OpenAI em produção.
Um thread separado convida os desenvolvedores a compartilharem suas criações desde já. A conta @OpenAIDevs repercutiu o anúncio nos minutos seguintes à publicação principal.
Ecossistema de agentes e novas integrações
Claude Code CLI v2.1.120–2.1.123 — mais de 50 correções
28 de abril — A equipe do Claude Code detalha as correções feitas nas quatro versões mais recentes do CLI (v2.1.120 a v2.1.123): mais de 50 melhorias de estabilidade e desempenho.
| Métrica | Valor |
|---|---|
| Versões afetadas | v2.1.120, v2.1.121, v2.1.122, v2.1.123 |
| Número de correções | 50+ |
Ganho de desempenho /resume | Até 67% mais rápido |
| Visualizações do thread @ClaudeDevs | 493 k |
Os cinco eixos: sessões longas aceleradas (/resume até 67% mais rápido), autenticação no macOS estabilizada (uma dúzia de correções no keychain), memória reduzida no Linux, WebFetch sem travamentos em páginas volumosas, copiar e colar preservando as quebras de linha no Windows e no Xcode.
OpenAI × AWS — Codex e Managed Agents no Amazon Bedrock
28 de abril — A OpenAI e a AWS ampliam sua parceria estratégica em três frentes: acesso aos modelos OpenAI em ambientes AWS, Codex no Bedrock (prévia limitada, para organizações que desejam manter seus dados na infraestrutura da Amazon) e Bedrock Managed Agents impulsionados pela OpenAI (disponível imediatamente). O Codex tem mais de 4 milhões de usuários semanais.
Copilot cloud agent inicia 20% mais rápido
27 de abril — O GitHub Copilot cloud agent agora inicia mais de 20% mais rápido graças a ambientes de runner pré-configurados via imagens custom do GitHub Actions. Essa melhoria se soma à redução de 50% já entregue em março de 2026.
Gemini — geração de arquivos para download
29 de abril — O Gemini agora pode criar arquivos para download diretamente a partir do chat: PDF, Word (.docx), Excel (.xlsx), Google Docs/Sheets/Slides, CSV, LaTeX, RTF e Markdown. Disponível imediatamente para todos os usuários web e mobile.
Mistral Workflows em pré-visualização pública
27 de abril — A Mistral AI lança o Workflows em pré-visualização pública, uma camada de orquestração empresarial construída sobre o durable execution engine da Temporal (a mesma infraestrutura usada por Netflix, Stripe e Salesforce). Os fluxos são escritos em Python via SDK Mistral v3.0 e depois acionados a partir do Le Chat por equipes de negócio. As organizações ASML, France Travail e La Banque Postale já o utilizam.
Qwen FlashQLA — kernels de atenção linear
29 de abril — A Qwen publica o FlashQLA, uma biblioteca de kernels de atenção linear de alto desempenho construída sobre TileLang, projetada para IA agentic em dispositivos pessoais: ganhos de 2–3× na passagem direta (forward) e 2× na passagem reversa (backward). Publicado em open source no GitHub.
GPT Image 2 integrado ao Manus Slides
29 de abril — A Manus integra o GPT Image 2 ao Manus Slides: edição point-and-click de visuais, substituição por prompt, geração de notas de apresentação, exportação para Google Slides, PowerPoint, PDF, Google Drive e OneDrive.
Salesforce conectado ao Genspark
29 de abril — A Genspark integra o Salesforce ao seu ecossistema de agentes: conexão via Genspark Claw (instalação CLI por instrução) ou Super Agent (conexão direta). Casos de uso: processamento automático de solicitações de clientes, dashboards trimestrais, gestão automatizada do pipeline comercial.
GPT-5.5 e ChatGPT Images 2.0 no Genspark
28 de abril — A Genspark integra o GPT-5.5 ao seu chat de IA e o ChatGPT Images 2.0 (GPT Image 2) ao seu gerador de imagens, acessíveis respectivamente em genspark.ai/agents e genspark.ai/ai_image.
Pika Agents — interface conversacional criativa
28 de abril — A Pika lança os Pika Agents: uma interface de criação de vídeo que substitui a caixa de prompt por um agente de IA personalizado (voz, rosto e personalidade configurados pelo usuário). O agente entende as intenções criativas em linguagem natural e monta, refina e produz em uma única conversa.
Codex seats a $0 para ChatGPT Business até o fim de junho
29 de abril — A OpenAI permite que assinantes elegíveis do ChatGPT Business adicionem Codex seats sem custo por seat até o fim de junho de 2026, acompanhando a expansão do Codex na AWS.
Problema de Erdős com 60 anos resolvido com GPT-5.5
28 de abril — A OpenAI publica um episódio de podcast no qual Sébastien Bubeck e Ernest Ryu revisitam a resolução de um problema matemático em aberto havia 60 anos, atribuído a Paul Erdős, com a ajuda do GPT-5.5. O tweet ultrapassa 399.000 visualizações.
Breves
-
DeepSeek-V4-Pro: promoção de -75% prorrogada — O desconto de 75% na API DeepSeek-V4-Pro foi estendido até 31 de maio de 2026. Tarifas promocionais: $0,003625/M tokens na entrada (cache hit), $0,435 (cache miss), $0,87 na saída. 🔗 Tweet da DeepSeek
-
Google DeepMind — Experience AI na América Latina — O programa educacional Experience AI (Raspberry Pi Foundation) se expande para a América Latina com a meta de 24.000 professores formados e 1,25 milhão de alunos alcançados até 2028, financiado em $4,6 milhões pela Google.org. 🔗 Tweet do Google DeepMind
-
GPT-5.3-Codex removido do seletor do Copilot Student — A partir de 27 de abril de 2026, o GPT-5.3-Codex deixa de poder ser selecionado manualmente no plano Copilot Student; ele continua acessível via seleção automática. 🔗 Changelog do GitHub
-
Responses API — domínios bloqueados para busca na web — A Responses API da OpenAI agora permite bloquear domínios específicos enquanto mantém a busca na web ativada, para excluir fontes precisas dos resultados. 🔗 Tweet @charlierguo
-
OpenAI — compromisso com a segurança da comunidade — A OpenAI publica um artigo detalhando suas práticas de segurança no ChatGPT: mitigação de riscos no modelo, monitoramento automatizado, encaminhamento para recursos de ajuda e notificação às autoridades em casos graves. Publicação de transparência sem nova funcionalidade. 🔗 Anúncio da OpenAI
O que isso significa
A corrida pelos modelos abertos está se intensificando. O Mistral Medium 3.5 (128B, SWE-Bench 77,6%) e o NVIDIA Nemotron 3 Nano Omni (30B, 9× mais eficiente do que outros modelos omnimodais abertos) chegam simultaneamente com licenças permissivas. Ambos se posicionam como alternativas críveis às fronteiras fechadas: Mistral em código e raciocínio, Nemotron em multimodalidade agentic. Essa pressão mantém uma diferença cada vez menor entre modelos proprietários e open weights.
A infraestrutura de hardware continua sendo o gargalo estratégico. Os TPUs de 8ª geração do Google (3× em treinamento, 5× menos latência em inferência) ilustram que a corrida da IA também é disputada no nível do silício. O anúncio do Google Cloud Next ‘26 posiciona a infraestrutura do Google como uma vantagem competitiva duradoura frente às GPUs da NVIDIA — mesmo que ambas coexistam em implantações reais.
O ecossistema agentic está se fragmentando em especializações verticais. Nesta semana, os agentes de IA se instalam em ferramentas criativas (Claude for Creative Work com mais de 8 conectores MCP), desenvolvimento de software (Vibe Remote Agents, Copilot cloud agent 20% mais rápido), música (ElevenMusic), vídeo (Pika Agents), CRMs (Salesforce no Genspark) e workflows empresariais (Mistral Workflows). A pergunta já não é mais “a IA consegue fazer isso?”, mas sim “em qual ferramenta especializada e sob qual modelo de cobrança?”.
A cobrança por uso transforma os modelos econômicos dos desenvolvedores. A passagem do GitHub Copilot code review para uma dupla contagem (créditos de IA + minutos do Actions) a partir de 1º de junho, combinada com a oferta de Codex seats a $0 para ChatGPT Business, ilustra uma dinâmica: os editores subsidiam a adoção (gratuidade temporária, promoção de -75% da DeepSeek) para criar hábitos antes de normalizar a cobrança por uso. As equipes técnicas têm interesse em auditar seus gastos com IA antes de junho.
Fontes
- Mistral Medium 3.5 + Vibe Remote Agents
- Anúncio @mistralvibe no X
- Mistral Workflows
- Google TPU 8ª geração — @GoogleAI no X
- Claude for Creative Work — Anthropic
- NVIDIA Nemotron 3 Nano Omni — Blog da NVIDIA
- ElevenMusic — Blog da ElevenLabs
- GitHub Copilot code review → minutos do Actions
- Copilot cloud agent 20% mais rápido
- OpenAI DevDay 2026 — @OpenAI no X
- OpenAI × AWS
- Codex seats $0 — @OpenAIDevs no X
- Problema de Erdős — @OpenAI no X
- Gemini geração de arquivos — Blog do Google
- Qwen FlashQLA — GitHub
- GPT Image 2 no Manus Slides
- Salesforce no Genspark
- GPT-5.5 e ChatGPT Images 2.0 no Genspark
- Pika Agents
- Claude Code CLI v2.1.123 — @ClaudeDevs no X
- Promoção prorrogada do DeepSeek-V4-Pro
- Google DeepMind Experience AI América Latina
- GPT-5.3-Codex removido do Copilot Student
- Responses API domínios bloqueados
- OpenAI compromisso com a segurança da comunidade
Este documento foi traduzido da versão fr para o idioma pt utilizando o modelo gpt-5.4. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator