Em 20 de abril de 2026, várias anúncios estruturantes se concentram: Anthropic e Amazon ampliam a sua parceria em torno de 5 GW de capacidade de cálculo e um investimento de $5B, GitHub suspende novas inscrições nos planos individuais Copilot enquanto aperta os limites de uso, e dois novos modelos elevam os benchmarks de coding — Kimi K2.6 em open-source e Qwen3.6-Max-Preview em proprietário. A OpenAI lança também o Codex Chronicle, uma memória contextual baseada em capturas de ecrã.
Anthropic e Amazon — 5 GW de compute, $5B de investimento
20 de abril — Anthropic e Amazon assinaram um novo acordo de infraestrutura que assegura até 5 gigawatts (GW) de capacidade de cálculo para o treino e a implementação de Claude. Uma capacidade significativa de Trainium2 chega já no segundo trimestre de 2026, com perto de 1 GW total de Trainium2 e Trainium3 esperado até ao fim de 2026.
O acordo estrutura-se em três vertentes:
| Vertente | Detalhe |
|---|---|
| Infraestrutura | Compromisso de mais de 100 mil milhões USD ao longo de 10 anos com a AWS, cobrindo Graviton e Trainium2 até ao Trainium4 |
| Claude Platform na AWS | A Claude Platform completa integrada diretamente na AWS — mesma conta, mesma faturação, sem contratos separados |
| Investimento | A Amazon investe hoje $5 mil milhões USD na Anthropic, com até $20 mil milhões USD adicionais no futuro |
A Anthropic revela que a sua receita anualizada ultrapassa agora 30 mil milhões USD, contra cerca de 9 mil milhões no fim de 2025. Este crescimento rápido colocou pressão sobre a infraestrutura existente, afetando a fiabilidade para os utilizadores gratuitos, Pro, Max e Team em horas de pico.
Mais de 100 000 clientes já executam Claude no Amazon Bedrock, e a Anthropic utiliza mais de um milhão de chips Trainium2. A Claude Platform completa está agora acessível diretamente a partir da conta AWS sem necessidade de contratos separados — uma mudança concreta para programadores e empresas já na AWS.
Claude continua, além disso, a ser o único modelo de IA de ponta disponível nas três principais plataformas cloud globais: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry).
“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”
🇵🇹 « Os nossos utilizadores dizem-nos que Claude é cada vez mais essencial à forma como trabalham, e temos de construir a infraestrutura para acompanhar uma procura em forte crescimento. » — Dario Amodei, via @AnthropicAI no X
GitHub Copilot — Suspensão das inscrições Pro/Pro+ e aperto dos limites
20 de abril — GitHub publica mudanças significativas nos planos Copilot individuais. As novas inscrições nos planos Pro, Pro+ e Student são suspensas imediatamente. O plano Copilot Free continua, por sua vez, aberto.
As mudanças em detalhe:
| Mudança | Detalhe |
|---|---|
| Pausa nas inscrições | Pro, Pro+, Student — fechados a novos utilizadores. Copilot Free continua aberto |
| Limites de uso | Pro+ oferece 5× os limites do Pro. Avisos no VS Code e no Copilot CLI à medida que se aproxima o limite |
| Modelos Opus | Opus removido do Copilot Pro. Opus 4.7 continua disponível apenas no Pro+. Opus 4.5 e 4.6 também serão removidos do Pro+ mais tarde |
| Reembolso | Possibilidade de cancelar e ser reembolsado pelo mês de abril, contactando o suporte entre 20 de abril e 20 de maio de 2026 |
Para os utilizadores já subscritos, os planos existentes mantêm-se ativos. O impacto concreto: os utilizadores Pro que tinham acesso aos modelos Opus perdem esse acesso, enquanto o Pro+ se torna de facto o tier intermédio com 5× mais quota. A janela de reembolso até 20 de maio deixa um mês para decidir.
🔗 GitHub Changelog — Mudanças nos planos individuais
Kimi K2.6 — SOTA open-source em coding e agents
20 de abril — Moonshot AI lança Kimi K2.6, novo modelo open-source que estabelece vários recordes (state of the art) nos benchmarks de coding e de agents. O anúncio gerou mais de 1,5 milhão de visualizações em poucas horas.
Benchmarks open-source:
| Benchmark | Score K2.6 |
|---|---|
| SWE-Bench Pro | 58,6 |
| SWE-bench Multilingual | 76,7 |
| HLE with tools | 54,0 |
| BrowseComp | 83,2 |
| Toolathlon | 50,0 |
| Charxiv w/ python | 86,7 |
| Math Vision w/ python | 93,2 |
As melhorias face ao K2.5 são substanciais. No coding de longa duração (long-horizon coding), o K2.6 encadeia até 4 000 chamadas de ferramentas numa sessão e pode correr mais de 12 horas de forma contínua, com generalização multi-linguagens (Rust, Go, Python) e multi-tarefas (frontend, DevOps, otimização de desempenho).
A arquitetura multi-agents também avançou: 300 subagents paralelos × 4 000 passos por execução, contra 100 subagents × 1 500 passos para o K2.5. O K2.6 suporta nativamente interfaces frontend avançadas — vídeos nas secções hero, shaders WebGL, animações GSAP + Framer Motion, renderizações 3D Three.js.
Os pesos estão disponíveis em open-source no HuggingFace. A API está acessível em platform.moonshot.ai, e o modelo funciona em modo chat e em modo agent em kimi.com.
🔗 Anúncio Kimi K2.6 no X — 🔗 Blog Kimi K2.6 — 🔗 Pesos no HuggingFace
Qwen3.6-Max-Preview — Antevisão do próximo modelo principal
20 de abril — Alibaba Qwen lança Qwen3.6-Max-Preview, uma antevisão do seu próximo modelo proprietário principal, sucessor do Qwen3.6-Plus.
Ganhos nos benchmarks face ao Qwen3.6-Plus:
| Benchmark | Ganho |
|---|---|
| SkillsBench | +9,9 |
| SciCode | +6,3 |
| NL2Repo | +5,0 |
| Terminal-Bench 2.0 | +3,8 |
| QwenChineseBench | +5,3 |
| SuperGPQA | +2,3 |
| ToolcallFormatIFBench | +2,8 |
O modelo posiciona-se em primeiro lugar em 6 benchmarks de coding importantes: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench e SciCode. Está disponível a partir de hoje em acesso antecipado via chat.qwen.ai e via a API Alibaba Cloud Model Studio sob o identificador qwen3.6-max-preview. É compatível com as specs OpenAI e Anthropic, e suporta o modo preserve_thinking para tarefas agenticas.
Trata-se de uma versão ainda em desenvolvimento ativo — são anunciadas iterações adicionais antes do lançamento final.
🔗 Anúncio Qwen no X — 🔗 Blog Qwen3.6-Max-Preview
Codex Chronicle (Research Preview) — Memória contextual por capturas de ecrã
20 de abril — A OpenAI lança Codex Chronicle em Research Preview, uma nova funcionalidade de memória contextual para o Codex. O Chronicle faz correr agentes em segundo plano para construir memórias a partir de capturas de ecrã recentes, permitindo ao Codex retomar uma sessão de trabalho sem que o utilizador tenha de atualizar manualmente o contexto.
Funcionamento: os agentes capturam o ecrã periodicamente, extraem o contexto de trabalho e armazenam memórias localmente no dispositivo. O utilizador pode inspecionar e modificar essas memórias. A OpenAI avisa que outras aplicações podem potencialmente aceder aos ficheiros de capturas.
Disponibilidade limitada no lançamento: reservado aos utilizadores Pro no macOS, excluído dos países da UE, Reino Unido e Suíça durante a fase de aprendizagem.
🔗 Anúncio Codex Chronicle no X
Grok — Extensões de vídeo coerentes
20 de abril — O Grok Imagine anuncia extensões de vídeo melhoradas (Smarter Video Extensions). O Grok vê agora o prompt original e o clip de origem para gerar extensões coerentes em conteúdo e em áudio. A continuidade áudio é mantida durante toda a duração da extensão. Disponível na app Grok e na web.
NotebookLM — Capas personalizadas para os notebooks
16 de abril — O NotebookLM permite agora adicionar uma ilustração de capa personalizada e uma descrição a qualquer notebook. A funcionalidade visa personalizar a apresentação em grelha antes de partilhar um notebook. Formato recomendado: imagem 16:9.
Em resumo
TeenAegis AI Danger Index (18 abr.) — No seu primeiro índice de perigosidade das IAs (AI Danger Index), a TeenAegis atribuiu à OpenAI a pontuação de risco mais baixa entre os fornecedores avaliados. O índice avalia a proteção dos utilizadores jovens: controlos adequados à idade, supervisão, denúncia e medidas de proteção. 🔗 Tweet OpenAI Newsroom
OpenAI Academy — 3M+ utilizadores (19 abr.) — A plataforma de formação em IA da OpenAI ultrapassa os 3 milhões de utilizadores, com eventos presenciais organizados esta semana de Varsóvia a Abilene (Texas), passando por Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom
O que isto significa
O acordo Anthropic-Amazon é estruturante em vários aspetos: formaliza uma dependência recíproca (a Anthropic precisa do compute, a Amazon precisa do Claude para tornar o Bedrock competitivo), e a faturação unificada AWS elimina uma fricção real para equipas já no ecossistema Amazon. O número de run-rate de $30B anualizados, multiplicado por mais de 3 em poucos meses, explica porque a infraestrutura está sob pressão e porque este acordo era urgente.
Do lado dos modelos, o dia 20 de abril ilustra uma dinâmica de compressão rápida das diferenças: o Kimi K2.6 em open-source atinge scores comparáveis aos de modelos proprietários lançados há poucas semanas, e o Qwen3.6-Max-Preview coloca a Alibaba na liderança dos benchmarks de coding antes mesmo da versão final. A reestruturação dos planos Copilot na GitHub assinala uma tensão entre adoção ampla (Free) e monetização sustentável (Pro+), com uma experiência de utilizador que se fragmenta segundo os tiers.
Fontes
- Anúncio oficial Anthropic + Amazon
- @AnthropicAI no X — tweet principal
- @AnthropicAI no X — detalhes $5B/$20B
- GitHub Changelog — Mudanças nos planos Copilot individuais
- @Kimi_Moonshot no X — Kimi K2.6
- Blog Kimi K2.6
- Kimi K2.6 no HuggingFace
- @Alibaba_Qwen no X — Qwen3.6-Max-Preview
- Blog Qwen3.6-Max-Preview
- @OpenAIDevs no X — Codex Chronicle
- @grok no X — Smarter Video Extensions
- @NotebookLM no X — Capas personalizadas
- @OpenAINewsroom — TeenAegis AI Danger Index
- @OpenAINewsroom — OpenAI Academy 3M+
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator