Pesquisar

Anthropic + Amazon 5 GW $5B, GitHub Copilot restructure ses plans, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Anthropic + Amazon 5 GW $5B, GitHub Copilot restructure ses plans, Kimi K2.6 SOTA open-source, Qwen3.6-Max-Preview, Codex Chronicle

Em 20 de abril de 2026, várias anúncios estruturantes se concentram: Anthropic e Amazon ampliam a sua parceria em torno de 5 GW de capacidade de cálculo e um investimento de $5B, GitHub suspende novas inscrições nos planos individuais Copilot enquanto aperta os limites de uso, e dois novos modelos elevam os benchmarks de coding — Kimi K2.6 em open-source e Qwen3.6-Max-Preview em proprietário. A OpenAI lança também o Codex Chronicle, uma memória contextual baseada em capturas de ecrã.


Anthropic e Amazon — 5 GW de compute, $5B de investimento

20 de abril — Anthropic e Amazon assinaram um novo acordo de infraestrutura que assegura até 5 gigawatts (GW) de capacidade de cálculo para o treino e a implementação de Claude. Uma capacidade significativa de Trainium2 chega já no segundo trimestre de 2026, com perto de 1 GW total de Trainium2 e Trainium3 esperado até ao fim de 2026.

O acordo estrutura-se em três vertentes:

VertenteDetalhe
InfraestruturaCompromisso de mais de 100 mil milhões USD ao longo de 10 anos com a AWS, cobrindo Graviton e Trainium2 até ao Trainium4
Claude Platform na AWSA Claude Platform completa integrada diretamente na AWS — mesma conta, mesma faturação, sem contratos separados
InvestimentoA Amazon investe hoje $5 mil milhões USD na Anthropic, com até $20 mil milhões USD adicionais no futuro

A Anthropic revela que a sua receita anualizada ultrapassa agora 30 mil milhões USD, contra cerca de 9 mil milhões no fim de 2025. Este crescimento rápido colocou pressão sobre a infraestrutura existente, afetando a fiabilidade para os utilizadores gratuitos, Pro, Max e Team em horas de pico.

Mais de 100 000 clientes já executam Claude no Amazon Bedrock, e a Anthropic utiliza mais de um milhão de chips Trainium2. A Claude Platform completa está agora acessível diretamente a partir da conta AWS sem necessidade de contratos separados — uma mudança concreta para programadores e empresas já na AWS.

Claude continua, além disso, a ser o único modelo de IA de ponta disponível nas três principais plataformas cloud globais: AWS (Bedrock), Google Cloud (Vertex AI) e Microsoft Azure (Foundry).

“Our users tell us Claude is increasingly essential to how they work, and we need to build the infrastructure to keep pace with rapidly growing demand.”

🇵🇹 « Os nossos utilizadores dizem-nos que Claude é cada vez mais essencial à forma como trabalham, e temos de construir a infraestrutura para acompanhar uma procura em forte crescimento. »Dario Amodei, via @AnthropicAI no X

🔗 Anúncio oficial Anthropic


GitHub Copilot — Suspensão das inscrições Pro/Pro+ e aperto dos limites

20 de abril — GitHub publica mudanças significativas nos planos Copilot individuais. As novas inscrições nos planos Pro, Pro+ e Student são suspensas imediatamente. O plano Copilot Free continua, por sua vez, aberto.

As mudanças em detalhe:

MudançaDetalhe
Pausa nas inscriçõesPro, Pro+, Student — fechados a novos utilizadores. Copilot Free continua aberto
Limites de usoPro+ oferece 5× os limites do Pro. Avisos no VS Code e no Copilot CLI à medida que se aproxima o limite
Modelos OpusOpus removido do Copilot Pro. Opus 4.7 continua disponível apenas no Pro+. Opus 4.5 e 4.6 também serão removidos do Pro+ mais tarde
ReembolsoPossibilidade de cancelar e ser reembolsado pelo mês de abril, contactando o suporte entre 20 de abril e 20 de maio de 2026

Para os utilizadores já subscritos, os planos existentes mantêm-se ativos. O impacto concreto: os utilizadores Pro que tinham acesso aos modelos Opus perdem esse acesso, enquanto o Pro+ se torna de facto o tier intermédio com 5× mais quota. A janela de reembolso até 20 de maio deixa um mês para decidir.

🔗 GitHub Changelog — Mudanças nos planos individuais


Kimi K2.6 — SOTA open-source em coding e agents

20 de abril — Moonshot AI lança Kimi K2.6, novo modelo open-source que estabelece vários recordes (state of the art) nos benchmarks de coding e de agents. O anúncio gerou mais de 1,5 milhão de visualizações em poucas horas.

Benchmarks open-source:

BenchmarkScore K2.6
SWE-Bench Pro58,6
SWE-bench Multilingual76,7
HLE with tools54,0
BrowseComp83,2
Toolathlon50,0
Charxiv w/ python86,7
Math Vision w/ python93,2

As melhorias face ao K2.5 são substanciais. No coding de longa duração (long-horizon coding), o K2.6 encadeia até 4 000 chamadas de ferramentas numa sessão e pode correr mais de 12 horas de forma contínua, com generalização multi-linguagens (Rust, Go, Python) e multi-tarefas (frontend, DevOps, otimização de desempenho).

A arquitetura multi-agents também avançou: 300 subagents paralelos × 4 000 passos por execução, contra 100 subagents × 1 500 passos para o K2.5. O K2.6 suporta nativamente interfaces frontend avançadas — vídeos nas secções hero, shaders WebGL, animações GSAP + Framer Motion, renderizações 3D Three.js.

Os pesos estão disponíveis em open-source no HuggingFace. A API está acessível em platform.moonshot.ai, e o modelo funciona em modo chat e em modo agent em kimi.com.

🔗 Anúncio Kimi K2.6 no X — 🔗 Blog Kimi K2.6 — 🔗 Pesos no HuggingFace


Qwen3.6-Max-Preview — Antevisão do próximo modelo principal

20 de abril — Alibaba Qwen lança Qwen3.6-Max-Preview, uma antevisão do seu próximo modelo proprietário principal, sucessor do Qwen3.6-Plus.

Ganhos nos benchmarks face ao Qwen3.6-Plus:

BenchmarkGanho
SkillsBench+9,9
SciCode+6,3
NL2Repo+5,0
Terminal-Bench 2.0+3,8
QwenChineseBench+5,3
SuperGPQA+2,3
ToolcallFormatIFBench+2,8

O modelo posiciona-se em primeiro lugar em 6 benchmarks de coding importantes: SWE-bench Pro, Terminal-Bench 2.0, SkillsBench, QwenClawBench, QwenWebBench e SciCode. Está disponível a partir de hoje em acesso antecipado via chat.qwen.ai e via a API Alibaba Cloud Model Studio sob o identificador qwen3.6-max-preview. É compatível com as specs OpenAI e Anthropic, e suporta o modo preserve_thinking para tarefas agenticas.

Trata-se de uma versão ainda em desenvolvimento ativo — são anunciadas iterações adicionais antes do lançamento final.

🔗 Anúncio Qwen no X — 🔗 Blog Qwen3.6-Max-Preview


Codex Chronicle (Research Preview) — Memória contextual por capturas de ecrã

20 de abril — A OpenAI lança Codex Chronicle em Research Preview, uma nova funcionalidade de memória contextual para o Codex. O Chronicle faz correr agentes em segundo plano para construir memórias a partir de capturas de ecrã recentes, permitindo ao Codex retomar uma sessão de trabalho sem que o utilizador tenha de atualizar manualmente o contexto.

Funcionamento: os agentes capturam o ecrã periodicamente, extraem o contexto de trabalho e armazenam memórias localmente no dispositivo. O utilizador pode inspecionar e modificar essas memórias. A OpenAI avisa que outras aplicações podem potencialmente aceder aos ficheiros de capturas.

Disponibilidade limitada no lançamento: reservado aos utilizadores Pro no macOS, excluído dos países da UE, Reino Unido e Suíça durante a fase de aprendizagem.

🔗 Anúncio Codex Chronicle no X


Grok — Extensões de vídeo coerentes

20 de abril — O Grok Imagine anuncia extensões de vídeo melhoradas (Smarter Video Extensions). O Grok vê agora o prompt original e o clip de origem para gerar extensões coerentes em conteúdo e em áudio. A continuidade áudio é mantida durante toda a duração da extensão. Disponível na app Grok e na web.

🔗 Anúncio Grok no X


NotebookLM — Capas personalizadas para os notebooks

16 de abril — O NotebookLM permite agora adicionar uma ilustração de capa personalizada e uma descrição a qualquer notebook. A funcionalidade visa personalizar a apresentação em grelha antes de partilhar um notebook. Formato recomendado: imagem 16:9.

🔗 Anúncio NotebookLM no X


Em resumo

TeenAegis AI Danger Index (18 abr.) — No seu primeiro índice de perigosidade das IAs (AI Danger Index), a TeenAegis atribuiu à OpenAI a pontuação de risco mais baixa entre os fornecedores avaliados. O índice avalia a proteção dos utilizadores jovens: controlos adequados à idade, supervisão, denúncia e medidas de proteção. 🔗 Tweet OpenAI Newsroom

OpenAI Academy — 3M+ utilizadores (19 abr.) — A plataforma de formação em IA da OpenAI ultrapassa os 3 milhões de utilizadores, com eventos presenciais organizados esta semana de Varsóvia a Abilene (Texas), passando por Cal State Bakersfield. 🔗 Tweet OpenAI Newsroom


O que isto significa

O acordo Anthropic-Amazon é estruturante em vários aspetos: formaliza uma dependência recíproca (a Anthropic precisa do compute, a Amazon precisa do Claude para tornar o Bedrock competitivo), e a faturação unificada AWS elimina uma fricção real para equipas já no ecossistema Amazon. O número de run-rate de $30B anualizados, multiplicado por mais de 3 em poucos meses, explica porque a infraestrutura está sob pressão e porque este acordo era urgente.

Do lado dos modelos, o dia 20 de abril ilustra uma dinâmica de compressão rápida das diferenças: o Kimi K2.6 em open-source atinge scores comparáveis aos de modelos proprietários lançados há poucas semanas, e o Qwen3.6-Max-Preview coloca a Alibaba na liderança dos benchmarks de coding antes mesmo da versão final. A reestruturação dos planos Copilot na GitHub assinala uma tensão entre adoção ampla (Free) e monetização sustentável (Pro+), com uma experiência de utilizador que se fragmenta segundo os tiers.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5.4-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator