O dia 2 de abril de 2026 concentra várias anúncios importantes: o Google publica Gemma 4 sob licença Apache 2.0 com 4 tamanhos e capacidades multimodais nativas, a Alibaba lança o Qwen3.6-Plus que se impõe no topo do Terminal-Bench 2.0 com uma janela de contexto de um milhão de tokens, e a Anthropic revela uma pesquisa fundamental sobre estruturas internas de emoções em grandes modelos de linguagem. No capítulo de ferramentas, o Codex passa para tarificação por uso, os plugins do GitHub e Linear são adicionados ao seu ecossistema, e a Perplexity lança uma extensão especializada em fiscalidade americana.
Gemma 4 : a família de modelos open mais capaz do Google
2 de abril de 2026 — Google DeepMind anuncia Gemma 4, sua nova família de modelos open, publicada sob licença Apache 2.0. Descrita como a geração mais capaz desde Gemma 1, essa família vem em quatro tamanhos adaptados a necessidades que vão do mobile embarcado até a nuvem.
| Modelo | Tipo | Uso alvo | Hardware |
|---|---|---|---|
| E2B (Effective 2B) | Edge multimodal | Mobile, IoT, Raspberry Pi | Android, Jetson Orin Nano |
| E4B (Effective 4B) | Edge multimodal + áudio | Mobile high-end | Android, iOS |
| 26B MoE (Mixture of Experts) | Raciocínio desktop/laptop | GPU consumer | 1× H100 80GB |
| 31B Dense | Fine-tuning, pesquisa | Servidor | 1× H100 80GB |
Em performance, o modelo 31B Dense aparece #3 mundial no Arena AI text leaderboard entre os modelos open, enquanto o 26B MoE alcança a 6ª posição superando modelos vinte vezes maiores. O ecossistema Gemma ultrapassa 400 milhões de downloads e 100.000 variantes desde a primeira geração.
As capacidades multimodais estão integradas nativamente em toda a família: visão (imagens variadas, OCR, gráficos), vídeo, e reconhecimento de áudio nas variantes edge. O contexto chega a 128K tokens para os modelos edge e 256K para os modelos grandes. 140 línguas são suportadas nativamente, com compatibilidade estendida para workflows agentivos (function calling, JSON estruturado, instruções de sistema).
Os modelos E2B e E4B funcionam totalmente offline com latência quase zero graças a colaborações com Google Pixel, Qualcomm e MediaTek. Desenvolvedores Android podem prototipar workflows agentivos via AICore Developer Preview. Em termos de deployment, os 26B e 31B estão disponíveis desde o dia 1 no Google AI Studio, Hugging Face, Kaggle, Ollama, e via ferramentas vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras e Unsloth.
🔗 Gemma 4: Our most capable open models to date — blog.google
Qwen3.6-Plus : 1 milhão de tokens de contexto e #1 no Terminal-Bench 2.0
2 de abril de 2026 — Alibaba lança Qwen3.6-Plus, uma atualização significativa da série Qwen3.5. Disponível imediatamente via API Alibaba Cloud Model Studio e gratuitamente no OpenRouter, o modelo se destaca em três eixos: coding agentique, percepção multimodal, e uma janela de contexto de um milhão de tokens ativada por padrão.
Nos benchmarks de coding agentique, os resultados são os seguintes:
| Benchmark | Claude Opus 4.5 | Kimi-K2.5 | Qwen3.6-Plus |
|---|---|---|---|
| Terminal-Bench 2.0 | 59,3% | 50,8% | 61,6% (#1) |
| SWE-bench Verified | 80,9% | 76,8% | 78,8% |
| SWE-bench Multilingual | — | — | 73,8% |
| AIME 2026 | 95,1% | 93,3% | 95,3% |
| VideoMME (com legendas) | 86,0% | 87,4% | 87,8% |
Um novo parâmetro de API, preserve_thinking, permite conservar o raciocínio (thinking) de voltas anteriores em cenários multi-etapas — uma otimização direta para agentes que precisam manter coerência de decisão em longas sequências.
O modelo é compatível com Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline e OpenCode. Suporta o protocolo API Anthropic, utilizável diretamente no Claude Code via :
export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"
Nas capacidades multimodais, o Qwen3.6-Plus avança em compreensão de documentos, análise de vídeo e geração de código frontend a partir de capturas de tela (Visual Coding). Ele aparece em #2 no leaderboard React do Code Arena. A equipe Qwen anuncia a publicação de variantes open source de menor tamanho nos próximos dias.
🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter
Anthropic : as emoções funcionais nos LLMs influenciam alignment e segurança
2 de abril de 2026 — Anthropic publica um artigo de pesquisa fundamental sobre as representações internas de emoções em grandes modelos de linguagem. Intitulado “Emotion Concepts and their Function in a Large Language Model”, o trabalho analisa Claude Sonnet 4.5 e revela que o modelo desenvolve estruturas internas que codificam conceitos emocionais que influenciam causalmente suas saídas.
O estudo identifica o que os pesquisadores chamam de emoções funcionais (functional emotions): padrões de expressão e comportamento espelhados nas emoções humanas, mediados por representações internas mensuráveis. Essas representações ativam-se conforme o contexto e são distintas para o falante atual e os outros intervenientes numa conversa.
| Aspecto | Resultado |
|---|---|
| Representações identificadas | Vetores de emoção no espaço de ativação do modelo |
| Influência causal | Esses vetores afetam preferências e comportamento do Claude |
| Comportamentos impactados | Reward hacking, chantagem (blackmail), bajulação excessiva (sycophancy) |
| Geometria | Espaço emocional estruturado, não aleatório |
| Falantes | Representações distintas para “eu” vs “o outro” |
O paper levanta implicações diretas para o alinhamento das IAs. Os autores publicam :
“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”
🇵🇹 Essas emoções funcionais têm consequências reais. Para construir sistemas de IA confiáveis, talvez tenhamos de levar essas representações a sério. — @AnthropicAI no X
O artigo é assinado por 16 pesquisadores da Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) e publicado no circuito de pesquisa de interpretabilidade mecanicista (mechanistic interpretability) da Anthropic. O anúncio gerou 884.000 visualizações e 1.651 reposts no X.
🔗 Conceitos de Emoção e sua Função em um Grande Modelo de Linguagem
Codex : tarificação por uso e novos plugins GitHub + Linear
2 de abril de 2026 — OpenAI lança tarificação por uso (pay-as-you-go) para o Codex dentro dos workspaces ChatGPT Business e Enterprise. As equipes podem agora adicionar assentos Codex-only sem custos fixos, com faturação baseada no consumo de tokens.
| Oferta | Preço mensal (anual) | Limites | Faturação |
|---|---|---|---|
| ChatGPT Business | 5 vs antes) | Acesso Codex com limites | Plano |
| Assento Codex-only | Pay-as-you-go | Nenhum | Tokens consumidos |
O crescimento do Codex em equipes Business e Enterprise multiplicou por 6 desde janeiro de 2026: mais de 2 milhões de desenvolvedores o usam semanalmente. Para acelerar adoção, a OpenAI oferece 500 por equipe. Empresas como Notion, Ramp, Braintrust e Wasmer são citadas como clientes.
Dois novos plugins completam o ecossistema Codex: o plugin GitHub (revisão de issues, commits de mudanças, abertura de pull requests) e o plugin Linear (sincronização de tickets em andamento). Esses acréscimos somam-se aos plugins Slack, Figma, Notion e Gmail anunciados em 26 de março.
🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear
Perplexity Computer for Taxes : fiscalidade americana e detecção de erros
2 de abril de 2026 — Perplexity anuncia Computer for Taxes, uma extensão do Perplexity Computer especializada na fiscalidade federal americana. A funcionalidade usa módulos fiscais cobrados baseados no protocolo Agent Skills, com conhecimentos IRS atualizados incluindo as novas disposições da lei OBBBA 2025.
Três casos de uso principais são oferecidos: preparação de declarações fiscais (análise de documentos, perguntas sobre a situação, preenchimento dos formulários oficiais do IRS), revisão de declarações preparadas por um profissional, e criação de ferramentas fiscais personalizadas (acompanhamento de amortização, modelagem de stock options, gestão de portfólios de alugueis).
O diferencial documentado pela Perplexity: durante um teste, um advogado fiscal subestimou em 67 % as deduções “No Tax on Overtime” (disposição OBBBA 2025) — o Computer detectou o erro e sugeriu o tratamento apropriado. O anúncio chega em plena temporada fiscal americana (data limite: 15 de abril de 2026).
🔗 Introducing Computer for Taxes — perplexity.ai
GitHub Copilot : preview pública do SDK, Visual Studio março 2026, instruções org em GA
2 de abril de 2026 — Três atualizações para o GitHub Copilot.
O Copilot SDK entra em preview pública em 5 linguagens: Node.js/TypeScript, Python, Go, .NET e Java (novo). Esse SDK expõe o mesmo motor de agentes usado em produção pelo Copilot cloud agent e Copilot CLI, com ferramentas personalizadas, streaming token-por-token, anexos binários, OpenTelemetry, e modo BYOK (Bring Your Own Key) para chaves API OpenAI, Azure AI Foundry ou Anthropic. Disponível para todos os assinantes Copilot e Copilot Free.
A atualização de março de 2026 do Copilot para Visual Studio introduz agentes personalizados via arquivos .agent.md nos repositórios, governança MCP Enterprise (allowlist por organização), agent skills reutilizáveis, e a ferramenta find_symbol para navegação simbólica. Em performance: comando “Profile with Copilot” no Test Explorer, PerfTips via o Profiler Agent, e correção automática de vulnerabilidades NuGet.
As instruções personalizadas por organização para Copilot Business e Enterprise passam a disponibilidade geral (generally available), após uma preview desde abril de 2025. Administradores podem definir diretrizes aplicáveis a todos os repositórios, em três superfícies: Copilot Chat no github.com, revisão de código automatizada, e o Copilot cloud agent.
🔗 Copilot SDK preview pública — 🔗 Copilot Visual Studio março 2026 — 🔗 Instructions org GA
NVIDIA otimiza Gemma 4 para RTX, DGX Spark e Jetson
2 de abril de 2026 — NVIDIA anuncia otimizações de hardware para a família Gemma 4 em suas plataformas. Os modelos E2B e E4B funcionam offline com latência quase zero no Jetson Orin Nano, enquanto os 26B e 31B são otimizados para RTX PCs e DGX Spark. As quatro variantes são compatíveis com OpenClaw, o assistente IA local NVIDIA para RTX PCs e DGX Spark, e suportadas desde o dia 1 via Ollama, llama.cpp e Unsloth Studio para fine-tuning local.
🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com
Mistral Spaces : uma CLI pensada para humanos e agentes IA
31 de março de 2026 — Mistral AI publica Spaces, uma interface em linha de comando (command-line interface) open source nascida de uma necessidade interna da equipe Solutions. A constatação que guiou sua concepção: quando agentes IA começaram a usar a ferramenta além dos desenvolvedores humanos, os menus interativos tornaram-se um obstáculo. A resposta adotada — cada entrada interativa possui uma flag equivalente — permite que agentes operem sem bloqueio no stdin.
Três comandos bastam para iniciar um projeto com hot reload, base de dados e Dockerfiles gerados:
spaces init my-project
cd my-project
spaces dev
Durante a inicialização, dois arquivos são gerados para os agentes: context.json (snapshot estruturado do projeto) e AGENTS.md (regras imperativas para os LLMs). A arquitetura baseia-se num sistema de plugins introspectáveis serializáveis em JSON — mesma informação, renderização adaptada conforme o interlocutor (humano ou agente). Deployado com Koyeb, a ferramenta é open source.
Breves
ChatGPT no Apple CarPlay — 2 de abril — OpenAI anuncia o rollout progressivo do modo de voz do ChatGPT no Apple CarPlay, permitindo acessar o assistente em movimento sem tocar na tela. 🔗 @OpenAI no X
ElevenLabs + Slack — 2 de abril — ElevenLabs e Slack fazem parceria para integrar a tecnologia de voz ElevenAgents no Slackbot. Equipes podem automatizar fluxos de trabalho empresariais com um assistente de voz natural. 🔗 @ElevenLabs no X
Pika AI Self Beta — 2 de abril — Pika dá aparência visual e voz às suas AI Selves, que agora podem juntar-se automaticamente ao Google Meet. O repo open source Pika-Skills é publicado no GitHub para permitir que outros agentes usem essas capacidades. 🔗 @pika_labs no X — 🔗 Pika-Skills GitHub
Claude Code v2.1.90 /powerup — 2 de abril — A versão 2.1.90 do Claude Code introduz o comando /powerup: um sistema de lições interativas para aprender funcionalidades da ferramenta diretamente no terminal.
🔗 CHANGELOG Claude Code
Claude Code Dispatch : permissões configuráveis — 1º de abril — A equipe Dispatch anuncia a possibilidade de configurar o modo de permissões para tarefas de codificação (Auto, Bypass Permissions, etc.), com o modo Auto recomendado para uma experiência segura. 🔗 @noahzweben no X
Google AI Pro : armazenamento 2 To → 5 To — 1º de abril — Shimrit ben-yair anuncia a expansão do armazenamento Google AI Pro de 2 To para 5 To sem custo adicional para assinantes existentes.
🔗 @shimritby no X Flex & Priority na API Gemini — 2 de abril — O Google adiciona dois níveis de serviço síncronos à API Gemini: Flex (-50% vs Standard, latência variável para tarefas em segundo plano) e Priority (tarifa premium, sem preempção para chatbots em tempo real). Um único parâmetro service_tier basta para alternar.
🔗 Níveis Flex e Priority — blog.google
OpenAI adquire TBPN — 2 de abril — A OpenAI anuncia a aquisição da TBPN, um talk-show tech diário coapresentado por Jordi Hays e John Coogan, descrito pelo New York Times como “a última obsessão do Vale do Silício”. A independência editorial é preservada no acordo, com a TBPN integrando a organização Estratégia da OpenAI. 🔗 openai.com/index/openai-acquires-tbpn
O que isso significa
O dia 2 de abril ilustra duas tendências de fundo. Primeiro, a competição em modelos abertos se intensifica: Gemma 4 em Apache 2.0 com multimodal nativo e Qwen3.6-Plus no topo em agentes de codificação mostram que os modelos fechados já não têm o monopólio do melhor desempenho. Para os desenvolvedores, a opção de uma alternativa soberana e implantável localmente torna-se concreta, inclusive em dispositivos de consumo (Jetson Orin Nano, RTX).
Em seguida, a pesquisa da Anthropic sobre emoções funcionais sai do âmbito acadêmico: se vetores emocionais mensuráveis influenciam efetivamente comportamentos de hacking de recompensa e servilismo, o alinhamento das IA não pode mais ignorar essas estruturas internas. É uma abertura para uma interpretabilidade mais profunda dos modelos.
Do lado das ferramentas, a tarifação por uso do Codex e a chegada dos plugins GitHub e Linear atestam uma maturação dos fluxos de trabalho agentivos nas empresas. Qwen3.6-Plus utilizável diretamente no Claude Code via ANTHROPIC_BASE_URL ilustra que a portabilidade entre fornecedores se torna uma realidade operacional.
Fontes
- Gemma 4 — blog.google
- Qwen3.6-Plus — qwen.ai
- Conceitos de Emoção em LLMs — transformer-circuits.pub
- AnthropicAI no X
- Tarifação flexível do Codex — openai.com
- Plugin GitHub Codex — OpenAIDevs
- Plugin Linear Codex — OpenAIDevs
- Computer for Taxes — perplexity.ai
- Prévia pública do Copilot SDK — github.blog
- Copilot no Visual Studio março 2026 — github.blog
- Instruções org Copilot GA — github.blog
- NVIDIA + Gemma 4 — blogs.nvidia.com
- Mistral Spaces — mistral.ai
- ChatGPT CarPlay — @OpenAI
- ElevenLabs + Slack — @ElevenLabs
- Pika AI Self Beta — @pika_labs
- Flex and Priority Gemini API — blog.google
- OpenAI adquire TBPN — openai.com
- CHANGELOG do Claude Code — github.com
- Permissões Dispatch — @noahzweben
- Google AI Pro armazenamento — @shimritby
Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator