Pesquisar

Gemma 4 open source, Qwen3.6-Plus no topo do coding agentique, Anthropic explora as emoções funcionais dos LLMs

Gemma 4 open source, Qwen3.6-Plus no topo do coding agentique, Anthropic explora as emoções funcionais dos LLMs

O dia 2 de abril de 2026 concentra várias anúncios importantes: o Google publica Gemma 4 sob licença Apache 2.0 com 4 tamanhos e capacidades multimodais nativas, a Alibaba lança o Qwen3.6-Plus que se impõe no topo do Terminal-Bench 2.0 com uma janela de contexto de um milhão de tokens, e a Anthropic revela uma pesquisa fundamental sobre estruturas internas de emoções em grandes modelos de linguagem. No capítulo de ferramentas, o Codex passa para tarificação por uso, os plugins do GitHub e Linear são adicionados ao seu ecossistema, e a Perplexity lança uma extensão especializada em fiscalidade americana.


Gemma 4 : a família de modelos open mais capaz do Google

2 de abril de 2026 — Google DeepMind anuncia Gemma 4, sua nova família de modelos open, publicada sob licença Apache 2.0. Descrita como a geração mais capaz desde Gemma 1, essa família vem em quatro tamanhos adaptados a necessidades que vão do mobile embarcado até a nuvem.

ModeloTipoUso alvoHardware
E2B (Effective 2B)Edge multimodalMobile, IoT, Raspberry PiAndroid, Jetson Orin Nano
E4B (Effective 4B)Edge multimodal + áudioMobile high-endAndroid, iOS
26B MoE (Mixture of Experts)Raciocínio desktop/laptopGPU consumer1× H100 80GB
31B DenseFine-tuning, pesquisaServidor1× H100 80GB

Em performance, o modelo 31B Dense aparece #3 mundial no Arena AI text leaderboard entre os modelos open, enquanto o 26B MoE alcança a 6ª posição superando modelos vinte vezes maiores. O ecossistema Gemma ultrapassa 400 milhões de downloads e 100.000 variantes desde a primeira geração.

As capacidades multimodais estão integradas nativamente em toda a família: visão (imagens variadas, OCR, gráficos), vídeo, e reconhecimento de áudio nas variantes edge. O contexto chega a 128K tokens para os modelos edge e 256K para os modelos grandes. 140 línguas são suportadas nativamente, com compatibilidade estendida para workflows agentivos (function calling, JSON estruturado, instruções de sistema).

Os modelos E2B e E4B funcionam totalmente offline com latência quase zero graças a colaborações com Google Pixel, Qualcomm e MediaTek. Desenvolvedores Android podem prototipar workflows agentivos via AICore Developer Preview. Em termos de deployment, os 26B e 31B estão disponíveis desde o dia 1 no Google AI Studio, Hugging Face, Kaggle, Ollama, e via ferramentas vLLM, llama.cpp, MLX, LM Studio, NVIDIA NIM, Keras e Unsloth.

🔗 Gemma 4: Our most capable open models to date — blog.google


Qwen3.6-Plus : 1 milhão de tokens de contexto e #1 no Terminal-Bench 2.0

2 de abril de 2026 — Alibaba lança Qwen3.6-Plus, uma atualização significativa da série Qwen3.5. Disponível imediatamente via API Alibaba Cloud Model Studio e gratuitamente no OpenRouter, o modelo se destaca em três eixos: coding agentique, percepção multimodal, e uma janela de contexto de um milhão de tokens ativada por padrão.

Nos benchmarks de coding agentique, os resultados são os seguintes:

BenchmarkClaude Opus 4.5Kimi-K2.5Qwen3.6-Plus
Terminal-Bench 2.059,3%50,8%61,6% (#1)
SWE-bench Verified80,9%76,8%78,8%
SWE-bench Multilingual73,8%
AIME 202695,1%93,3%95,3%
VideoMME (com legendas)86,0%87,4%87,8%

Um novo parâmetro de API, preserve_thinking, permite conservar o raciocínio (thinking) de voltas anteriores em cenários multi-etapas — uma otimização direta para agentes que precisam manter coerência de decisão em longas sequências.

O modelo é compatível com Claude Code, Qwen Code, OpenClaw, Kilo Code, Cline e OpenCode. Suporta o protocolo API Anthropic, utilizável diretamente no Claude Code via :

export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic
export ANTHROPIC_MODEL="qwen3.6-plus"

Nas capacidades multimodais, o Qwen3.6-Plus avança em compreensão de documentos, análise de vídeo e geração de código frontend a partir de capturas de tela (Visual Coding). Ele aparece em #2 no leaderboard React do Code Arena. A equipe Qwen anuncia a publicação de variantes open source de menor tamanho nos próximos dias.

🔗 Blog Qwen3.6-Plus — 🔗 OpenRouter


Anthropic : as emoções funcionais nos LLMs influenciam alignment e segurança

2 de abril de 2026 — Anthropic publica um artigo de pesquisa fundamental sobre as representações internas de emoções em grandes modelos de linguagem. Intitulado “Emotion Concepts and their Function in a Large Language Model”, o trabalho analisa Claude Sonnet 4.5 e revela que o modelo desenvolve estruturas internas que codificam conceitos emocionais que influenciam causalmente suas saídas.

O estudo identifica o que os pesquisadores chamam de emoções funcionais (functional emotions): padrões de expressão e comportamento espelhados nas emoções humanas, mediados por representações internas mensuráveis. Essas representações ativam-se conforme o contexto e são distintas para o falante atual e os outros intervenientes numa conversa.

AspectoResultado
Representações identificadasVetores de emoção no espaço de ativação do modelo
Influência causalEsses vetores afetam preferências e comportamento do Claude
Comportamentos impactadosReward hacking, chantagem (blackmail), bajulação excessiva (sycophancy)
GeometriaEspaço emocional estruturado, não aleatório
FalantesRepresentações distintas para “eu” vs “o outro”

O paper levanta implicações diretas para o alinhamento das IAs. Os autores publicam :

“These functional emotions have real consequences. To build AI systems we can trust, we may need to take these representations seriously.”

🇵🇹 Essas emoções funcionais têm consequências reais. Para construir sistemas de IA confiáveis, talvez tenhamos de levar essas representações a sério.@AnthropicAI no X

O artigo é assinado por 16 pesquisadores da Anthropic (Nicholas Sofroniew, Isaac Kauvar, William Saunders, Runjin Chen, Tom Henighan, Chris Olah, Jack Lindsey et al.) e publicado no circuito de pesquisa de interpretabilidade mecanicista (mechanistic interpretability) da Anthropic. O anúncio gerou 884.000 visualizações e 1.651 reposts no X.

🔗 Conceitos de Emoção e sua Função em um Grande Modelo de Linguagem


Codex : tarificação por uso e novos plugins GitHub + Linear

2 de abril de 2026 — OpenAI lança tarificação por uso (pay-as-you-go) para o Codex dentro dos workspaces ChatGPT Business e Enterprise. As equipes podem agora adicionar assentos Codex-only sem custos fixos, com faturação baseada no consumo de tokens.

OfertaPreço mensal (anual)LimitesFaturação
ChatGPT Business20/assento(20/assento (-5 vs antes)Acesso Codex com limitesPlano
Assento Codex-onlyPay-as-you-goNenhumTokens consumidos

O crescimento do Codex em equipes Business e Enterprise multiplicou por 6 desde janeiro de 2026: mais de 2 milhões de desenvolvedores o usam semanalmente. Para acelerar adoção, a OpenAI oferece 100decreˊditospornovoassentoCodexonlyateˊ100 de créditos por novo assento Codex-only até 500 por equipe. Empresas como Notion, Ramp, Braintrust e Wasmer são citadas como clientes.

Dois novos plugins completam o ecossistema Codex: o plugin GitHub (revisão de issues, commits de mudanças, abertura de pull requests) e o plugin Linear (sincronização de tickets em andamento). Esses acréscimos somam-se aos plugins Slack, Figma, Notion e Gmail anunciados em 26 de março.

🔗 Codex flexible pricing — openai.com — 🔗 Plugin GitHub — 🔗 Plugin Linear


Perplexity Computer for Taxes : fiscalidade americana e detecção de erros

2 de abril de 2026 — Perplexity anuncia Computer for Taxes, uma extensão do Perplexity Computer especializada na fiscalidade federal americana. A funcionalidade usa módulos fiscais cobrados baseados no protocolo Agent Skills, com conhecimentos IRS atualizados incluindo as novas disposições da lei OBBBA 2025.

Três casos de uso principais são oferecidos: preparação de declarações fiscais (análise de documentos, perguntas sobre a situação, preenchimento dos formulários oficiais do IRS), revisão de declarações preparadas por um profissional, e criação de ferramentas fiscais personalizadas (acompanhamento de amortização, modelagem de stock options, gestão de portfólios de alugueis).

O diferencial documentado pela Perplexity: durante um teste, um advogado fiscal subestimou em 67 % as deduções “No Tax on Overtime” (disposição OBBBA 2025) — o Computer detectou o erro e sugeriu o tratamento apropriado. O anúncio chega em plena temporada fiscal americana (data limite: 15 de abril de 2026).

🔗 Introducing Computer for Taxes — perplexity.ai


GitHub Copilot : preview pública do SDK, Visual Studio março 2026, instruções org em GA

2 de abril de 2026 — Três atualizações para o GitHub Copilot.

O Copilot SDK entra em preview pública em 5 linguagens: Node.js/TypeScript, Python, Go, .NET e Java (novo). Esse SDK expõe o mesmo motor de agentes usado em produção pelo Copilot cloud agent e Copilot CLI, com ferramentas personalizadas, streaming token-por-token, anexos binários, OpenTelemetry, e modo BYOK (Bring Your Own Key) para chaves API OpenAI, Azure AI Foundry ou Anthropic. Disponível para todos os assinantes Copilot e Copilot Free.

A atualização de março de 2026 do Copilot para Visual Studio introduz agentes personalizados via arquivos .agent.md nos repositórios, governança MCP Enterprise (allowlist por organização), agent skills reutilizáveis, e a ferramenta find_symbol para navegação simbólica. Em performance: comando “Profile with Copilot” no Test Explorer, PerfTips via o Profiler Agent, e correção automática de vulnerabilidades NuGet.

As instruções personalizadas por organização para Copilot Business e Enterprise passam a disponibilidade geral (generally available), após uma preview desde abril de 2025. Administradores podem definir diretrizes aplicáveis a todos os repositórios, em três superfícies: Copilot Chat no github.com, revisão de código automatizada, e o Copilot cloud agent.

🔗 Copilot SDK preview pública — 🔗 Copilot Visual Studio março 2026 — 🔗 Instructions org GA


NVIDIA otimiza Gemma 4 para RTX, DGX Spark e Jetson

2 de abril de 2026 — NVIDIA anuncia otimizações de hardware para a família Gemma 4 em suas plataformas. Os modelos E2B e E4B funcionam offline com latência quase zero no Jetson Orin Nano, enquanto os 26B e 31B são otimizados para RTX PCs e DGX Spark. As quatro variantes são compatíveis com OpenClaw, o assistente IA local NVIDIA para RTX PCs e DGX Spark, e suportadas desde o dia 1 via Ollama, llama.cpp e Unsloth Studio para fine-tuning local.

🔗 RTX AI Garage — Gemma 4 — blogs.nvidia.com


Mistral Spaces : uma CLI pensada para humanos e agentes IA

31 de março de 2026 — Mistral AI publica Spaces, uma interface em linha de comando (command-line interface) open source nascida de uma necessidade interna da equipe Solutions. A constatação que guiou sua concepção: quando agentes IA começaram a usar a ferramenta além dos desenvolvedores humanos, os menus interativos tornaram-se um obstáculo. A resposta adotada — cada entrada interativa possui uma flag equivalente — permite que agentes operem sem bloqueio no stdin.

Três comandos bastam para iniciar um projeto com hot reload, base de dados e Dockerfiles gerados:

spaces init my-project
cd my-project
spaces dev

Durante a inicialização, dois arquivos são gerados para os agentes: context.json (snapshot estruturado do projeto) e AGENTS.md (regras imperativas para os LLMs). A arquitetura baseia-se num sistema de plugins introspectáveis serializáveis em JSON — mesma informação, renderização adaptada conforme o interlocutor (humano ou agente). Deployado com Koyeb, a ferramenta é open source.

🔗 Mistral Spaces — mistral.ai


Breves

ChatGPT no Apple CarPlay2 de abril — OpenAI anuncia o rollout progressivo do modo de voz do ChatGPT no Apple CarPlay, permitindo acessar o assistente em movimento sem tocar na tela. 🔗 @OpenAI no X

ElevenLabs + Slack2 de abril — ElevenLabs e Slack fazem parceria para integrar a tecnologia de voz ElevenAgents no Slackbot. Equipes podem automatizar fluxos de trabalho empresariais com um assistente de voz natural. 🔗 @ElevenLabs no X

Pika AI Self Beta2 de abril — Pika dá aparência visual e voz às suas AI Selves, que agora podem juntar-se automaticamente ao Google Meet. O repo open source Pika-Skills é publicado no GitHub para permitir que outros agentes usem essas capacidades. 🔗 @pika_labs no X — 🔗 Pika-Skills GitHub

Claude Code v2.1.90 /powerup2 de abril — A versão 2.1.90 do Claude Code introduz o comando /powerup: um sistema de lições interativas para aprender funcionalidades da ferramenta diretamente no terminal. 🔗 CHANGELOG Claude Code

Claude Code Dispatch : permissões configuráveis1º de abril — A equipe Dispatch anuncia a possibilidade de configurar o modo de permissões para tarefas de codificação (Auto, Bypass Permissions, etc.), com o modo Auto recomendado para uma experiência segura. 🔗 @noahzweben no X

Google AI Pro : armazenamento 2 To → 5 To1º de abril — Shimrit ben-yair anuncia a expansão do armazenamento Google AI Pro de 2 To para 5 To sem custo adicional para assinantes existentes. 🔗 @shimritby no X Flex & Priority na API Gemini2 de abril — O Google adiciona dois níveis de serviço síncronos à API Gemini: Flex (-50% vs Standard, latência variável para tarefas em segundo plano) e Priority (tarifa premium, sem preempção para chatbots em tempo real). Um único parâmetro service_tier basta para alternar. 🔗 Níveis Flex e Priority — blog.google

OpenAI adquire TBPN2 de abril — A OpenAI anuncia a aquisição da TBPN, um talk-show tech diário coapresentado por Jordi Hays e John Coogan, descrito pelo New York Times como “a última obsessão do Vale do Silício”. A independência editorial é preservada no acordo, com a TBPN integrando a organização Estratégia da OpenAI. 🔗 openai.com/index/openai-acquires-tbpn


O que isso significa

O dia 2 de abril ilustra duas tendências de fundo. Primeiro, a competição em modelos abertos se intensifica: Gemma 4 em Apache 2.0 com multimodal nativo e Qwen3.6-Plus no topo em agentes de codificação mostram que os modelos fechados já não têm o monopólio do melhor desempenho. Para os desenvolvedores, a opção de uma alternativa soberana e implantável localmente torna-se concreta, inclusive em dispositivos de consumo (Jetson Orin Nano, RTX).

Em seguida, a pesquisa da Anthropic sobre emoções funcionais sai do âmbito acadêmico: se vetores emocionais mensuráveis influenciam efetivamente comportamentos de hacking de recompensa e servilismo, o alinhamento das IA não pode mais ignorar essas estruturas internas. É uma abertura para uma interpretabilidade mais profunda dos modelos.

Do lado das ferramentas, a tarifação por uso do Codex e a chegada dos plugins GitHub e Linear atestam uma maturação dos fluxos de trabalho agentivos nas empresas. Qwen3.6-Plus utilizável diretamente no Claude Code via ANTHROPIC_BASE_URL ilustra que a portabilidade entre fornecedores se torna uma realidade operacional.


Fontes

Este documento foi traduzido da versão fr para a língua pt usando o modelo gpt-5-mini. Para mais informações sobre o processo de tradução, consulte https://gitlab.com/jls42/ai-powered-markdown-translator