ai-powered-markdown-translatorArtigo traduzido do fr para o pt com gpt-5.4-mini.
O GitHub Copilot dá mais um passo na adoção enterprise com o gerenciamento centralizado de plugins CLI, enquanto as atualizações de abril do VS Code trazem BYOK, pesquisa semântica em todos os espaços de trabalho e um histórico de chat consultável. O Claude Code mantém seu ritmo intenso com 60 correções adicionais esta semana. Em paralelo, a Luma AI abre a API de seu modelo Uni-1.1, líder no ranking Human Preference Elo, e o Qwen3.6-35B-A3B registra +8.2 pontos no benchmark ODinW.
GitHub Copilot CLI — Plugins gerenciados pela empresa em preview público
6 de maio — O GitHub lança em preview público o gerenciamento centralizado dos plugins do Copilot CLI para empresas. Agora, os administradores podem definir e distribuir plugins (agentes personalizados, habilidades, hooks, configurações MCP) para todos os usuários de sua organização a partir de um único arquivo settings.json.
Funcionamento prático:
| Parâmetro | Valor |
|---|---|
| Arquivo de configuração | .github-private/.github/copilot/settings.json |
| Planos necessários | Copilot Business, Copilot Enterprise |
| Status | Preview público (Public Preview) |
| Instalação | Automática na autenticação |
O Copilot CLI obtém e aplica essas configurações para todos os usuários licenciados. Os plugins podem incluir agentes personalizados, hooks de workflow e configurações MCP em escala organizacional. Se a empresa já tiver configurado uma fonte para agentes personalizados via .github-private, esse mesmo repositório é reutilizado. Os administradores podem verificar a configuração na página Agents nas configurações enterprise, em AI controls.
Essa funcionalidade preenche uma lacuna importante entre a adoção individual do Copilot CLI e sua implantação em escala organizacional: até aqui, cada desenvolvedor precisava configurar seus plugins manualmente.
GitHub Copilot no VS Code — Atualizações de abril de 2026 (v1.116–v1.119)
6 de maio — O GitHub publica o resumo das atualizações do Copilot para VS Code cobrindo as versões v1.116 a v1.119 (de abril até o início de maio de 2026), após a migração do VS Code para lançamentos estáveis semanais.
Contexto mais inteligente:
| Recurso | Status |
|---|---|
| Pesquisa semântica (todos os espaços de trabalho) | Disponível |
githubTextSearch (grep em repositórios GitHub) | Disponível |
/chronicle (histórico local de chat) | Experimental |
| Cache de prompts + carregamento adiado de ferramentas | Disponível |
A pesquisa semântica agora está ativa em todos os espaços de trabalho, e não apenas nos repositórios indexados. A ferramenta githubTextSearch permite consultas do tipo grep em repositórios e organizações inteiros do GitHub. O comando experimental /chronicle cria um banco de dados local do histórico de chat para recuperar sessões passadas, arquivos afetados e PRs referenciados.
Experiência de agente enriquecida:
| Recurso | Status |
|---|---|
| BYOK (Business + Enterprise) | Disponível |
| Integrated Browser | Disponível |
| Monitoramento CLI remoto | Experimental |
| Acesso aos terminais abertos | Disponível |
O BYOK (Bring Your Own Key) permite que as organizações Copilot Business e Enterprise conectem suas próprias chaves de API diretamente no VS Code: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama e Foundry Local são suportados. Os agentes podem ler e escrever nos terminais abertos (REPLs, scripts interativos). O recurso Integrated Browser permite compartilhar abas do navegador em tempo real como contexto para os agentes. As sessões do Copilot CLI podem ser controladas remotamente a partir do GitHub.com ou do aplicativo móvel (experimental).
Claude Code — 60+ correções de confiabilidade (semana de 8 de maio)
8 de maio — A equipe do Claude Code publica um thread listando mais de 60 correções implantadas esta semana, que se somam às 50+ da semana anterior.
“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”
🇵🇹 “Na semana passada entregamos 50+ correções de confiabilidade para o Claude Code. Esta semana, mais 60+. Sessões longas mais fluidas, um loop de agente mais eficiente, autenticação que funciona em mais ambientes e correções de terminal.” — @ClaudeDevs em X
| Área | Correções notáveis |
|---|---|
| Estabilidade | claude -p aceita >10 MB via stdin, retomada após suspensão |
| Loop de agente | Cache de prompt para subagentes, cache opcional de 1h via ENABLE_PROMPT_CACHING_1H |
| Autenticação | Colagem do código OAuth diretamente no terminal (WSL, SSH, contêineres) |
| MCP | Reconexão automática + status claro em /mcp, correção de memória limitada |
| Renderização do terminal | Correção de rolagem no Cursor, VS Code, JetBrains; correção de caracteres japoneses |
Para aplicar essas correções: claude update.
GitHub Copilot — Descontinuação do Grok Code Fast 1 (15 de maio)
8 de maio — O GitHub anuncia a descontinuação do Grok Code Fast 1 em todos os ambientes Copilot em 15 de maio de 2026, uma semana após o anúncio. O motivo: o modelo foi descontinuado pela própria xAI.
| Modelo | Data de descontinuação | Alternativa sugerida |
|---|---|---|
| Grok Code Fast 1 | 15 de maio de 2026 | GPT-5 mini, Claude Haiku 4.5 |
Os administradores do Copilot Enterprise devem verificar se os modelos alternativos estão ativados em suas políticas de modelos antes dessa data. A transição após a descontinuação é automática — nenhuma ação adicional é necessária para remover o modelo.
Google Health App — Fitbit vira Google Health com coach Gemini
8 de maio — O aplicativo Fitbit evolui e se torna o novo aplicativo Google Health. Essa reformulação mantém todos os recursos existentes do Fitbit e incorpora um coach de saúde personalizado impulsionado pelo Gemini. Esse coach analisa os dados dos dispositivos vestíveis (wearables), os aplicativos de saúde preferidos e os prontuários médicos para fornecer orientações de saúde proativas e adaptadas a cada usuário.
O aplicativo é compatível com os relógios Fitbit e Pixel Watch, e se integra a centenas de aplicativos e dispositivos de terceiros.
Gemini API — File Search multimodal, Webhooks, Gemma 4 MTP 3x mais rápido
8 de maio — O resumo semanal @GoogleAI lista três lançamentos para desenvolvedores da semana, a 11 dias do Google I/O:
| Recurso | Data | Impacto |
|---|---|---|
| File Search multimodal | 5 de maio | RAG multimodal verificável com citações de páginas |
| Webhooks da Gemini API | 4 de maio | Substituição de polling por notificações push |
| Gemma 4 MTP drafters | 5 de maio | Até 3x mais rápido na inferência |
A ferramenta File Search agora suporta metadados personalizados e citações de páginas, o que permite construir sistemas RAG (Retrieval-Augmented Generation) verificáveis sobre fontes multimodais. Os webhooks eliminam a necessidade de consulta contínua para tarefas longas. Os aceleradores MTP (Multi-Token Prediction) para Gemma 4 oferecem até 3x mais velocidade de inferência nos fluxos de implantação.
Luma AI Uni-1.1 API — Abertura pública
5 de maio — A Luma AI abre sua API Uni-1.1, tornando seu modelo de inteligência unificada (Unified Intelligence model) acessível aos desenvolvedores por meio de uma interface REST. Esse modelo integra raciocínio e geração de imagens em uma arquitetura única — em contraste com a abordagem padrão, que combina vários modelos separados na inferência.
| Métrica | Valor |
|---|---|
| Human Preference Elo | #1 (geração global, estilo, referência guiada) |
| Image Arena | Top 3 (Text-to-Image + Image Edit) |
| RISEBench raciocínio espacial | Líder do ranking |
| Referências por solicitação | Até 9 imagens |
| Tempo de geração | ~31 segundos por imagem |
| Parceiros em produção | Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt |
A API oferece dois endpoints principais: Generate Image (texto-para-imagem com até 9 imagens de referência para preservar identidade, composição ou estilo) e Modify Image (edição em linguagem natural). Os SDKs em Python e JavaScript/TypeScript estão disponíveis. Dois níveis de preço: Build (cobrança por uso) e Scale (limites de taxa mais altos, suporte dedicado).
NVIDIA + SakanaAI — Paper ICML 2026 sobre os kernels sparse TwELL
8 de maio — NVIDIA AI e SakanaAI Labs publicam conjuntamente um artigo de pesquisa aceito na ICML 2026, abordando os kernels de transformadores esparsos (sparse transformer kernels) e formatos de dados otimizados para execução em GPUs NVIDIA modernas. O projeto é batizado de TwELL.
A intuição central: o cérebro humano só ativa os neurônios necessários para um determinado pensamento. Aplicado a modelos de linguagem, isso se traduz em computação seletiva dos pesos ativos por meio de esparsidade estruturada, reduzindo a carga de cálculo sem sacrificar o desempenho. Essa pesquisa se alinha à direção da NVIDIA rumo a uma inferência mais eficiente, especialmente para arquiteturas Mixture-of-Experts (MoE). O tweet obteve 50 000 visualizações e 66 reposts na comunidade de ML.
Qwen3.6-35B-A3B — +8.2 pontos no benchmark ODinW
9 de maio — O Tongyi Lab (Alibaba) anuncia um avanço em detecção de objetos orientada por instruções (Instruction-Oriented Object Detection) com o modelo Qwen3.6-35B-A3B. Diferentemente da detecção clássica, que se limita a localizar elementos visuais, essa abordagem busca compreender semanticamente instruções em linguagem natural para orientar a detecção.
| Métrica | Qwen3.5 | Qwen3.6-35B-A3B | Ganho |
|---|---|---|---|
| ODinW score | 42.6 | 50.8 | +8.2 pts |
Uma demo interativa está disponível no ModelScope.
Tongyi Lab — 1 200+ idiomas para inclusão global
9 de maio — O Tongyi Lab (Alibaba) publica um vídeo intitulado “1,200+ Languages. One Vision for AI Inclusion”, levantando a questão do acesso equitativo à IA para comunidades linguísticas pouco representadas. A iniciativa mira uma cobertura de mais de 1 200 idiomas — muito além dos 92 idiomas do Qwen-MT anunciado em julho de 2025 — em resposta ao fosso entre a tecnologia global e as comunidades que ela deveria servir.
OpenAI Codex Switch — Página de migração do ChatGPT para Codex
8 de maio — A OpenAI publica um tweet minimalista apontando para chatgpt.com/codex/switch-to-codex/, com a única mensagem “Just gonna leave this here.” O tweet gera 517 000 visualizações. Esse teaser faz parte da estratégia de posicionar o Codex como assistente central de desenvolvimento da plataforma ChatGPT. A página de destino não estava acessível no momento da coleta.
Breves
- OpenAI supply.openai.com — @OpenAIDevs publica um tweet criptico: “Available until the goblins notice.” 🧌, citando um link para
supply.openai.com. A página não estava acessível no momento da coleta (274 000 visualizações). 🔗 Tweet
O que isso significa
O enterprise se torna a batalha central do Copilot. O GitHub está montando as bases de uma implantação do Copilot gerenciada em escala organizacional: plugins centralizados via .github-private, BYOK para conectar modelos próprios, monitoramento CLI remoto e Integrated Browser como contexto ao vivo para agentes. Esses recursos respondem a uma demanda real de CISOs e CTOs que querem padronizar a stack de IA sem deixar cada desenvolvedor configurar a própria. A descontinuação simultânea do Grok Code Fast 1 (substituído por GPT-5 mini ou Claude Haiku 4.5) também ilustra a rapidez com que modelos de terceiros são integrados e depois removidos nesse ecossistema.
O Claude Code aposta na confiabilidade. 110+ correções em duas semanas consecutivas em temas específicos — sessões longas, autenticação OAuth em ambientes restritos, MCP, renderização do terminal — indicam que a equipe da Anthropic identificou a confiabilidade como o principal obstáculo à adoção em produção. As correções para WSL, SSH e contêineres miram explicitamente os ambientes enterprise onde o navegador não consegue acessar localhost. O opt-in do cache de prompts de uma hora para subagentes também é um sinal: workflows multiagentes de longa duração estão se tornando um caso de uso prioritário.
Luma AI e a API unificada: uma aposta arquitetural. Enquanto a maioria dos pipelines de geração de imagens combina vários modelos especializados, o Uni-1 integra raciocínio e geração em uma única arquitetura. A capacidade de usar até 9 imagens de referência por solicitação — e os resultados #1 Human Preference Elo — sugere que essa abordagem unificada oferece uma consistência de estilo difícil de alcançar com pipelines montados. Os 8 parceiros já em produção validam que a API está pronta para cargas de trabalho reais.
Alibaba/Qwen mira o multimodal e o multilinguismo. O ganho de +8.2 pontos no ODinW para o Qwen3.6-35B-A3B na detecção de objetos guiada por linguagem natural, combinado com a ambição de cobrir 1 200+ idiomas, desenha uma estratégia do Tongyi Lab orientada a usos de alto impacto social: visão industrial acessível via instruções textuais e IA utilizável por comunidades linguísticas atualmente desatendidas. Esses dois eixos convergem em uma mesma lógica de acessibilidade ampliada.
Fontes
- GitHub Copilot CLI — Plugins gerenciados pela empresa (Public Preview)
- GitHub Copilot VS Code — Lançamentos de abril de 2026
- GitHub Copilot — Descontinuação do Grok Code Fast 1
- Claude Code — Thread com 60+ correções de confiabilidade (@ClaudeDevs)
- Claude Code — Changelog oficial
- Google Health App — Anúncio @GoogleAI
- Gemini API — Blog do Google Developers Tools
- Luma AI Uni-1.1 API
- NVIDIA + SakanaAI — Paper TwELL ICML26
- Qwen3.6-35B-A3B — ODinW +8.2 pts (@Ali_TongyiLab)
- ModelScope — Demo de detecção de objetos Qwen
- Tongyi Lab — 1200+ Languages (@Ali_TongyiLab)
- OpenAI Codex Switch
- OpenAI supply.openai.com — teaser (@OpenAIDevs)