Pesquisar

Plugins enterprise do GitHub Copilot CLI, BYOK no VS Code + /chronicle, 60+ correções no Claude Code

Plugins enterprise do GitHub Copilot CLI, BYOK no VS Code + /chronicle, 60+ correções no Claude Code

ai-powered-markdown-translator

Artigo traduzido do fr para o pt com gpt-5.4-mini.

Ver projeto no GitHub ↗

O GitHub Copilot dá mais um passo na adoção enterprise com o gerenciamento centralizado de plugins CLI, enquanto as atualizações de abril do VS Code trazem BYOK, pesquisa semântica em todos os espaços de trabalho e um histórico de chat consultável. O Claude Code mantém seu ritmo intenso com 60 correções adicionais esta semana. Em paralelo, a Luma AI abre a API de seu modelo Uni-1.1, líder no ranking Human Preference Elo, e o Qwen3.6-35B-A3B registra +8.2 pontos no benchmark ODinW.


GitHub Copilot CLI — Plugins gerenciados pela empresa em preview público

6 de maio — O GitHub lança em preview público o gerenciamento centralizado dos plugins do Copilot CLI para empresas. Agora, os administradores podem definir e distribuir plugins (agentes personalizados, habilidades, hooks, configurações MCP) para todos os usuários de sua organização a partir de um único arquivo settings.json.

Funcionamento prático:

ParâmetroValor
Arquivo de configuração.github-private/.github/copilot/settings.json
Planos necessáriosCopilot Business, Copilot Enterprise
StatusPreview público (Public Preview)
InstalaçãoAutomática na autenticação

O Copilot CLI obtém e aplica essas configurações para todos os usuários licenciados. Os plugins podem incluir agentes personalizados, hooks de workflow e configurações MCP em escala organizacional. Se a empresa já tiver configurado uma fonte para agentes personalizados via .github-private, esse mesmo repositório é reutilizado. Os administradores podem verificar a configuração na página Agents nas configurações enterprise, em AI controls.

Essa funcionalidade preenche uma lacuna importante entre a adoção individual do Copilot CLI e sua implantação em escala organizacional: até aqui, cada desenvolvedor precisava configurar seus plugins manualmente.

🔗 Anúncio GitHub Changelog


GitHub Copilot no VS Code — Atualizações de abril de 2026 (v1.116–v1.119)

6 de maio — O GitHub publica o resumo das atualizações do Copilot para VS Code cobrindo as versões v1.116 a v1.119 (de abril até o início de maio de 2026), após a migração do VS Code para lançamentos estáveis semanais.

Contexto mais inteligente:

RecursoStatus
Pesquisa semântica (todos os espaços de trabalho)Disponível
githubTextSearch (grep em repositórios GitHub)Disponível
/chronicle (histórico local de chat)Experimental
Cache de prompts + carregamento adiado de ferramentasDisponível

A pesquisa semântica agora está ativa em todos os espaços de trabalho, e não apenas nos repositórios indexados. A ferramenta githubTextSearch permite consultas do tipo grep em repositórios e organizações inteiros do GitHub. O comando experimental /chronicle cria um banco de dados local do histórico de chat para recuperar sessões passadas, arquivos afetados e PRs referenciados.

Experiência de agente enriquecida:

RecursoStatus
BYOK (Business + Enterprise)Disponível
Integrated BrowserDisponível
Monitoramento CLI remotoExperimental
Acesso aos terminais abertosDisponível

O BYOK (Bring Your Own Key) permite que as organizações Copilot Business e Enterprise conectem suas próprias chaves de API diretamente no VS Code: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama e Foundry Local são suportados. Os agentes podem ler e escrever nos terminais abertos (REPLs, scripts interativos). O recurso Integrated Browser permite compartilhar abas do navegador em tempo real como contexto para os agentes. As sessões do Copilot CLI podem ser controladas remotamente a partir do GitHub.com ou do aplicativo móvel (experimental).

🔗 Anúncio GitHub Changelog


Claude Code — 60+ correções de confiabilidade (semana de 8 de maio)

8 de maio — A equipe do Claude Code publica um thread listando mais de 60 correções implantadas esta semana, que se somam às 50+ da semana anterior.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇵🇹 “Na semana passada entregamos 50+ correções de confiabilidade para o Claude Code. Esta semana, mais 60+. Sessões longas mais fluidas, um loop de agente mais eficiente, autenticação que funciona em mais ambientes e correções de terminal.”@ClaudeDevs em X

ÁreaCorreções notáveis
Estabilidadeclaude -p aceita >10 MB via stdin, retomada após suspensão
Loop de agenteCache de prompt para subagentes, cache opcional de 1h via ENABLE_PROMPT_CACHING_1H
AutenticaçãoColagem do código OAuth diretamente no terminal (WSL, SSH, contêineres)
MCPReconexão automática + status claro em /mcp, correção de memória limitada
Renderização do terminalCorreção de rolagem no Cursor, VS Code, JetBrains; correção de caracteres japoneses

Para aplicar essas correções: claude update.

🔗 Changelog do Claude Code


GitHub Copilot — Descontinuação do Grok Code Fast 1 (15 de maio)

8 de maio — O GitHub anuncia a descontinuação do Grok Code Fast 1 em todos os ambientes Copilot em 15 de maio de 2026, uma semana após o anúncio. O motivo: o modelo foi descontinuado pela própria xAI.

ModeloData de descontinuaçãoAlternativa sugerida
Grok Code Fast 115 de maio de 2026GPT-5 mini, Claude Haiku 4.5

Os administradores do Copilot Enterprise devem verificar se os modelos alternativos estão ativados em suas políticas de modelos antes dessa data. A transição após a descontinuação é automática — nenhuma ação adicional é necessária para remover o modelo.

🔗 Anúncio de descontinuação


Google Health App — Fitbit vira Google Health com coach Gemini

8 de maio — O aplicativo Fitbit evolui e se torna o novo aplicativo Google Health. Essa reformulação mantém todos os recursos existentes do Fitbit e incorpora um coach de saúde personalizado impulsionado pelo Gemini. Esse coach analisa os dados dos dispositivos vestíveis (wearables), os aplicativos de saúde preferidos e os prontuários médicos para fornecer orientações de saúde proativas e adaptadas a cada usuário.

O aplicativo é compatível com os relógios Fitbit e Pixel Watch, e se integra a centenas de aplicativos e dispositivos de terceiros.

🔗 Anúncio @GoogleAI


Gemini API — File Search multimodal, Webhooks, Gemma 4 MTP 3x mais rápido

8 de maio — O resumo semanal @GoogleAI lista três lançamentos para desenvolvedores da semana, a 11 dias do Google I/O:

RecursoDataImpacto
File Search multimodal5 de maioRAG multimodal verificável com citações de páginas
Webhooks da Gemini API4 de maioSubstituição de polling por notificações push
Gemma 4 MTP drafters5 de maioAté 3x mais rápido na inferência

A ferramenta File Search agora suporta metadados personalizados e citações de páginas, o que permite construir sistemas RAG (Retrieval-Augmented Generation) verificáveis sobre fontes multimodais. Os webhooks eliminam a necessidade de consulta contínua para tarefas longas. Os aceleradores MTP (Multi-Token Prediction) para Gemma 4 oferecem até 3x mais velocidade de inferência nos fluxos de implantação.

🔗 Blog do Google Developers


Luma AI Uni-1.1 API — Abertura pública

5 de maio — A Luma AI abre sua API Uni-1.1, tornando seu modelo de inteligência unificada (Unified Intelligence model) acessível aos desenvolvedores por meio de uma interface REST. Esse modelo integra raciocínio e geração de imagens em uma arquitetura única — em contraste com a abordagem padrão, que combina vários modelos separados na inferência.

MétricaValor
Human Preference Elo#1 (geração global, estilo, referência guiada)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench raciocínio espacialLíder do ranking
Referências por solicitaçãoAté 9 imagens
Tempo de geração~31 segundos por imagem
Parceiros em produçãoEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

A API oferece dois endpoints principais: Generate Image (texto-para-imagem com até 9 imagens de referência para preservar identidade, composição ou estilo) e Modify Image (edição em linguagem natural). Os SDKs em Python e JavaScript/TypeScript estão disponíveis. Dois níveis de preço: Build (cobrança por uso) e Scale (limites de taxa mais altos, suporte dedicado).

🔗 Anúncio Luma AI


NVIDIA + SakanaAI — Paper ICML 2026 sobre os kernels sparse TwELL

8 de maio — NVIDIA AI e SakanaAI Labs publicam conjuntamente um artigo de pesquisa aceito na ICML 2026, abordando os kernels de transformadores esparsos (sparse transformer kernels) e formatos de dados otimizados para execução em GPUs NVIDIA modernas. O projeto é batizado de TwELL.

A intuição central: o cérebro humano só ativa os neurônios necessários para um determinado pensamento. Aplicado a modelos de linguagem, isso se traduz em computação seletiva dos pesos ativos por meio de esparsidade estruturada, reduzindo a carga de cálculo sem sacrificar o desempenho. Essa pesquisa se alinha à direção da NVIDIA rumo a uma inferência mais eficiente, especialmente para arquiteturas Mixture-of-Experts (MoE). O tweet obteve 50 000 visualizações e 66 reposts na comunidade de ML.

🔗 Tweet @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 pontos no benchmark ODinW

9 de maio — O Tongyi Lab (Alibaba) anuncia um avanço em detecção de objetos orientada por instruções (Instruction-Oriented Object Detection) com o modelo Qwen3.6-35B-A3B. Diferentemente da detecção clássica, que se limita a localizar elementos visuais, essa abordagem busca compreender semanticamente instruções em linguagem natural para orientar a detecção.

MétricaQwen3.5Qwen3.6-35B-A3BGanho
ODinW score42.650.8+8.2 pts

Uma demo interativa está disponível no ModelScope.

🔗 Tweet @Ali_TongyiLab


Tongyi Lab — 1 200+ idiomas para inclusão global

9 de maio — O Tongyi Lab (Alibaba) publica um vídeo intitulado “1,200+ Languages. One Vision for AI Inclusion”, levantando a questão do acesso equitativo à IA para comunidades linguísticas pouco representadas. A iniciativa mira uma cobertura de mais de 1 200 idiomas — muito além dos 92 idiomas do Qwen-MT anunciado em julho de 2025 — em resposta ao fosso entre a tecnologia global e as comunidades que ela deveria servir.

🔗 Tweet @Ali_TongyiLab


OpenAI Codex Switch — Página de migração do ChatGPT para Codex

8 de maio — A OpenAI publica um tweet minimalista apontando para chatgpt.com/codex/switch-to-codex/, com a única mensagem “Just gonna leave this here.” O tweet gera 517 000 visualizações. Esse teaser faz parte da estratégia de posicionar o Codex como assistente central de desenvolvimento da plataforma ChatGPT. A página de destino não estava acessível no momento da coleta.

🔗 Tweet @OpenAI


Breves

  • OpenAI supply.openai.com — @OpenAIDevs publica um tweet criptico: “Available until the goblins notice.” 🧌, citando um link para supply.openai.com. A página não estava acessível no momento da coleta (274 000 visualizações). 🔗 Tweet

O que isso significa

O enterprise se torna a batalha central do Copilot. O GitHub está montando as bases de uma implantação do Copilot gerenciada em escala organizacional: plugins centralizados via .github-private, BYOK para conectar modelos próprios, monitoramento CLI remoto e Integrated Browser como contexto ao vivo para agentes. Esses recursos respondem a uma demanda real de CISOs e CTOs que querem padronizar a stack de IA sem deixar cada desenvolvedor configurar a própria. A descontinuação simultânea do Grok Code Fast 1 (substituído por GPT-5 mini ou Claude Haiku 4.5) também ilustra a rapidez com que modelos de terceiros são integrados e depois removidos nesse ecossistema.

O Claude Code aposta na confiabilidade. 110+ correções em duas semanas consecutivas em temas específicos — sessões longas, autenticação OAuth em ambientes restritos, MCP, renderização do terminal — indicam que a equipe da Anthropic identificou a confiabilidade como o principal obstáculo à adoção em produção. As correções para WSL, SSH e contêineres miram explicitamente os ambientes enterprise onde o navegador não consegue acessar localhost. O opt-in do cache de prompts de uma hora para subagentes também é um sinal: workflows multiagentes de longa duração estão se tornando um caso de uso prioritário.

Luma AI e a API unificada: uma aposta arquitetural. Enquanto a maioria dos pipelines de geração de imagens combina vários modelos especializados, o Uni-1 integra raciocínio e geração em uma única arquitetura. A capacidade de usar até 9 imagens de referência por solicitação — e os resultados #1 Human Preference Elo — sugere que essa abordagem unificada oferece uma consistência de estilo difícil de alcançar com pipelines montados. Os 8 parceiros já em produção validam que a API está pronta para cargas de trabalho reais.

Alibaba/Qwen mira o multimodal e o multilinguismo. O ganho de +8.2 pontos no ODinW para o Qwen3.6-35B-A3B na detecção de objetos guiada por linguagem natural, combinado com a ambição de cobrir 1 200+ idiomas, desenha uma estratégia do Tongyi Lab orientada a usos de alto impacto social: visão industrial acessível via instruções textuais e IA utilizável por comunidades linguísticas atualmente desatendidas. Esses dois eixos convergem em uma mesma lógica de acessibilidade ampliada.


Fontes