Buscar

GitHub Copilot CLI plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ fixes

GitHub Copilot CLI plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ fixes

ai-powered-markdown-translator

Artículo traducido del fr al es con gpt-5.4-mini.

Ver proyecto en GitHub ↗

GitHub Copilot da un nuevo paso en la adopción enterprise con la gestión centralizada de los plugins CLI, mientras que las actualizaciones de abril para VS Code aportan BYOK, la búsqueda semántica en todos los espacios de trabajo y un historial de chat consultable. Claude Code mantiene su ritmo intenso con 60 correcciones adicionales esta semana. En paralelo, Luma AI abre la API de su modelo Uni-1.1, líder en el ranking Human Preference Elo, y Qwen3.6-35B-A3B marca +8.2 puntos en el benchmark ODinW.


GitHub Copilot CLI — Plugins gestionados por la empresa en vista previa pública

6 de mayo — GitHub lanza en vista previa pública la gestión centralizada de los plugins de Copilot CLI para las empresas. Los administradores ahora pueden definir y distribuir plugins (agentes personalizados, habilidades, hooks, configuraciones MCP) a todos los usuarios de su organización desde un único archivo settings.json.

Funcionamiento concreto:

ParámetroValor
Archivo de configuración.github-private/.github/copilot/settings.json
Planes requeridosCopilot Business, Copilot Enterprise
EstadoVista previa pública (Public Preview)
InstalaciónAutomática al autenticar

Copilot CLI obtiene y aplica estos parámetros para todos los usuarios con licencia. Los plugins pueden incluir agentes personalizados, hooks de flujo de trabajo y configuraciones MCP a escala de la organización. Si la empresa ya había configurado una fuente para los agentes personalizados mediante .github-private, ese mismo repositorio se reutiliza. Los administradores pueden verificar la configuración desde la página Agents en los ajustes enterprise, bajo AI controls.

Esta función cubre una brecha importante entre la adopción individual de Copilot CLI y su despliegue a escala de una organización: hasta ahora, cada desarrollador tenía que configurar sus plugins manualmente.

🔗 Anuncio de GitHub Changelog


GitHub Copilot en VS Code — Actualizaciones de abril de 2026 (v1.116–v1.119)

6 de mayo — GitHub publica el resumen de las actualizaciones de Copilot para VS Code que cubren las versiones v1.116 a v1.119 (de abril a principios de mayo de 2026), tras la transición de VS Code a lanzamientos estables semanales.

Contexto más inteligente:

FuncionalidadEstado
Búsqueda semántica (todos los espacios de trabajo)Disponible
githubTextSearch (grep en repositorios GitHub)Disponible
/chronicle (historial de chat local)Experimental
Caché de prompts + carga diferida de herramientasDisponible

La búsqueda semántica ahora está activa en todos los espacios de trabajo, ya no solo en los repositorios indexados. La herramienta githubTextSearch permite consultas tipo grep en repositorios y organizaciones GitHub completos. El comando experimental /chronicle crea una base de datos local del historial de chat para recuperar sesiones pasadas, los archivos afectados y los PRs referenciados.

Experiencia de agente enriquecida:

FuncionalidadEstado
BYOK (Business + Enterprise)Disponible
Integrated BrowserDisponible
Monitorización CLI remotaExperimental
Acceso a los terminales abiertosDisponible

El BYOK (Bring Your Own Key) permite a las organizaciones Copilot Business y Enterprise conectar sus propias claves API directamente en VS Code: OpenRouter, Microsoft Foundry, Google, Anthropic, OpenAI, Ollama y Foundry Local son compatibles. Los agentes pueden leer y escribir en los terminales abiertos (REPLs, scripts interactivos). La función Integrated Browser permite compartir pestañas del navegador en tiempo real como contexto para los agentes. Las sesiones de Copilot CLI pueden controlarse de forma remota desde GitHub.com o la aplicación móvil (experimental).

🔗 Anuncio de GitHub Changelog


Claude Code — 60+ correcciones de fiabilidad (semana del 8 de mayo)

8 de mayo — El equipo de Claude Code publica un hilo que enumera más de 60 correcciones desplegadas esta semana, que se suman a las 50+ de la semana anterior.

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇪🇸 “La semana pasada entregamos 50+ correcciones de fiabilidad para Claude Code. Esta semana, 60+ más. Sesiones largas más fluidas, un bucle de agente más eficiente, una autenticación que funciona en más entornos y correcciones de terminal.”@ClaudeDevs en X

ÁreaCorrecciones destacadas
Estabilidadclaude -p acepta >10 Mo vía stdin, reanudación tras suspensión
Bucle de agenteCaché de prompts para subagentes, caché opt-in de 1 h mediante ENABLE_PROMPT_CACHING_1H
AutenticaciónPegado del código OAuth directamente en el terminal (WSL, SSH, contenedores)
MCPReconexión automática + estado claro en /mcp, fix de memoria acotada
Renderizado del terminalFix de desplazamiento en Cursor, VS Code, JetBrains; fix de caracteres japoneses

Para aplicar estas correcciones: claude update.

🔗 Changelog de Claude Code


GitHub Copilot — Desuso de Grok Code Fast 1 (15 de mayo)

8 de mayo — GitHub anuncia el desuso de Grok Code Fast 1 en todos los entornos Copilot el 15 de mayo de 2026, es decir, una semana después del anuncio. La razón: el modelo está descontinuado por xAI.

ModeloFecha de desusoAlternativa sugerida
Grok Code Fast 115 de mayo de 2026GPT-5 mini, Claude Haiku 4.5

Los administradores de Copilot Enterprise deben verificar que los modelos alternativos estén activados en sus políticas de modelos antes de esa fecha. La transición tras el desuso es automática — no se requiere ninguna acción adicional para retirar el modelo.

🔗 Anuncio de desuso


Google Health App — Fitbit se convierte en Google Health con coach Gemini

8 de mayo — La aplicación Fitbit evoluciona y se convierte en la nueva aplicación Google Health. Este rediseño conserva todas las funciones Fitbit existentes e integra un coach de salud personalizado impulsado por Gemini. Este coach analiza los datos de los dispositivos portátiles (wearables), las aplicaciones de salud preferidas y los historiales médicos para ofrecer consejos de salud proactivos adaptados a cada usuario.

La aplicación es compatible con los relojes Fitbit y Pixel Watch, y se integra con cientos de aplicaciones y dispositivos de terceros.

🔗 Anuncio de @GoogleAI


Gemini API — File Search multimodal, Webhooks, Gemma 4 MTP 3x más rápido

8 de mayo — El resumen semanal de @GoogleAI enumera tres lanzamientos para desarrolladores de la semana, a 11 días de Google I/O:

FuncionalidadFechaImpacto
File Search multimodal5 de mayoRAG multimodal verificable con citas de páginas
Webhooks Gemini API4 de mayoSustitución del polling por notificaciones push
Gemma 4 MTP drafters5 de mayoHasta 3x más rápido en inferencia

La herramienta File Search ahora admite metadatos personalizados y citas de páginas, lo que permite construir sistemas RAG (Retrieval-Augmented Generation) verificables sobre fuentes multimodales. Los webhooks eliminan la necesidad de interrogar continuamente las tareas largas. Los aceleradores MTP (Multi-Token Prediction) para Gemma 4 ofrecen hasta 3x más velocidad de inferencia en los flujos de trabajo de despliegue.

🔗 Blog de Google Developers


Luma AI Uni-1.1 API — Apertura pública

5 de mayo — Luma AI abre su API Uni-1.1, poniendo su modelo de inteligencia unificada (Unified Intelligence model) a disposición de los desarrolladores mediante una interfaz REST. Este modelo integra razonamiento y generación de imágenes en una sola arquitectura — a diferencia del enfoque estándar que ensambla varios modelos separados en la inferencia.

MétricaValor
Human Preference Elo#1 (generación global, estilo, referencia guiada)
Image ArenaTop 3 (Text-to-Image + Image Edit)
RISEBench razonamiento espacialLíder del ranking
Referencias por solicitudHasta 9 imágenes
Tiempo de generación~31 segundos por imagen
Socios en producciónEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

La API ofrece dos endpoints principales: Generate Image (texto a imagen con hasta 9 imágenes de referencia para preservar identidad, composición o estilo) y Modify Image (edición en lenguaje natural). Los SDK de Python y JavaScript/TypeScript están disponibles. Dos niveles de precio: Build (facturación por uso) y Scale (límites de velocidad más altos, soporte dedicado).

🔗 Anuncio de Luma AI


NVIDIA + SakanaAI — Paper ICML 2026 sobre los kernels sparse TwELL

8 de mayo — NVIDIA AI y SakanaAI Labs publican conjuntamente un paper de investigación aceptado en ICML 2026, centrado en los kernels de transformadores dispersos (sparse transformer kernels) y en formatos de datos optimizados para la ejecución en GPU NVIDIA modernas. El proyecto se llama TwELL.

La intuición central: el cerebro humano solo activa las neuronas necesarias para un pensamiento dado. Aplicado a los modelos de lenguaje, esto se traduce en un cálculo selectivo de los pesos activos mediante la dispersión estructurada, reduciendo la carga computacional sin sacrificar el rendimiento. Esta investigación se alinea con la dirección de NVIDIA hacia una inferencia más eficiente, especialmente para las arquitecturas Mixture-of-Experts (MoE). El tuit obtuvo 50 000 visualizaciones y 66 reposts en la comunidad ML.

🔗 Tuit de @NVIDIAAI


Qwen3.6-35B-A3B — +8.2 puntos en el benchmark ODinW

9 de mayo — Tongyi Lab (Alibaba) anuncia un avance en detección de objetos orientada a instrucciones (Instruction-Oriented Object Detection) gracias al modelo Qwen3.6-35B-A3B. A diferencia de la detección clásica, que se limita a localizar elementos visuales, este enfoque busca comprender semánticamente instrucciones en lenguaje natural para guiar la detección.

MétricaQwen3.5Qwen3.6-35B-A3BGanancia
Puntuación ODinW42.650.8+8.2 pts

Hay una demo interactiva disponible en ModelScope.

🔗 Tuit de @Ali_TongyiLab


Tongyi Lab — 1 200+ idiomas para la inclusión global

9 de mayo — Tongyi Lab (Alibaba) publica un video titulado “1,200+ Languages. One Vision for AI Inclusion”, planteando la cuestión del acceso equitativo a la IA para las comunidades lingüísticas poco representadas. La iniciativa apunta a una cobertura de más de 1 200 idiomas — muy por encima de los 92 idiomas de Qwen-MT anunciado en julio de 2025 — en respuesta a la brecha entre la tecnología global y las comunidades a las que se supone que debe servir.

🔗 Tuit de @Ali_TongyiLab


OpenAI Codex Switch — Página de migración de ChatGPT a Codex

8 de mayo — OpenAI publica un tuit minimalista que apunta a chatgpt.com/codex/switch-to-codex/, con el único mensaje “Just gonna leave this here.” El tuit genera 517 000 visualizaciones. Este teaser se inscribe en la estrategia de posicionamiento de Codex como asistente de desarrollo central de la plataforma ChatGPT. La página de destino no estaba accesible durante el escaneo.

🔗 Tuit de @OpenAI


Breves

  • OpenAI supply.openai.com — @OpenAIDevs publica un tuit críptico: “Available until the goblins notice.” 🧌, citando un enlace a supply.openai.com. La página no estaba accesible durante el escaneo (274 000 visualizaciones). 🔗 Tuit

Qué significa esto

La enterprise se convierte en la batalla central de Copilot. GitHub está sentando las bases de un despliegue de Copilot gestionado a escala organizativa: plugins centralizados mediante .github-private, BYOK para conectar sus propios modelos, monitorización remota de CLI e Integrated Browser como contexto en vivo para los agentes. Estas funciones responden a una demanda real de los CIO que quieren estandarizar las herramientas de IA sin dejar que cada desarrollador configure su propia pila. La descontinuación simultánea de Grok Code Fast 1 (sustituido por GPT-5 mini o Claude Haiku 4.5) también ilustra la rapidez con la que los modelos de terceros se integran y luego se retiran de este ecosistema.

Claude Code apuesta por la fiabilidad. 110+ correcciones en dos semanas consecutivas sobre temas concretos — sesiones largas, autenticación OAuth en entornos restringidos, MCP, renderizado del terminal — indican que el equipo de Anthropic ha identificado la fiabilidad como el principal obstáculo para la adopción en producción. Los fixes en WSL, SSH y contenedores apuntan explícitamente a los entornos enterprise donde el navegador no puede alcanzar localhost. El opt-in de la caché de prompts de una hora en los subagentes también es una señal: los flujos de trabajo multiagente de larga duración se están convirtiendo en un caso de uso prioritario.

Luma AI y la API unificada: una apuesta arquitectónica. Allí donde la mayoría de los pipelines de generación de imágenes ensamblan varios modelos especializados, Uni-1 integra razonamiento y generación en una sola arquitectura. La capacidad de usar hasta 9 imágenes de referencia por solicitud — y los resultados #1 en Human Preference Elo — sugieren que este enfoque unificado ofrece una coherencia de estilo difícil de alcanzar con pipelines ensamblados. Los 8 socios ya en producción validan que la API está lista para cargas de trabajo reales.

Alibaba/Qwen apunta al multimodal y al multilingüismo. La ganancia de +8.2 puntos en ODinW para Qwen3.6-35B-A3B en la detección de objetos guiada por lenguaje natural, combinada con la ambición de cubrir 1 200+ idiomas, dibuja una estrategia de Tongyi Lab orientada a usos de alto impacto social: visión industrial accesible mediante instrucciones textuales e IA utilizable por comunidades lingüísticas actualmente desatendidas. Estos dos ejes convergen en una misma lógica de accesibilidad ampliada.


Fuentes