搜索

GitHub Copilot CLI 插件企业版,VS Code BYOK + /chronicle,Claude Code 60+ 修复

GitHub Copilot CLI 插件企业版,VS Code BYOK + /chronicle,Claude Code 60+ 修复

ai-powered-markdown-translator

由 gpt-5.4-mini 从法语翻译成中文的文章。

在 GitHub 上查看项目 ↗

GitHub Copilot 在企业采用方面又迈出一步,推出了 CLI 插件的集中管理;与此同时,VS Code 的 4 月更新带来了 BYOK、覆盖所有工作区的语义搜索,以及可查询的聊天历史。Claude Code 本周继续高强度推进,又交付了 60 项修复。与此同时,Luma AI 开放了其在 Human Preference Elo 排行榜上领先的 Uni-1.1 模型 API,而 Qwen3.6-35B-A3B 在 ODinW 基准上提升了 +8.2 分。


GitHub Copilot CLI — 企业管理插件公测

5月6日 — GitHub 面向企业推出了 Copilot CLI 插件的集中管理 公测。管理员现在可以通过一个独立的 settings.json 文件,为组织内所有用户定义并分发插件(自定义代理、技能、hooks、MCP 配置)。

具体工作方式:

参数
配置文件.github-private/.github/copilot/settings.json
所需套餐Copilot Business, Copilot Enterprise
状态公测(Public Preview
安装登录时自动安装

Copilot CLI 会为所有已授权用户拉取并应用这些设置。插件可包含自定义代理、工作流 hooks 以及组织级 MCP 配置。如果企业此前已经通过 .github-private 配置了自定义代理来源,那么会复用同一个仓库。管理员可以在 enterprise 设置中的 Agents 页面下,通过 AI controls 查看配置。

这项功能弥补了 Copilot CLI 的个人使用与组织级部署之间的重要缺口:此前,每位开发者都必须手动配置自己的插件。

🔗 GitHub Changelog 公告


GitHub Copilot 在 VS Code 中的更新 — 2026 年 4 月更新(v1.116–v1.119)

5月6日 — GitHub 发布了 Copilot for VS Code 的更新汇总,涵盖 v1.116 到 v1.119 版本(2026 年 4 月至 5 月初),这是在 VS Code 转向每周稳定版发布之后推出的。

更智能的上下文:

功能状态
语义搜索(所有工作区)可用
githubTextSearch(GitHub 仓库 grep)可用
/chronicle(本地聊天历史)试验性
提示缓存 + 工具延迟加载可用

语义搜索现在已在所有工作区中启用,不再局限于已索引的仓库。githubTextSearch 工具可以对整个 GitHub 仓库和组织执行类似 grep 的查询。试验性命令 /chronicle 会创建本地聊天历史数据库,用于检索过去的会话、涉及的文件以及引用的 PR。

更丰富的代理体验:

功能状态
BYOK(Business + Enterprise)可用
Integrated Browser可用
远程 CLI 监控试验性
访问已打开的终端可用

BYOKBring Your Own Key)允许 Copilot Business 和 Enterprise 组织将自己的 API 密钥直接连接到 VS Code:支持 OpenRouter、Microsoft Foundry、Google、Anthropic、OpenAI、Ollama 以及 Foundry Local。代理可以读取和写入已打开的终端(REPL、交互式脚本)。Integrated Browser 功能允许将浏览器标签页实时共享为代理的上下文。Copilot CLI 会话可以从 GitHub.com 或移动应用进行远程控制(试验性)。

🔗 GitHub Changelog 公告


Claude Code — 60+ 项可靠性修复(5月8日当周)

5月8日 — Claude Code 团队发布了一条线程,列出本周部署的 60 多项修复,接在上周 50+ 项修复之后。

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇨🇳 “上周我们为 Claude Code 交付了 50+ 项可靠性修复。本周又增加了 60+ 项。更流畅的长会话、更高效的代理循环、在更多环境中可用的身份验证,以及终端修复。”@ClaudeDevs 在 X 上

领域主要修复
稳定性claude -p 通过 stdin 可接受 >10 Mo,睡眠后可恢复
代理循环子代理的提示缓存,通过 ENABLE_PROMPT_CACHING_1H 可选择启用 1 小时缓存
身份验证OAuth 代码可直接粘贴到终端中(WSL、SSH、容器)
MCP自动重连 + 在 /mcp 中显示清晰状态,修复有界内存
终端渲染修复 Cursor、VS Code、JetBrains 的滚动;修复日文字符

要应用这些修复:claude update

🔗 Claude Code 更新日志


GitHub Copilot — Grok Code Fast 1 停用(5月15日)

5月8日 — GitHub 宣布在所有 Copilot 环境中于 2026 年 5 月 15 日 停用 Grok Code Fast 1,比公告晚一周。原因是该模型本身已被 xAI 停用。

模型停用日期建议替代方案
Grok Code Fast 12026 年 5 月 15 日GPT-5 mini, Claude Haiku 4.5

Copilot Enterprise 管理员应确保在该日期之前已在模型策略中启用替代模型。停用后的切换是自动的——移除该模型不需要额外操作。

🔗 停用公告


Google Health App — Fitbit 变为带 Gemini 教练的 Google Health

5月8日 — Fitbit 应用正在演进为全新的 Google Health 应用。这次重构保留了所有现有的 Fitbit 功能,并集成了一个由 Gemini 驱动的 个性化健康教练。该教练会分析可穿戴设备(wearables)数据、偏好的健康应用以及医疗记录,为每位用户提供主动式、量身定制的健康建议。

该应用兼容 Fitbit 手表和 Pixel Watch,并可与数百个第三方应用和设备集成。

🔗 @GoogleAI 公告


Gemini API — 多模态 File Search、Webhooks、Gemma 4 MTP 提速 3 倍

5月8日 — @GoogleAI 的每周汇总列出了本周 3 项开发者发布,距离 Google I/O 还有 11 天:

功能日期影响
多模态 File Search5月5日带页面引用的可验证多模态 RAG
Gemini API Webhooks5月4日push 通知取代 polling
Gemma 4 MTP drafters5月5日推理速度最高提升 3 倍

File Search 现在支持自定义元数据和页面引用,这使得在多模态来源上构建可验证的 RAG(Retrieval-Augmented Generation)系统成为可能。Webhooks 消除了长任务持续轮询的需要。Gemma 4 的 MTP(Multi-Token Prediction)加速器在部署工作流中可带来高达 3 倍 的推理提速。

🔗 Google Developers 博客


Luma AI Uni-1.1 API — 开放公测

5月5日 — Luma AI 开放其 Uni-1.1 API,使其统一智能模型(Unified Intelligence model)可通过 REST 接口供开发者使用。该模型在单一架构中集成了推理与图像生成——不同于在推理时组合多个独立模型的标准做法。

指标数值
Human Preference Elo#1(整体生成、风格、参考引导)
Image Arena前 3(Text-to-Image + Image Edit)
RISEBench 空间推理排名第一
每次请求的参考图最多 9 张
生成时间每张图约 ~31 秒
生产合作伙伴Envato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

该 API 提供两个主要端点:Generate Image(文生图,最多可使用 9 张参考图以保持身份、构图或风格一致)以及 Modify Image(自然语言编辑)。Python 和 JavaScript/TypeScript SDK 均已提供。两个定价层级:Build(按用量计费)和 Scale(更高吞吐限制,专属支持)。

🔗 Luma AI 公告


NVIDIA + SakanaAI — 关于 TwELL 稀疏 kernels 的 ICML 2026 论文

5月8日 — NVIDIA AI 与 SakanaAI Labs 联合发布了一篇被 ICML 2026 接收的研究论文,主题是 稀疏 transformer kernels 以及针对现代 NVIDIA GPU 执行优化的数据格式。该项目名为 TwELL

核心直觉:人类大脑只激活处理某个特定想法所需的神经元。应用到语言模型上,就意味着通过结构化稀疏性选择性计算活动权重,从而减少计算负载,同时不牺牲性能。这项研究与 NVIDIA 推动更高效推理的方向一致,尤其适用于 Mixture-of-Experts(MoE)架构。该推文获得了 5 万次浏览和 66 次转发,在 ML 社区中引发关注。

🔗 @NVIDIAAI 推文


Qwen3.6-35B-A3B — 在 ODinW 基准上提升 +8.2 分

5月9日 — 通义实验室(阿里巴巴)凭借 Qwen3.6-35B-A3B 模型宣布在指令导向目标检测(Instruction-Oriented Object Detection)方面取得进展。与仅仅定位视觉元素的传统检测不同,这种方法旨在以语义方式理解自然语言指令,并据此引导检测。

指标Qwen3.5Qwen3.6-35B-A3B提升
ODinW score42.650.8+8.2 分

ModelScope 上提供了交互式演示。

🔗 @Ali_TongyiLab 推文


通义实验室 — 面向全球包容性的 1200+ 种语言

5月9日 — 通义实验室(阿里巴巴)发布了一段名为“1,200+ Languages. One Vision for AI Inclusion”的视频,提出了一个问题:如何让代表性不足的语言社区公平地接触 AI。该计划旨在覆盖超过 1,200 种语言——远远超过 2025 年 7 月宣布的 Qwen-MT 所支持的 92 种语言——以回应全球技术与其本应服务的社区之间的鸿沟。

🔗 @Ali_TongyiLab 推文


OpenAI Codex Switch — 从 ChatGPT 迁移到 Codex 的页面

5月8日 — OpenAI 发布了一条极简推文,指向 chatgpt.com/codex/switch-to-codex/,唯一信息是“Just gonna leave this here.”。这条推文产生了 517,000 次浏览。这个预告是 Codex 被定位为 ChatGPT 平台核心开发助手战略的一部分。扫描时目标页面无法访问。

🔗 @OpenAI 推文


简讯

  • OpenAI supply.openai.com — @OpenAIDevs 发布了一条神秘推文:“Available until the goblins notice.” 🧌,并附带指向 supply.openai.com 的链接。扫描时该页面无法访问(274,000 次浏览)。🔗 推文

这意味着什么

企业化正在成为 Copilot 的核心战场。 GitHub 正在为组织级托管的 Copilot 部署打基础:通过 .github-private 集中管理插件、通过 BYOK 连接自己的模型、远程 CLI 监控,以及将 Integrated Browser 作为代理的实时上下文。这些功能回应了 CIO 的真实需求:希望标准化 AI 工具链,而不是让每位开发者自行配置自己的技术栈。与此同时,Grok Code Fast 1 的停用(由 GPT-5 mini 或 Claude Haiku 4.5 替代)也说明,在这个生态里,第三方模型被集成和移除的速度有多快。

Claude Code 走的是可靠性路线。 连续两周累计 110+ 项修复,且聚焦于长会话、受限环境中的 OAuth 身份验证、MCP、终端渲染等具体问题,表明 Anthropic 团队已经把可靠性视为生产采用的主要阻碍。针对 WSL、SSH 和容器的修复,明确锁定了浏览器无法访问 localhost 的企业环境。对子代理启用 1 小时提示缓存的选择性开关也释放出一个信号:多代理、长时运行的工作流正在成为优先级很高的用例。

Luma AI 与统一 API:一次架构赌注。 大多数图像生成流水线都会拼接多个专用模型,而 Uni-1 则将推理与生成集成在单一架构中。每次请求可使用最多 9 张参考图——以及 Human Preference Elo 排名 #1 的结果——表明这种统一方法在风格一致性方面,比拼接式流水线更难被替代。已经投入生产的 8 个合作伙伴也验证了该 API 已经准备好承载真实工作负载。

阿里巴巴/Qwen 聚焦多模态与多语言。 Qwen3.6-35B-A3B 在自然语言引导的目标检测上于 ODinW 提升 +8.2 分,再加上覆盖 1,200+ 种语言的雄心,勾勒出通义实验室面向高社会影响场景的战略:通过文本指令可访问的工业视觉,以及可被当前服务不足的语言社区使用的 AI。这两条路径在更广泛的可访问性逻辑上汇合到一起。


来源