2026年4月14日对 AI 辅助开发工具来说是信息量很大的一天:Anthropic 在 Claude Code 中推出例程,可通过计划任务或 webhook 自动化整个工作流,而无需让电脑一直开着。Google DeepMind 发布了 Gemini Robotics-ER 1.6,并带来了与 Boston Dynamics 共同开发的新工业感知能力。Z.ai 以 MIT 许可证开放 GLM-5.1,在 SWE-Bench Pro 上被评为开源模型第一名。GitHub Copilot 则新增了三项实用功能:三次点击解决冲突、US/EU 数据驻留,以及为第三方代理选择模型。
Claude Code 中的例程 — 预览研究(research preview)
4月14日 — Anthropic 以 research preview 形式推出 Claude Code 中的例程。例程是一种只需配置一次的自动化——包含一个 prompt、一个仓库和连接器——随后便可在用户无需保持登录的情况下自主运行。
可用三种触发方式:
| 类型 | 触发器 | 使用示例 |
|---|---|---|
| 计划任务 (Scheduled) | Cron(每小时、夜间、每周) | Linear bug 的夜间分流,创建修复 PR |
| API | 向专用 endpoint 发起 HTTP POST 调用 | Datadog 告警 → 自动分流 + 修复草稿 |
| Webhook | GitHub 事件(PR、push……) | 每次打开 PR 时自动进行代码审查 |
每个例程都有自己的 endpoint 和认证 token。API 例程可接入任何现有流水线(告警、部署钩子、内部工具)。Webhook 例程会为每个符合所设过滤条件的 PR 启动新会话,并用后续更新(评论、持续集成失败)继续填充该会话。
“Configure a routine once (a prompt, a repo, and your connectors), and it can run on a schedule, from an API call, or in response to an event. Routines run on our web infrastructure, so you don’t have to keep your laptop open.”
🇨🇳 只需配置一次例程(一个 prompt、一个仓库和你的连接器),它就可以按计划运行、响应 API 调用,或对事件做出反应。例程运行在我们的 Web 基础设施上,所以你无需让电脑一直开着。 — @claudeai 在 X 上
可用性与限制:
| 计划 | 例程/天 |
|---|---|
| Pro | 5 |
| Max | 15 |
| Team / Enterprise | 25 |
适用于所有付费方案(Pro、Max、Team、Enterprise),且已启用 Claude Code web。超出配额后仍可继续使用。例程会像交互式会话一样消耗订阅额度。
已记录的使用场景:
- 待办管理:夜间分流、打标签、Slack 总结
- 文档漂移(docs drift):每周扫描已合并 PR,检测需要更新的页面
- 部署后检查:每次发布后的冒烟测试(smoke checks)
- SDK 移植:每个合并的 Python PR 会自动触发向 Go SDK 的移植
🔗 Anthropic 博客 🔗 公告推文
Claude Code v2.1.105 — PreCompact hooks、插件监控器、/proactive
4月11日至13日 — Claude Code 的 2.1.105 版本带来了多项显著改进:
| 功能 | 描述 |
|---|---|
path 参数用于 EnterWorktree | 允许切换到当前仓库中已存在的 worktree |
| PreCompact Hook | 现在 hooks 可以阻止压缩(退出码 2 或 {"decision":"block"}) |
| 插件后台监控器 | plugin manifest 中的 monitors 键——会在会话启动时自动启用 |
/proactive | /loop 的新别名 |
| 放弃卡住的 Streams API | 5 分钟无数据后放弃 + 以非流式模式重试 |
| 网络错误消息 | 立即显示重试消息,而不是静默 spinner |
| 长文件显示 | 非常长的单行写入(例如 minified JSON)会在界面中被截断 |
改进的 /doctor | 状态图标 + 按 f 让 Claude 修复检测到的问题 |
4月14日 — 2.1.107 版本带来了一项界面改进:在长时间操作中,进度提示(thinking hints)现在会更早显示,从而减少在没有视觉反馈时的等待感。
Anthropic — Vas Narasimhan 加入董事会
4月14日 — Anthropic 的长期利益信托(Long-Term Benefit Trust,LTBT)任命 Vas Narasimhan 加入董事会。作为医生科学家和 Novartis 的 CEO,他在全球监管最严格的行业之一中监督了 35 种以上创新药物的研发和获批。
随着这一任命,信托任命的董事如今已构成董事会多数。LTBT 是一个独立机构,其成员对 Anthropic 没有任何财务利益——其职责是在商业成功与长期公共利益使命之间维持平衡。
Gemini Robotics-ER 1.6 — 工业感知与安全
4月14日 — Google DeepMind 发布 Gemini Robotics-ER 1.6,这是其用于机器人技术的具身推理(embodied reasoning)模型更新版。该模型增强了视觉与空间理解能力,使机器人能够更自主地规划和执行真实任务。它在内部机器人 benchmark 上优于 Gemini Robotics-ER 1.5 和 Gemini 3.0 Flash。
新能力:
| 能力 | 描述 |
|---|---|
| 空间指向 (Pointing) | 物体检测与计数、关系逻辑(更小/更大)、轨迹与抓取点、复杂约束 |
| 多视角成功检测 | 从多个摄像机角度进行分析,以确认任务确实已完成 |
| 仪表读取 | 读取圆形表盘和透明管(sight glasses)——与 Boston Dynamics 合作开发,用于工业检测 |
| 安全性(ASIMOV v2 benchmark) | 在所有测试模型中,对安全指令遵守方面取得最佳分数 |
仪表读取能力源自与 Boston Dynamics 围绕 Spot 机器人开展的合作,该机器人用于工业设施检查。它结合了空间推理与代码执行,以高精度解读压力表。
可用性: Gemini API (gemini-robotics-er-1.6-preview)、Google AI Studio,以及 GitHub Colab 上的启动 notebook。
GLM-5.1 — Z.ai 以 MIT 许可证开放其 agentic 模型
4月7日 (补录公告——在上周扫描时漏掉了) — Z.ai(原 ZhipuAI)发布了 GLM-5.1,其面向 agentic coding 的新旗舰模型,并以 MIT 许可证开源。
代码 benchmark 表现:
| Benchmark | GLM-5.1 | GLM-5 | Claude Opus 4.6 | GPT-5.4 | Gemini 3.1 Pro |
|---|---|---|---|---|---|
| SWE-Bench Pro | 58,4 | 55,1 | 57,3 | 57,7 | 54,2 |
| NL2Repo | 42,7 | 35,9 | 49,8 | 41,3 | 33,4 |
| Terminal-Bench 2.0 | 63,5 | 56,2 | 65,4 | — | 68,5 |
GLM-5.1 在 SWE-Bench Pro、Terminal-Bench 和 NL2Repo 上位列 开源第一,并且 全球第三。
关键差异:长时间跨度。 早期模型,包括 GLM-5,通常会在初期快速提升性能,然后进入平台期。GLM-5.1 则被设计为在更长时间跨度的 agentic 任务中持续高效:它可以自主工作长达 8 小时,并在成千上万次工具调用中不断优化策略。
三个场景展示了这一能力:
- 600 次迭代的向量数据库优化:GLM-5.1 在 VectorDBBench 上达到每秒 21,500 次请求,是单次 50 轮会话中最佳结果的 6 倍。
- 1,000+ 轮 GPU 核函数优化:KernelBench Level 3 上加速 3.6 倍。
- 在 8 小时内构建 Linux 桌面:仅凭一个自然语言提示,GLM-5.1 就能在浏览器中生成完整桌面环境(文件管理器、终端、编辑器、系统监视器)。
可用性: HuggingFace 上的开源权重 (zai-org/GLM-5.1),在 api.z.ai 和 BigModel.cn 上提供 API,兼容 Claude Code、Cline、Roo Code、Kilo Code 和 OpenCode。
🔗 GLM-5.1 博客 🔗 公告推文
Codex CLI v0.120.0 — 代理的实时流式传输
4月11日 — 0.120.0 版本的 Codex CLI 作为稳定版发布。它带来了多项功能改进:
| 功能 | 详情 |
|---|---|
| Realtime V2 | 实时流式传输后台代理的进度,并对后续响应进行排队 |
| 改进的 TUI hooks | 活动 hooks 单独显示,已完成 hooks 的历史记录更简洁 |
| 状态中的 thread 标题 | 自定义 TUI 状态可包含已重命名的 thread 标题 |
| code-mode 输出 schema | code-mode 工具声明现在包含 outputSchema MCP 详情 |
| SessionStart hooks | 区分由 /clear 创建的会话,以及启动或恢复的会话 |
该版本还包含若干 bug 修复:Windows 提权 sandbox 处理、WebSocket TLS 连接时的 panic、工具搜索结果顺序保留等。
GitHub Copilot — 三项新功能
为第三方代理选择模型
4月14日 — 现在可以在 github.com 上启动使用 Claude(Anthropic)和 Codex(OpenAI)代理的任务时选择模型。
| Agent | 可用模型 |
|---|---|
| Claude | Claude Sonnet 4.6、Claude Opus 4.6、Claude Sonnet 4.5、Claude Opus 4.5 |
| Codex | GPT-5.2-Codex、GPT-5.3-Codex、GPT-5.4 |
包含在现有 Copilot 订阅(Business 或 Enterprise)中,但管理员必须在企业或组织级别启用相应策略。
🔗 模型选择更新日志
三次点击解决 merge 冲突
4月13日 — 在有 merge 冲突的 pull request 上,现在会出现一个新的“Fix with Copilot”按钮。只需三次点击,Copilot cloud agent 就会解决冲突,验证 build 和 tests 是否通过,然后从其隔离的云环境推送。PR 中的 @copilot 提及也可用于修复失败的 GitHub Actions workflows,或处理 code review 评论。适用于所有付费 Copilot 方案。
US/EU 数据驻留与 FedRAMP 合规
4月13日 — GitHub Copilot 现在支持 US 和 EU 区域的数据驻留:所有推理及相关数据都会保留在指定地理区域内。美国政府客户还可获得 FedRAMP Moderate 合规支持。data-resident 请求会在 premium requests 乘数上增加 10% 的加价。Gemini 模型目前尚不受支持(GCP 目前还不提供带数据驻留的推理 endpoints)。日本和澳大利亚已列入 2026 年路线图。
🔗 数据驻留更新日志
生成式媒体 — Runway、Luma、MiniMax、ElevenLabs
Runway Characters 进入视频通话
4月14日 — Runway 推出 Characters 更新,允许将自己的 AI avatar 发送到 Zoom、Google Meet 或 Teams 视频通话中。流程是:选择或创建一个 Character → 粘贴会议链接 → 点击“Join Meeting”。这项功能最初于 3 月 9 日以面向开发者的 API 形式提供,如今已向所有 Runway 应用用户开放。
Luma — 语音听写与 logo 动画
4月14日 — Luma Labs 推出两项新功能:应用中的 语音听写(用户说话,描述会被转换为生成 prompt)以及 电影感 logo 动画(上传 logo,agent 生成一个面向品牌展示的动画开场)。
MiniMax — 为 agent 提供三个开源 Music Skills
4月14日 — MiniMax 开源了三个面向 agent 的 Music Skills:minimax-music-gen(从 prompt 生成整首歌曲,可自动在原创、纯伴奏和翻唱之间选择)、buddy-sings(AI agent 以陪唱身份演唱)、以及 Playlist curation(根据用户资料库进行播放列表策划)。这些组件面向集成到 M2.7 agents 中。
ElevenLabs — 2026 年第一季度净新增 1 亿美元年度经常性收入
4月13日 — CEO Mati Staniszewski 宣布,ElevenLabs 在 2026 年第一季度新增了超过 1 亿美元的净年度经常性收入——这是他们迄今为止表现最好的一个季度。增长由企业合作推动(Klarna、Revolut、Deutsche Telekom、Toyota)。
这意味着什么
Claude Code 中的例程代表了一种范式转变:开发工具不再只是响应交互式请求,它现在还可以在项目基础设施中主动执行计划任务或响应式任务。scheduled + webhook 的组合将 Claude Code 变成了某个仓库上的常驻 agent,而配置成本极低。
在开源方面,GLM-5.1 证明了中国的 agentic 模型已经达到最佳专有模型在代码 benchmark 上的水平。 La capacité à maintenir un horizon de 8 heures de travail autonome — avec des milliers d’appels d’outils — ouvre des possibilités concrètes pour des tâches d’optimisation intensive que les modèles traditionnels ne peuvent pas gérer en une seule session.
Gemini Robotics-ER 1.6 illustre une tendance différente : des modèles d’IA générale adaptés aux contraintes physiques du monde réel, avec une collaboration entre logiciel et hardware (Boston Dynamics/Spot) qui produit des capacités nouvelles comme la lecture d’instruments industriels.
Sources
- Blog Anthropic — Routines Claude Code
- Tweet @claudeai — Routines
- CHANGELOG Claude Code
- Anthropic — Nomination Vas Narasimhan
- Blog Google DeepMind — Gemini Robotics-ER 1.6
- Tweet @GoogleDeepMind — Gemini Robotics-ER 1.6
- Blog Z.ai — GLM-5.1
- Tweet @Zai_org — GLM-5.1
- Release Codex CLI v0.120.0
- GitHub Changelog — Sélection de modèle agents tiers
- GitHub Changelog — Merge conflicts Copilot
- GitHub Changelog — Data residency US/EU FedRAMP
- Tweet @runwayml — Characters vidéo call
- Tweet @LumaLabsAI — Voice dictation
- Tweet @LumaLabsAI — Logo animation
- Tweet @MiniMax_AI — Music Skills
- Tweet CEO ElevenLabs — 100M ARR
该文档已使用 gpt-5.4-mini 模型从 fr 版本翻译为 zh 语言。有关翻译过程的更多信息,请参阅 https://gitlab.com/jls42/ai-powered-markdown-translator