在2026年4月13日,GitHub 为 Copilot CLI 会话推出了远程控制(remote control)功能,允许通过一个简单的 QR 码从网页或手机控制终端。MiniMax 发布了 M2.7,这是一款可在 ModelScope 上获取的 agent 模型,并且从第一天起就具备可用的 cloud 生态。Alibaba 为全球开发者提供了 Qwen3.5-Omni API,而 Google DeepMind 宣布,启用 Thinking 模式的 Gemini 3.1 Flash Live 现已在 τ-Voice 语音 agent 排行榜中位居第一。
GitHub Copilot CLI — 从网页和移动端远程控制
4月13日 — GitHub 在公开预览中推出 copilot --remote:现在可以从 GitHub.com 或 GitHub Mobile 应用监控并控制正在进行的 Copilot CLI 会话,而无需直接访问机器。
其工作方式很简单:启动远程会话时,CLI 会显示一个链接和一个 QR 码。通过浏览器或手机访问该链接后,用户即可进入当前会话的界面。同步是双向的——在网页或移动端执行的操作会反映到终端中,反之亦然。
| 功能 | 详情 |
|---|---|
| 启动 | 在现有会话中使用 copilot --remote 或 /remote |
| 访问 | CLI 显示链接 + QR 码 |
| 应用 | GitHub.com + GitHub Mobile(iOS TestFlight、Android Google Play beta) |
| 同步 | 实时双向同步 |
| 隐私 | 私有会话,仅对启动它的用户可见 |
| 保持会话 | 使用 /keep-alive 命令避免长任务时进入休眠 |
所有常见的 CLI 功能仍可远程使用:会话中的 steering、审查和修改计划、切换模式(plan / interactive / autopilot)、批准或拒绝权限、回答 ask_user 问题。
企业注意: Copilot Business 或 Enterprise 用户需要管理员先启用远程控制和 CLI 政策后才能使用。
MiniMax M2.7 — 具备 day-0 cloud 生态的开源 agent 模型
4月12日 — MiniMax 发布了 M2.7,一款可在 ModelScope 上获取的 agent 架构 LLM,并且从第一天起就提供可用的 vLLM 集成。
公开的性能结果显示,M2.7 已达到最佳编码模型的水平:
| Benchmark | M2.7 得分 |
|---|---|
| SWE-Pro | 56,22%(与 GPT-5.3-Codex 持平) |
| Terminal Bench 2 | 57,0% |
该模型面向多 agent 编排(Agent Teams)、高级编程以及命令行任务自动化而设计。它可立即通过 Together AI(serverless 和 dedicated)以及 Fireworks AI 使用。
备注: MiniMax 在发布后澄清,M2.7 并非在许可证意义上严格开源——该模型已在修改后的使用条款下重新发布。
🔗 ModelScope 上的开源公告 🔗 day-0 vLLM 支持 🔗 Together AI 可用性
Qwen3.5-Omni API — 国际可用
4月13日 — Tongyi Lab(Alibaba)宣布通过 Alibaba Cloud Model Studio 提供 Qwen3.5-Omni API 的国际可用性。模型 qwen3.5-omni-plus 可立即使用 API key 访问。
Qwen3.5-Omni 于 2026年3月29日发表的研究文章中亮相,是一种原生 omnimodal 模型:它在单次推理中处理文本、图像、音频和视频,而无需多阶段 pipeline。它通过混合架构提供两种工作模式——Thinker(推理)和 Talker(语音对话)。
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇨🇳 Qwen3.5-Omni API 现已正式上线,随时准备改变您处理视频内容的方式。 — @Ali_TongyiLab 在 X 上
🔗 公告线程 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — τ-Voice 排行榜第 1 名
4月13日 — Google DeepMind 产品经理 Tulsee Doshi 宣布,启用 Thinking 模式的 Gemini 3.1 Flash Live 已在 Sierra Platform 的 τ-Voice Leaderboard 中夺得第一名。
该榜单衡量模型在构建实时语音 agent 方面的表现:语音理解、多轮推理,以及在接近生产环境的场景中执行动作的能力。Gemini 3.1 Flash Live 于 2026年3月26日发布;这一结果验证了它对构建语音应用的开发者的能力。
该模型可通过 Google AI Studio 中的 Gemini Live API 使用。
🔗 X 上的公告 🔗 τ-Voice Leaderboard
Claude 的 TurboTax 和 Aiwyn Tax 连接器
4月12日 — Anthropic 的 Henry Shi 宣布为 Claude 推出两个新的连接器:TurboTax 和 Aiwyn Tax(原 Column Tax),发布时正值美国 4 月 15 日报税截止日前几天。
连接后,Claude 可以估算退款或应缴金额,解释税务表格,并在报税流程中引导用户。这些连接器面向拥有 Claude 订阅的美国用户。
这意味着什么
GitHub 的 copilot --remote 功能是当天最具结构性的一项:它为长时间运行的 CLI 任务开启了一种新的使用方式——可以先在工作站上启动会话,再从任意设备进行监控或控制。这是对可运行数小时的自主 agent 使用场景的直接回应。
在模型层面,MiniMax M2.7 和 Qwen3.5-Omni 展现了两种不同的趋势:M2.7 面向部署编码 agent 的开发者(并且从第一天起就集成 vLLM,这与大多数后来才进入该生态的模型不同);Qwen3.5-Omni 则押注原生多模态,以视频作为核心卖点。
Gemini 3.1 Flash Live 在 τ-Voice Leaderboard 上的结果则确认了 Google 正在认真投入生产级语音 agent 这一领域——这是一个仍然缺乏成熟结构但正在增长的市场。
来源
- GitHub Changelog — Copilot CLI remote control(4月13日)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — vLLM 支持
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API 可用 — 主推文
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice 第 1 名
- τ-Voice Leaderboard — Sierra Platform
- Claude 的 TurboTax/Aiwyn Tax 连接器
该文档已使用 gpt-5.4-mini 模型从 fr 版本翻译为 zh 语言。有关翻译过程的更多信息,请参阅 https://gitlab.com/jls42/ai-powered-markdown-translator