搜索

Copilot CLI 远程控制、MiniMax M2.7、Qwen3.5-Omni API

Copilot CLI 远程控制、MiniMax M2.7、Qwen3.5-Omni API

2026年4月13日,GitHub 为 Copilot CLI 会话推出了远程控制(remote control)功能,允许通过一个简单的 QR 码从网页或手机控制终端。MiniMax 发布了 M2.7,这是一款可在 ModelScope 上获取的 agent 模型,并且从第一天起就具备可用的 cloud 生态。Alibaba 为全球开发者提供了 Qwen3.5-Omni API,而 Google DeepMind 宣布,启用 Thinking 模式的 Gemini 3.1 Flash Live 现已在 τ-Voice 语音 agent 排行榜中位居第一。


GitHub Copilot CLI — 从网页和移动端远程控制

4月13日 — GitHub 在公开预览中推出 copilot --remote:现在可以从 GitHub.com 或 GitHub Mobile 应用监控并控制正在进行的 Copilot CLI 会话,而无需直接访问机器。

其工作方式很简单:启动远程会话时,CLI 会显示一个链接和一个 QR 码。通过浏览器或手机访问该链接后,用户即可进入当前会话的界面。同步是双向的——在网页或移动端执行的操作会反映到终端中,反之亦然。

功能详情
启动在现有会话中使用 copilot --remote/remote
访问CLI 显示链接 + QR 码
应用GitHub.com + GitHub Mobile(iOS TestFlight、Android Google Play beta)
同步实时双向同步
隐私私有会话,仅对启动它的用户可见
保持会话使用 /keep-alive 命令避免长任务时进入休眠

所有常见的 CLI 功能仍可远程使用:会话中的 steering、审查和修改计划、切换模式(plan / interactive / autopilot)、批准或拒绝权限、回答 ask_user 问题。

企业注意: Copilot Business 或 Enterprise 用户需要管理员先启用远程控制和 CLI 政策后才能使用。

🔗 GitHub Changelog 公告


MiniMax M2.7 — 具备 day-0 cloud 生态的开源 agent 模型

4月12日 — MiniMax 发布了 M2.7,一款可在 ModelScope 上获取的 agent 架构 LLM,并且从第一天起就提供可用的 vLLM 集成。

公开的性能结果显示,M2.7 已达到最佳编码模型的水平:

BenchmarkM2.7 得分
SWE-Pro56,22%(与 GPT-5.3-Codex 持平)
Terminal Bench 257,0%

该模型面向多 agent 编排(Agent Teams)、高级编程以及命令行任务自动化而设计。它可立即通过 Together AI(serverless 和 dedicated)以及 Fireworks AI 使用。

备注: MiniMax 在发布后澄清,M2.7 并非在许可证意义上严格开源——该模型已在修改后的使用条款下重新发布。

🔗 ModelScope 上的开源公告 🔗 day-0 vLLM 支持 🔗 Together AI 可用性


Qwen3.5-Omni API — 国际可用

4月13日 — Tongyi Lab(Alibaba)宣布通过 Alibaba Cloud Model Studio 提供 Qwen3.5-Omni API 的国际可用性。模型 qwen3.5-omni-plus 可立即使用 API key 访问。

Qwen3.5-Omni 于 2026年3月29日发表的研究文章中亮相,是一种原生 omnimodal 模型:它在单次推理中处理文本、图像、音频和视频,而无需多阶段 pipeline。它通过混合架构提供两种工作模式——Thinker(推理)和 Talker(语音对话)。

“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”

🇨🇳 Qwen3.5-Omni API 现已正式上线,随时准备改变您处理视频内容的方式。@Ali_TongyiLab 在 X 上

🔗 公告线程 🔗 Alibaba Cloud Model Studio


Gemini 3.1 Flash Live (Thinking) — τ-Voice 排行榜第 1 名

4月13日 — Google DeepMind 产品经理 Tulsee Doshi 宣布,启用 Thinking 模式的 Gemini 3.1 Flash Live 已在 Sierra Platform 的 τ-Voice Leaderboard 中夺得第一名。

该榜单衡量模型在构建实时语音 agent 方面的表现:语音理解、多轮推理,以及在接近生产环境的场景中执行动作的能力。Gemini 3.1 Flash Live 于 2026年3月26日发布;这一结果验证了它对构建语音应用的开发者的能力。

该模型可通过 Google AI Studio 中的 Gemini Live API 使用。

🔗 X 上的公告 🔗 τ-Voice Leaderboard


Claude 的 TurboTax 和 Aiwyn Tax 连接器

4月12日 — Anthropic 的 Henry Shi 宣布为 Claude 推出两个新的连接器:TurboTaxAiwyn Tax(原 Column Tax),发布时正值美国 4 月 15 日报税截止日前几天。

连接后,Claude 可以估算退款或应缴金额,解释税务表格,并在报税流程中引导用户。这些连接器面向拥有 Claude 订阅的美国用户。

🔗 Henry Shi 在 X 上的公告


这意味着什么

GitHub 的 copilot --remote 功能是当天最具结构性的一项:它为长时间运行的 CLI 任务开启了一种新的使用方式——可以先在工作站上启动会话,再从任意设备进行监控或控制。这是对可运行数小时的自主 agent 使用场景的直接回应。

在模型层面,MiniMax M2.7 和 Qwen3.5-Omni 展现了两种不同的趋势:M2.7 面向部署编码 agent 的开发者(并且从第一天起就集成 vLLM,这与大多数后来才进入该生态的模型不同);Qwen3.5-Omni 则押注原生多模态,以视频作为核心卖点。

Gemini 3.1 Flash Live 在 τ-Voice Leaderboard 上的结果则确认了 Google 正在认真投入生产级语音 agent 这一领域——这是一个仍然缺乏成熟结构但正在增长的市场。


来源

该文档已使用 gpt-5.4-mini 模型从 fr 版本翻译为 zh 语言。有关翻译过程的更多信息,请参阅 https://gitlab.com/jls42/ai-powered-markdown-translator