搜索

Claude 在移动端整合 Figma/Canva,Claude Code 启动速度提升 2.8x,GitHub Copilot 更改数据策略

Claude 在移动端整合 Figma/Canva,Claude Code 启动速度提升 2.8x,GitHub Copilot 更改数据策略

2026 年 3 月 25 日和 26 日,Anthropic 发布了几项重要公告:Claude 在移动端将 Figma、Canva 和 Amplitude 作为工作工具直接集成;Claude Code 通过 60 天的 Bun 优化,启动速度提升 2.8x;GitHub Copilot 更改其交互数据使用政策,用户可在 4 月 24 日前选择退出。Google DeepMind 推出 Lyria 3 Pro,可生成最长 3 分钟的音乐片段;NVIDIA 在 GTC 2026 上成立 Nemotron Coalition。


Claude:移动端工作工具(Figma、Canva、Amplitude)

3 月 25 日 — Claude 现在在移动应用中直接整合了三款工作工具:FigmaCanvaAmplitude。用户可以在手机上直接管理设计、创作和分析工作流程,无需离开 Claude 界面。

该公告在 X 上配有演示视频,数小时内获得了 190 万次观看 —— 这表明在移动界面中集成专业工具满足了强烈需求。

🔗 @claudeai 在 X 上的公告


Claude Code:启动速度提升 2.8x,Agent SDK 提升 5.1x

3 月 24 日 — 在 Jarred Sumner(Bun 的创建者,2025 年 12 月被 Anthropic 收购)领导的 60 天优化后,Claude Code 的启动现在比之前快 2.8x,Agent SDK 的性能显示提升 5.1x

这些提升来自对嵌入在 Claude Code 中的 Bun 运行时的底层优化——启动、内存管理和初始响应时间的优化。Brian Cherny(@bcherny,Claude Code 团队)转发的这条技术线程具体展示了将 Bun 集成到 Claude 工具链的实际效果。

🔗 X 上 @jarredsumner 的线程


GitHub Copilot:在 4 月 24 日前对交互数据可选择退出

3 月 25 日 — GitHub 产品总监 Mario Rodriguez 宣布更新 Copilot 的交互数据使用政策。从 2026 年 4 月 24 日 起,GitHub 将使用 Copilot Free、Pro 和 Pro+ 用户的交互数据——包括输入、输出、代码片段及其相关上下文——用于训练和改进其 AI 模型。

受影响的用户可以在该日期前通过账户设置禁用此共享。Copilot BusinessCopilot Enterprise 订阅用户不受此更改影响——其数据仍受现有合同条款约束,不用于训练。

计划受此变更影响是否可选择退出
Copilot Free
Copilot Pro
Copilot Pro+
Copilot Business
Copilot Enterprise

关键时间点为 4 月 24 日:在此日期前未禁用共享的用户将开始对训练数据做出贡献。

🔗 GitHub Copilot 交互数据使用政策更新 🔗 在 X 上的公告


Lyria 3 Pro:采用音乐结构,可生成最长 3 分钟的音乐片段

3 月 25 日 — Google DeepMind 推出 Lyria 3 Pro,这是上个月发布的 Lyria 3 的进阶版本。主要变化是:生成时长提升到 3 分钟,而之前为 30 秒——增幅为 6 倍。

该模型现在包含音乐结构(musical architecture)——前奏、主歌、副歌、桥段等——可以生成具有连贯过渡和复杂结构的曲目。提示(prompts)可接受文本、图片或视频作为出发点。

平台访问状态
Application Gemini付费订阅用户可用
Google AI Studio + API Gemini开发者可通过 Lyria RealTime 使用
Vertex AI企业公开预览
Google VidsWorkspace + AI Pro/Ultra3 月 25 日当周部署
ProducerAI免费与付费针对音乐人的智能代理体验

Lyria 3 Pro 已被制作人 Yung Spielburg 用于 Google DeepMind 短片 “Dear Upstairs Neighbors”,并宣布将与 DJ François K 合作推出新曲。

🔗 Google 官方博客 — Lyria 3 Pro 🔗 在 X 上的公告


NVIDIA Nemotron Coalition:面向 frontier 级别的开放基础模型

3 月 25 日 — 在 NVIDIA GTC 2026 上,Jensen Huang 宣布成立 NVIDIA Nemotron Coalition,这是一个面向开发 frontier 级别开放基础模型的全球厂商联盟。

该联盟的首个具体项目将由 Mistral AI 与 NVIDIA 共同开发一个基础模型,成员将贡献数据、评估与领域专业知识。GTC 会议的讨论嘉宾包括 Mira Murati(Thinking Machines Lab)、Aravind Srinivas(Perplexity)、Arthur Mensch(Mistral)、Robin Rombach(Black Forest Labs),以及来自 Cursor 和 Ai2 的代表。

会议中提到的一些数据:

  • NVIDIA 已成为 Hugging Face 上最大的组织,约有 4000 名成员
  • Nemotron 模型的下载量超过 4500 万次

“Proprietary versus open is not a thing. It’s proprietary and open.”

🇨🇳 专有与开放的区别并不真正存在。它既是专有的是开放的。黄仁勋,NVIDIA GTC 2026

🔗 NVIDIA 博客 — AI 的未来:开放与专有


OpenAI:Model Spec 的幕后与相关评估

3 月 25 日 — OpenAI 发布了关于其 Model Spec 方法的详细说明——这是定义其模型预期行为的公开框架。该文章由 OpenAI 研究员 Jason Wolfe 撰写,阐述了其理念、结构与演进机制。

Model Spec 围绕若干不同层级构建:

层级说明
公开意图与承诺高层目标:迭代部署、避免严重伤害
指挥链 (Chain of Command)在 OpenAI 指示、开发者与用户之间解决冲突的规则
严格规则 (Hard rules)不可更改的限制:灾难性风险、致伤、非法内容
默认行为开发者与用户可调整的起始行为
解释辅助用于模棱两可情形的决策规则与示例

核心区分在于:严格规则为不可规避(相当于“root”层级),而默认行为是可配置的——这使用户在安全边界内拥有更大的自由。

OpenAI 论证称,足够先进的 AI 无法仅从诸如“有用且安全”这样的宏观目标推断出正确行为:这些表述过度依赖上下文并涉及价值取舍。Model Spec 同时作为内部目标、透明工具以及团队间协调机制。

同时,OpenAI 发布了 Model Spec Evals——一套评估场景,试图通过代表性示例覆盖 Model Spec 的主张,以衡量模型实际行为与规范之间的差距。

🔗 关于我们对 Model Spec 的方法 🔗 在 X 上的公告


Genspark Realtime Voice:免手动的实时语音助理

3 月 25 日 — Genspark 推出 Realtime Voice,一款完全免手动的实时语音助理。发布时强调的使用场景是通勤驾驶时的使用。

公布的功能包括查看日程、发送电子邮件和消息、检索信息和创建通勤播放列表。该助理还可以生成幻灯片(slides)、进行深入研究(deep research)并分析数据——全部通过语音完成。

🔗 在 X 上的公告


OpenAI Safety Bug Bounty:报告 AI 风险

3 月 25 日 — OpenAI 推出专注于 AI 安全的 bug bounty 计划,独立于现有的传统信息安全计划。该新计划接受无法归类为传统软件漏洞但属于滥用风险的报告。

覆盖类别示例
智能代理风险(含 MCP)第三方 prompt 注入、通过 agent 外泄、未经授权的大规模行动
OpenAI 专有信息生成揭示专有推理信息
账户与平台完整性绕过反自动化控制、操纵信任信号

传统的 jailbreaks 不在范围内。OpenAI 还表示会针对特定损害类型进行私密测试活动——例如在 ChatGPT Agent 和 GPT-5 中针对生物风险内容的检测。

🔗 介绍 OpenAI 安全 Bug Bounty 计划


Codex Creator Challenge:面向学生的竞赛,奖励 10,000 美元 API 额度

3 月 25 日 — OpenAI 与 Handshake 发起 Codex Creator Challenge,面向学生的比赛,旨在用 Codex 构建真实项目。奖金为 10,000 美元 的 OpenAI API 充值额度。该挑战鼓励学生尝试 Codex 工具并构建实际应用。

🔗 X 上 @OpenAIDevs 的推文


ElevenLabs:ElevenAgents 中的 Guardrails 2.0,获 AIUC-1 认证

3 月 24 日 — ElevenLabs 在其平台 ElevenAgents 中部署 Guardrails 2.0。该安全层允许在生产中通过自定义的业务策略或预配置保护来控制 agent 的行为:保持主题相关(on-topic)、品牌一致性(on-brand)、抵抗操纵等。

Guardrails 2.0 获得 AIUC-1AI Use Case standard)认证,并包含数据保护、会话历史写入和部署后监控功能。

🔗 在 X 上的公告


PrismAudio:阿里 Tongyi Lab 发布的开源视频转音频模型

3 月 24 日 — 阿里巴巴的 Tongyi Lab 发布了 PrismAudio,一个视频转音频(Video-to-Audio)模型。与传统的 V2A(Video-to-Audio)方法使用单一损失函数对整体进行优化不同,PrismAudio 采用“分解的多头链式思考”(Decomposed Multi-CoT)结构,包含三个独立的专用头,各自负责生成音频的不同方面。

该模型使用多维强化学习(Multi-Dimensional RL)和 Fast-GRPO 进行训练,以使生成的音频更符合人类偏好。模型、在线演示与 arXiv 论文等资源已通过 HuggingFace、ModelScope 和项目专页发布。

🔗 在 X 上的公告


Claude Code v2.1.83:Enterprise 设置的集中化管理

3 月 25 日 — Claude Code 的 2.1.83 版本引入了 drop-in 目录 managed-settings.d/,面向 Enterprise 管理员。该目录允许组织通过放置配置文件来集中管理 Claude Code 的设置,适用于部署中的所有终端。

🔗 Claude Code 更新日志


Kling AI Team Plan:最多 15 人的协作

3 月 24 日 — Kling AI 推出 Team Plan,这是一项团队协作计划,支持最多 15 名成员在平台上协作。该计划包含共享素材并允许商业使用创作内容。

🔗 X 上 @Kling_ai 的公告


Manus Desktop:至 3 月 30 日的额度消耗减半

3 月 24 日 — Manus 在其 Desktop 应用上推出临时促销:2026 年 3 月 24 日至 30 日期间,每个任务消耗的额度减少 50%。在此期间,通过 Manus Desktop 完成的所有任务,现有额度的实际使用价值翻倍。

🔗 在 X 上的公告


NVIDIA 将其 DRA GPU 驱动贡献给 Kubernetes 社区

3 月 24 日 — 在 NVIDIA GTC 2026 期间,NVIDIA 宣布将其 GPU 动态资源分配(Dynamic Resource Allocation, DRA)驱动捐赠给 Kubernetes 社区。此举体现了 NVIDIA 的开源承诺,并有助于在 Kubernetes 环境中实现 GPU 资源的动态分配。

🔗 NVIDIA 博客 — AI 的未来:开放与专有


这意味着什么

这段时间的两项 Anthropic 公告是互补的:移动端整合 Figma、Canva 与 Amplitude 将 Claude 更加贴近日常专业工作流,而 Claude Code 启动速度(2.8x)与 Agent SDK(5.1x)的性能提升则切实改善了开发者的持续使用体验。这两条路线——面向大众的移动使用与面向开发者的性能——共同构成了 Anthropic 的双重路径。

GitHub Copilot 关于交互数据的决定对个人开发者影响最大:这是第一次大众计划(Free、Pro、Pro+)的用户其交互可能被用于训练模型。虽然提供了可选择退出的选项,但必须在 4 月 24 日前激活——这一短时间窗口值得关注。

NVIDIA 的 Nemotron Coalition 是业界开源策略的强烈信号。通过将 Mistral、Black Forest Labs、Cursor 等组织正式集合为一个联盟以开发 frontier 级别的模型,NVIDIA 把开源定位为不再是专有模型的替代品,而是一个并列的、完整的类别。Jensen Huang 那句——“既是专有也是开放”(proprietary and open),很好地概括了这一再定位。 Lyria 3 Pro 确认音乐生成正朝着可用于生产的格式发展:3 分钟并具有连贯结构(前奏、主歌、副歌)的作品改变了使用场景的性质,使其从实验性片段转向完整曲目。发布周就能在 Google 的多个平台上使用,加速了采纳。

OpenAI 发布的 Model Spec Evals —— 一套用于衡量模型行为与书面规范之间差距的评估 —— 值得注意:这是公开测量模型与其自身行为准则一致性的最早尝试之一。


来源

本文件已使用 gpt-5-mini 模型从法语(fr)翻译为中文(zh)。如需了解更多关于翻译过程的信息,请参阅 https://gitlab.com/jls42/ai-powered-markdown-translator