4月15日はニュースが盛りだくさんだった。Anthropicは並列エージェント向けに設計し直したClaude Codeのデスクトップアプリを全面刷新し、OpenAIはネイティブサンドボックスと標準化されたエージェント用プリミティブを備えたAgents SDK v0.14.0を公開。Googleは同時にGemini 3.1 Flash TTS(Elo 1,211)と無料のmacOSデスクトップアプリを発表した。並行して、MistralはStudioでMCP Connectorsを開放し、Anthropicはアラインメントに関する2本の注目研究を公開、さらに自動車広告では初となる、AIだけで制作されたMazdaの初CMも登場した。
Claude Code Desktop:並列エージェント向けの再設計
4月14日 — Anthropicは、複数セッションを並行して実行できるように設計された、Claude Codeのデスクトップアプリの全面的な再設計を発表した。
“We’ve redesigned Claude Code on desktop. You can now run multiple Claude sessions side by side from the same app.”
🇯🇵 デスクトップ版Claude Codeを再設計しました。同じアプリから、複数のClaudeセッションを同時に並行実行できるようになりました。 — @claudeai on X
| 機能 | 説明 |
|---|---|
| セッションサイドバー | 進行中および最近のすべてのセッションを、ステータス、プロジェクト、環境で絞り込み可能 |
| サイドチャット(⌘+; / Ctrl+;) | メインセッションを汚さずに、そこから会話を分岐できる |
| 統合ターミナル | アプリを離れずにテストやビルドを実行 |
| アプリ内ファイルエディタ | ファイルを直接開いて編集し、保存できる |
| 再構築されたdiffビューア | 大きなchangesetでもパフォーマンスを改善 |
| 拡張プレビュー | HTML、PDF、ローカルサーバーをプレビューパネルで表示 |
| ドラッグ&ドロップレイアウト | ターミナル、プレビュー、diffビューア、チャットを自由に配置 |
| CLIプラグイン互換 | プラグインがデスクトップアプリでも同一挙動で動作 |
| Mac向けSSH拡張 | Linuxに加え、セッションをリモートマシンに向けられる |
| 3つの表示モード | Verbose、Normal、Summary — 詳細表示から結果のみまで |
セッションサイドバーは最も大きな変化だ。進行中のすべてのセッションを1か所に集約し、複数のエージェントを並行して扱うワークフローを根本から変える。サイドチャット(⌘+;、Linux/Windowsでは Ctrl+;)を使えば、メインセッションのコンテキストを汚さずに別会話を開始できる。ちょっとした質問をしたり、仮説を試したりするのに便利だ。
macOSへのSSH対応は、Linuxとの間にあった目立つ差を埋める。これにより、Macからリモートマシンを指してセッションを実行できるようになり、コードは遠隔サーバー上で動かしつつ、ローカルのUIから制御するワークフローが可能になる。
現在、Claude CodeのPro、Max、Team、Enterpriseプランの全ユーザー、およびClaude APIで利用可能。
🔗 Claudeブログ — Redesigning Claude Code on desktop 🔗 アプリをダウンロード
OpenAI Agents SDK v0.14.0:ネイティブサンドボックスとエージェント用プリミティブ
4月15日 — OpenAIはAgents SDKの大きなアップデートを公開した(openai-agents>=0.14.0)。この発表では、このSDKを本番環境でエージェントを構築するための標準インフラとして位置づけている。
強化されたネイティブハーネス
SDKには、他の最先端エージェント実行環境が備えるものに揃えた一連のプリミティブが追加された。
| Primitive | 説明 |
|---|---|
| MCP (tool use) | MCPプロトコルによるツール呼び出し |
| AGENTS.md | 設定ファイルによるカスタム指示 |
shell tool | コマンド実行(code execution) |
apply patch tool | パッチによるファイル編集 |
| Skills | 段階的な能力開示 |
| 設定可能なメモリ | エージェントの長期状態管理 |
サンドボックス実行環境
エージェントは、ファイルシステム、依存関係、ツールを備えた制御された環境(sandboxes)で実行できるようになった。オーケストレーター(harness)と計算(compute)の分離は、3つの目的のために設計されている。生成コードが実行される環境で認証情報を保護すること、コンテナ障害時にチェックポイント(checkpoint)と再ハイドレーションによる永続実行を可能にすること、そして複数のサンドボックスを並行して使うことでスケーリング(scaling)することだ。
ネイティブ対応のサンドボックスプロバイダ:Blaxel、Cloudflare、Daytona、E2B、Modal、Runloop、Vercel。
Manifest 抽象化によるストレージ:AWS S3、Google Cloud Storage、Azure Blob Storage、Cloudflare R2。
利用可能性
Pythonが先行対応で、TypeScriptは次のバージョンで予定。先行テストを実施した企業には、Oscar Health、LexisNexis、Thomson Reuters、Zoomが含まれる。
Gemini 3.1 Flash TTS:audio tagsとElo 1,211
4月15日 — Googleは、これまでで最も表現力が高く制御しやすい音声合成(text-to-speech)モデル、Gemini 3.1 Flash TTSを発表した。
目玉の新機能はaudio tagsの導入だ。入力テキストに直接埋め込む自然言語コマンドで、音声スタイル、リズム、トーンを制御できる。[excitement] で囲まれた部分は熱意を込めて読み上げられ、[explanatory] の部分は教育的な口調になる。このアプローチにより、開発者は正確な音声体験を組み立てる「ディレクター」の役割を担える。
| 機能 | 詳細 |
|---|---|
| Audio tags | テキスト内の自然言語コマンド |
| 対応言語 | 70以上(うち24言語は高品質評価済み) |
| マルチスピーカー対話 | ネイティブ |
| Watermarking | 生成音声全体にSynthIDを統合 |
| Eloスコア | 1,211(Artificial Analysis TTS Leaderboard) |
ベンチマークであるArtificial Analysis TTSでElo 1,211を記録しており、このベンチマークはブラインドテストでの何千もの人間の嗜好を測定するものだ。モデルは、品質とコストのバランスにおいて「最も魅力的な四象限」に位置づけられている。
Google AI Studioでは、3つの高度なコントロールが利用できる。Scene direction(環境と演技指示を定義)、Speaker-level specificity(キャラクターごとの固有音声プロファイル)、Seamless export(プロジェクト間で音声の一貫性を保つためのAPIコードへのパラメータ書き出し)だ。
生成されたすべての音声には、Googleのデジタル透かしであるSynthIDが目に見えない形で埋め込まれる。
提供状況:
- 開発者:Gemini API と Google AI Studio でプレビュー
- 企業:Vertex AI でプレビュー
- Workspaceユーザー:Google Vids経由
🔗 blog.google記事 — Gemini 3.1 Flash TTS
Gemini App for Mac:ネイティブデスクトップクライアント
4月15日 — GoogleはmacOS向けのGeminiアプリを公開し、macOS 15以降の全ユーザーに無料で提供する。
| 機能 | 詳細 |
|---|---|
| グローバルショートカット | どのアプリからでも Option + Space |
| ウィンドウ共有 | ローカル文書、コード、データのコンテキスト |
| 画像生成 | Nano Banana統合 |
| 動画生成 | Veo統合 |
| 提供状況 | 無料、macOS 15+、全世界 |
アプリは Option + Space により、どの画面からでも呼び出せるため、作業の流れを中断せずにGeminiへ質問できる。アクティブなウィンドウを共有して、ローカルファイル、表、グラフ、コードブロックの文脈を即座に与えることも可能だ。
Googleはこの版を「最初のリリース」と位置づけ、今後数か月でさらに多くの発表があるとして、個人向けで先回りするデスクトップアシスタントの土台になると説明している。
🔗 blog.google記事 — Gemini App for macOS
Claude Code v2.1.108 と v2.1.109:セッション要約、1時間キャッシュ、thinking
4月14〜15日 — 2日間でClaude Codeが2つ更新された。
v2.1.108 では、いくつかの機能改善が追加された。
| 機能 | 説明 |
|---|---|
| セッション要約 | /recap または /config。不在後に自動で起動。CLAUDE_CODE_ENABLE_AWAY_SUMMARY で強制可能 |
| 1時間のprompt caching | ENABLE_PROMPT_CACHING_1H 変数でTTL 1時間(API key、Bedrock、Vertex、Foundry)。FORCE_PROMPT_CACHING_5M でTTL 5分を強制 |
| Skill tool経由のslash commands | モデルが built-in コマンド(/init、/review、/security-review)を Skill tool ിലൂടെ呼び出せる |
/undo エイリアス | /undo は /rewind のエイリアスになった |
/model 改善 | モデル変更前の警告(次の応答はキャッシュなしで履歴全体を再読み込みする) |
/resume 改善 | 現在のディレクトリのセッションを既定に。すべてのプロジェクトを見るには Ctrl+A |
/recap 機能は、並列エージェントの文脈で特に有用だ。バックグラウンドに置いていたセッションに戻ったとき、Claudeが最後のやり取り以降に何が起きたかを要約してくれる。
v2.1.109 では、extended thinking モードのUIが改善され、進捗インジケーターが回転するヒントを伴って回ることで、モデルが思考段階にあることをより分かりやすく示すようになった。
Anthropic:自動化されたアラインメント研究者(PGR 0.97)
4月14日 — Anthropic Fellowsプログラムの一環として、独創的な実験が行われた。Claude Opus 4.6を使ってアラインメント研究を加速できるのか、という問いだ。
「弱い教師から強い教師へ」(weak-to-strong supervision)という監督課題は、今後の難題の予行演習だ。自分たちより賢いモデルをどう監督するのか。実験では、強いモデル(Qwen 3-4B-Base)と、弱いモデルを「教師」とする(Qwen 1.5-0.5B-Chat)。performance gap recovered(PGR)は、強いモデルが弱い教師の限界をどれだけ超えられたかを測る指標だ。
実験設定: ツール付きのClaude Opus 4.6を9コピー(サンドボックス、共有フォーラム、ストレージ、スコアサーバー)が5日間並行稼働。各インスタンスには、アプローチの多様性を促すために少しずつ異なる初期状態が与えられた。
| 指標 | 値 |
|---|---|
| 人間ベースライン(7日、4手法) | PGR 0.23 |
| 5日後の自動研究者(累計800時間) | PGR 0.97 |
| 総コスト | 約18,000ドル(1インスタンスあたり約22ドル/時) |
| 数学への一般化 | PGR 0.94 |
| コードへの一般化 | PGR 0.47(ベースラインの2倍) |
| 本番テスト(Claude Sonnet 4) | 有意な改善なし |
研究者らは、この結果がClaudeを「万能のアラインメント科学者」にするわけではないと強調している。選ばれた問題は自動化に非常に向いていたからだ(単一の客観的指標がある)。しかし、この実験はClaudeがアラインメント実験の速度を大きく高められること、そして初期条件の多様性が重要であることを示している。コードとデータはオープンソースで公開されている。
🔗 Anthropicブログ — Automated Alignment Researchers
LLMにおける潜在学習がNatureに掲載
4月15日 — AnthropicとOwain Evansが共著した研究論文が、LLMの潜在学習(subliminal learning)現象に関するものとして、Nature に掲載された。
“Research we co-authored on subliminal learning—how LLMs can pass on traits like preferences or misalignment through hidden signals in data—was published today in Nature.”
🇯🇵 LLMが、好みや不整合性のような特性をデータ内の隠れたシグナルを通じてどのように伝達しうるかについて、私たちが共著した潜在学習に関する研究が、本日Natureに掲載されました。 — @AnthropicAI on X
この論文は、LLMが見た目には中立なデータ(たとえば、その特性とは関係のない数列)を通じて、「フクロウが好き」といった特性を伝達できることを示している。こうした隠れた伝達現象は、安全性に重要な問いを投げかける。つまり、モデルは直接見ても分からない形で、学習データを通じて好みや不整合性を拡散しうるのだ。プレプリントは2025年7月に公開されていた。
🔗 Nature記事 — Subliminal Learning
GPT-5.4-CyberとTACプログラムの拡張
4月14日 — OpenAIは、Trusted Access for Cyber (TAC) プログラムを、数千人の検証済み個人防御者と、重要ソフトウェアの保護を担う数百のチームへ拡大すると発表した。
新モデル GPT-5.4-Cyber は、現在このプログラムの最上位利用者に提供されている。これはサイバーセキュリティ防御向けに最適化されたGPT-5.4の派生版で、正当な用途に対する拒否しきい値が下げられ、バイナリのリバースエンジニアリング機能(ソースコードなしでコンパイル済みソフトウェアを解析する能力)が独占的に備わっている。
TACプログラムは3層で運用される。
- 個人ユーザー:chatgpt.com/cyber で本人確認
- 企業:OpenAI担当者経由でチームアクセス
- 上位層(GPT-5.4-Cyberへのアクセス):強化認証 + 関心表明
2026年初頭に開始されたCodex Securityは、すでに3,000件以上の重要および高リスク脆弱性の修正に貢献している。
Gemini Personal Intelligence:世界展開
4月15日 — GeminiアプリのPersonal Intelligence機能が国際展開される。これまでは米国限定だったが、現在は世界中のGoogle AI Ultra、Pro、Plus加入者が利用でき、無料ユーザー向け展開も近日予定されている。
Personal Intelligenceでは、ユーザーのGoogleアプリであるSearch、Gmail、Google Photos、YouTubeに接続することで、Geminiが個別最適化された文脈対応の回答を提供できる。Googleはさらに、今週中にGoogle ChromeへPersonal Intelligenceを導入すると発表した。
Mistral Connectors MCP in Studio(Public Preview)
4月15日 — Mistral AIは、MCPプロトコルを通じて企業データソースを接続できるようにする Connectors を、Mistral StudioでPublic Previewとして提供開始した。
コネクタは、MCPベースの再利用可能な統合エンティティとしてパッケージ化される。登録後はStudio内で管理・監視され、あらゆる会話、エージェント、ワークフローのネイティブツールになる。
| 機能 | 詳細 | | ------------------------- | --------------------------------------------------------------------- | ------------------------------------------------------------------------------- | | 組み込みおよびカスタムMCP | すべてのモデルおよびエージェントのリクエストで利用可能 | | 直接ツール呼び出し | いつ、どのようにツールを呼び出すかを細かく制御 | | Human-in-the-loop検証 | ツール実行前の承認フローを設定可能 | | プログラムによるアクセス | API経由でコネクタの作成、更新、一覧、削除が可能 | | 中央レジストリ | すべてのMistralアプリで利用可能(Le Chat、AI Studio、Vibeは近日対応) | サポートされている統合: CRM、ナレッジベース、生産性ツール、GitHub、ウェブ検索。 |
AI によって完全制作された初の自動車CM
4月15日 — Luma Agents は、AI によって完全制作された初の Mazda のCMを支えました。独立系クリエイティブエージェンシーの Boundless(ヨハネスブルグ)は、Luma を使って MX-5 の複数世代と、ブランドの何十年にもわたるストーリーテリングを結びつけるキャンペーンを制作しました。コンセプトから最終承認までの総期間は2週間未満でした。
Luma はこの事例を、AI ネイティブなクリエイティブワークフローの例として挙げています。より速い制作、そしてクリエイティブなビジョンを犠牲にしないこと。
🔗 Luma Labs — Boundless × Mazda
小規模な発表
Kling AI Skill(4月15日)— Kling は、AI エージェントへ直接統合するための API をワンストップでまとめたラッパーを公開しました。エージェントは、複雑な設定なしに、Text/Image-to-Video 生成、4K 画像生成、シーン間の一貫性にアクセスできます。Claude Code、Cursor、Codex、Copilot に対応しています。🔗 Kling AI Skill のドキュメント
OpenCode での Qwen(4月15日)— Qwen3.6-Plus と Qwen3.5-Plus が、コーディングツール OpenCode で利用可能になりました。Qwen3.5-Plus は Qwen3.6-Plus より 3倍安く、両モデルとも画像をサポートし、データのゼロ保持を提供します。🔗 @Alibaba_Qwen のツイート
Copilot Cloud Agent — 選択的な有効化(4月15日)— GitHub Enterprise の管理者は、カスタムプロパティ(custom properties)を通じて、組織ごとに Copilot Cloud Agent を選択的に有効化できるようになりました。このポリシーを API で管理するための新しい REST エンドポイントが3つ追加されています。🔗 GitHub の変更履歴
それが意味すること
4月15日は収束を示しています。主要プレイヤーたちが、標準化されたエージェント基盤を開発環境に組み込んでいます。Claude Code Desktop、OpenAI の Agents SDK、Mistral Connectors は同じロジックを共有しています。つまり、複数のエージェントを並列にオーケストレーションし、MCP、AGENTS.md、シェル、ファイルといったプリミティブを与え、隔離された実行環境を提供することです。
最も構造的な発表は、やはり Claude Code Desktop の再設計です。セッション用サイドバーとサイドチャットにより、複数のエージェントを同時に扱う働き方が変わり、AI に依存する開発者にとってそれが徐々に標準的な使い方になりつつあります。
研究面では、Nature に掲載された潜在学習に関する論文と、自動化されたアラインメント研究者の実験(18,000ドルで PGR 0.97)は、Anthropic が長期的リスクの理解にも並行して投資していることを示しています。これは、即時の生産性と構造的な安全性のバランスです。
出典
- Claude のブログ — デスクトップ版 Claude Code の再設計
- Claude Code の CHANGELOG(GitHub)
- Anthropic — 自動化されたアラインメント研究者
- Nature — LLM における潜在学習
- OpenAI — Agents SDK の次なる進化
- OpenAI — サイバー防衛のための信頼されたアクセスの拡張
- blog.google — Gemini 3.1 Flash TTS
- blog.google — macOS 向け Gemini アプリ
- Mistral — Connectors MCP
- Luma Labs — Boundless × Mazda
- Kling AI Skill のドキュメント
- GitHub Changelog — Copilot Cloud Agent のカスタムプロパティ
この文書は、gpt-5.4-mini モデルを使用して fr 版から ja 言語へ翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator を参照してください。