検索

Claude Opus 4.7 利用可能に、Codex が macOS の computer use に対応、OpenAI が GPT-Rosalind を発表

Claude Opus 4.7 利用可能に、Codex が macOS の computer use に対応、OpenAI が GPT-Rosalind を発表

4月16日は例外的に盛りだくさんの一日だった。Anthropic は Claude Opus 4.7 を一般提供でリリースし、エージェント系ベンチマークで大きな改善を示した。OpenAI は同時に、macOS での computer use に対応した Codex と、生命科学に特化した初のフロンティアモデル GPT-Rosalind を発表した。Google は Gemini アプリに Nano Banana 2 によるパーソナライズ画像生成と Google Photos 連携を追加し、Perplexity は Mac 向け Personal Computer を開始、GitHub はエージェント間で skills を管理するための gh skill コマンドを公開した。


Claude Opus 4.7 : 一般提供

4月16日 — Anthropic は Claude Opus 4.7 を一般提供 (generally available) でリリースした。このモデルは Opus 4.6 の後継であり、長時間タスク、エージェントとしての自律性、指示の正確な追従で目立つ進歩を遂げている。

“Opus 4.7 handles complex, long-running tasks with rigor and consistency, pays precise attention to instructions, and devises ways to verify its own outputs before reporting back.”

🇯🇵 Opus 4.7 は長く複雑なタスクを厳密かつ一貫して処理し、指示に細やかに注意を払い、送信する前に自分の出力を検証する方法を考案します。@claudeai sur X

主な機能

機能説明
高解像度ビジョン長辺 2,576 px までの画像に対応(約 375 万画素)、前世代比 3× の解像度
xhigh efforthighmax の中間にあたる段階で、推論/レイテンシを細かく制御
ファイルシステムメモリ作業セッション間での持続性が向上
強化された自律性送信前の出力検証、指示の厳密な追従
プロ品質インターフェース、スライド、文書の品質向上

ベンチマーク

BenchmarkOpus 4.7Opus 4.6GPT-5.4Gemini 3.1 Pro
SWE-bench Pro64.3%53.4%57.7%54.2%
SWE-bench Verified87.6%80.8%80.6%
Terminal-Bench 2.069.4%65.4%75.1%*68.5%
多分野推論(ツール使用あり)54.7%53.3%58.7%51.4%
大規模ツール使用 – MCP-Atlas77.3%75.8%68.1%73.9%
Computer use – OSWorld Verified78.0%72.7%75.0%
高度推論 – GPQA Diamond94.2%91.3%94.4%94.3%
視覚推論(ツール使用あり)91.0%84.7%

* GPT-5.4 : 特定のハーネスによる自己申告結果

最も大きな改善は SWE-bench Pro(+10.9ポイント)、視覚推論(ツール使用ありで +6.3ポイント)、MCP-Atlas(+1.5ポイント)に見られ、いずれもエージェント用途に直結する benchmark だ。

価格と提供状況

Opus 4.7 は本日より Claude API(識別子 claude-opus-4-7)、Amazon Bedrock、Google Cloud Vertex AI、Microsoft Foundry、そしてすべての Claude 製品で利用可能。価格は Opus 4.6 と同じで、入力 100万 token あたり 5、出力5、出力 25

Opus 4.6 から移行する開発者への注意点が 2 つある。新しい tokenizer により、内容の種類によって token 数が 1.0×〜1.35× 増える可能性があること、そして Opus 4.7 は高い effort レベルでより多くの reasoning token を生成することだ。Anthropic は専用の移行ガイドを公開している。

Opus 4.7 は、プロジェクト Glasswing の新しいサイバーセキュリティ保護策の恩恵を受ける初のモデルでもある。正当な専門家向けに Cyber Verification Program が開かれている。

🔗 Anthropic 公式記事


Claude Code v2.1.111 : /ultrareview、Max 向け auto mode、xhigh がデフォルト

4月16日 — Claude Code の 2.1.111 版は、Opus 4.7 のリリースに合わせて複数の重要な追加を伴う。

機能説明
/ultrareviewマルチエージェント並列による詳細な code review。引数なしなら現在のブランチ、GitHub PR なら /ultrareview <PR#>。Pro と Max には 3 回の無料試行。
Max 向け auto modeauto mode(Claude が権限を自律判断する)は、Opus 4.7 を使う Max 加入者にも利用可能になった。
xhigh がデフォルトすべてのプランでデフォルトの effort レベルが xhigh に引き上げられた。
/less-permission-promptstranscripts をスキャンし、.claude/settings.json 用の優先度付き許可リストを提案する。
PowerShell toolPowerShell サポート(段階的展開)。Linux/macOS では CLAUDE_CODE_USE_POWERSHELL_TOOL=1 で有効化可能。
名前付きプランランダムではなく、初期 prompt(fix-auth-race-snug-otter.md)に基づいてプランに名前を付ける。
読み取り専用コマンドcdlscat および読み取り専用コマンドは、もはや権限要求を引き起こさない。

2.1.112 版(4月16日夜に展開)は、auto mode で表示されていた “claude-opus-4-7 is temporarily unavailable” というエラーを即時修正した。

Boris Cherny (@bcherny) はまた、Opus 4.7 のより多い reasoning token 量を補うため、すべての加入者の rate limit を引き上げたと発表した。長いコンテキストのリクエストにおける rate limiting のバグも修正され、5時間および週次の制限がリセットされた。

GitHub Copilot も本日から Opus 4.7 を GA で統合し、VS Code、Visual Studio、CLI、GitHub Mobile、その他の Copilot クライアントへ段階的に展開する。Copilot Pro+ では、今後数週間で Opus 4.5 と 4.6 に代わる。4月30日までプロモーション価格(7.5× の倍率)が適用される。

🔗 CHANGELOG Claude Code 🔗 Tweet @bcherny 🔗 GitHub Copilot での Claude Opus 4.7


OpenAI : Codex が computer use に対応、GPT-Rosalind と cyber ecosystem

Codex — macOS での computer use、統合 browser、永続メモリ

4月16日 — OpenAI は、週 300万人以上の開発者に使われている Codex の重要なアップデートを公開した。このリリースにより Codex はコードの枠を大きく超える。

“Codex can now use your computer alongside you, seeing, clicking, and typing with its own cursor.”

🇯🇵 Codex はこれから、あなたのそばでコンピュータを使い、自分自身のカーソルで見て、クリックして、 টাইपすることができます。@OpenAI

Computer use (コンピュータの利用) — 複数の Codex エージェントが macOS 上で、開いているアプリケーションと干渉せずに同時に作業できる。ユースケース: frontend の反復、アプリのテスト、API が公開されていないアプリ内での作業。EU/UK での提供は今後予定されている。

機能説明
統合 browserWeb ページに直接コメントし、frontend 開発やゲームについてエージェントに指示できる
画像生成gpt-image-1.5 との統合により、同じワークフロー内で assets とモックアップを作成可能
90以上の新しい pluginAtlassian Rovo、CircleCI、CodeRabbit、GitLab Issues、Microsoft Suite、Neon、Remotion、Render、Superpowers…
永続メモリセッション間で蓄積される設定、修正、コンテキスト
予定実行 automations日単位または週単位の定期タスク、自動ウェイクアップ付き
SSH devboxesリモートサーバーへの接続(alpha)
複数 terminal タブ複数の terminal を同時に使用可能

🔗 OpenAI 公式記事

GPT-Rosalind — 生命科学向け初のフロンティアモデル

4月16日 — OpenAI は GPT-Rosalind を発表した。これは生物学、drug discovery、トランスレーショナル医療に特化した初のフロンティアモデルである。名称は、DNA の構造解明に貢献した Rosalind Franklin への敬意を表している。

GPT-Rosalind は、科学文献の要約、仮説生成、実験計画、バイオデータ解析に最適化されている。

Benchmark結果
BixBench(実際のバイオインフォマティクス)公表スコアのあるモデルの中で最高性能
LABBench211タスク中6タスクで GPT-5.4 を上回る
RNA 配列予測(Dyno Therapeutics)人間の専門家の上位 95 パーセンタイル(best-of-10)
RNA 配列生成(Dyno Therapeutics)人間の専門家の約 84 パーセンタイル(best-of-10)

GitHub では Codex 向けの無料 Life Sciences plugin が利用可能で、ヒトゲノム、プロテオミクス、生化学など 50 以上の公開生物学データベースにアクセスできる。GPT-Rosalind は、Trusted Access プログラムを通じて米国の対象 Enterprise 顧客向けに research preview として利用できる。プレビュー期間中は、既存のクレジットは消費されない。

発表されたパートナー: Amgen、Novo Nordisk、Moderna、Thermo Fisher Scientific、NVIDIA、Allen Institute、UCSF School of Pharmacy、Los Alamos National Laboratory。

🔗 OpenAI 公式記事

Cyber defense ecosystem — API credits 1000万ドル

4月16日 — OpenAI は、オープンソースのセキュリティチームと脆弱性研究者を支援するため、1000万ドル分の API credits を提供する。最初の受領者は Socket、Semgrep、Calif、Trail of Bits。

Trusted Access for Cyber プログラムは新たに、Bank of America、BlackRock、BNY、Citi、Cisco、CrowdStrike、Goldman Sachs、JPMorgan Chase、Morgan Stanley、NVIDIA、Oracle、Zscaler まで拡大される。GPT-5.4-Cyber は、米国 AI 標準・イノベーションセンター(CAISI)および英国 AI Security Institute(UK AISI)にも独立評価のため提供される。

🔗 OpenAI 公式記事


Gemini : Nano Banana 2 と Google Photos によるパーソナライズ画像

4月16日 — Google は、Gemini アプリにおける新しいパーソナライズ画像生成機能を発表した。Personal Intelligence(個人的知能)、Nano Banana 2、そしてユーザーの Google Photos ライブラリによって強化される。

これまでは、Gemini で本当に個人的な画像を作るには、詳細な prompt と手動でアップロードした写真が必要だった。Personal Intelligence により、Gemini はユーザーの文脈を暗黙的に理解できるようになり、「夢の家を描いて」や「無人島で必要なものの画像を作って」といった簡単な表現だけでよくなる。Gemini は接続された Google アプリから詳細を自動で補完する。

Google Photos のライブラリを接続すると、ユーザー自身や家族が直接登場する画像を生成できる。Photos ですでに作成済みのタグ(人物、ペット)を活用することで、「私と家族が好きな活動をしている claymation 風の画像を作って」といった依頼だけで十分になる。

機能詳細
利用可能なスタイル水彩、木炭鉛筆、油絵、claymation
Sources ボタン自動選択された写真を表示
微調整誤っていた内容を指定し、別の参照写真を選ぶ
プライバシーGemini は私的な Google Photos ライブラリでは学習しない
opt-inGoogle アプリの接続は任意で、設定可能

提供状況: 現時点では米国の Google AI Plus、Pro、Ultra 加入者向けに、数日にわたり段階的に展開中。今後、Chrome デスクトップ版の Gemini やより多くのユーザーにも提供予定。

🔗 blog.google の記事

Gemini CLI v0.38.0

4月14日 — Gemini CLI の v0.38.0 が公開され、コマンドライン体験が複数改善された。

機能詳細
Chapters(物語フロー)意図と tool の使用に基づいて対話を「chapters」に整理する
Context Compression Service長いセッション向けに履歴を賢く要約する
永続的な承認毎回確認せずに tool の実行を承認できる
UI のちらつき修正Terminal Buffer モードによる不安定な描画を解消

🔗 Gemini CLI Changelog


Perplexity Personal Computer : Mac 上のローカル agent

4月16日 — Perplexity は、Mac アプリに統合されたローカル agent 機能 Personal Computer を開始した。

“Today we’re releasing Personal Computer. Personal Computer integrates with the Perplexity Mac App for secure orchestration across your local files, native apps, and browser. We’re rolling this out to all Perplexity Max subscribers and everyone on the waitlist starting today.”

🇯🇵 本日、Personal Computer を発表します。Personal Computer は Perplexity Mac アプリに統合され、ローカルファイル、ネイティブアプリ、ブラウザを安全にオーケストレーションします。私たちは本日から、すべての Perplexity Max 加入者とウェイトリスト上の人々にこれを展開します。@perplexity_ai sur X

この agent は、機密データを cloud に送らずに、ローカルファイル、ネイティブアプリ、ブラウザを安全にオーケストレーションする。展開は段階的で、まず Perplexity Max の加入者、次にウェイトリストとなる。

これは Perplexity にとって重要な方向転換だ。AI Web 検索で評判を築いた同社が、今やワークステーション上のローカルオーケストレーションに取り組んでいる。これはすでに Apple Intelligence や OpenAI の Operator が踏み込んでいる領域だ。

🔗 perplexity.ai/computer


GitHub : gh skill コマンドが public preview に

4月16日 — GitHub は GitHub CLI(v2.90.0+)において gh skill を public preview で公開した。この新しいコマンドにより、agent skills をインストール、発見、更新、公開できる。agent skills とは、AI agent の振る舞いを設定する、移植可能な instruction・script・resource の集合である。

gh skill install github/awesome-copilot documentation-writer
gh skill install github/awesome-copilot doc-writer --agent claude-code
gh skill search mcp-apps
gh skill update --all

skills は複数のプラットフォームで動作する。GitHub Copilot、Claude Code、Cursor、Codex、Gemini CLI、Antigravity に対応する。このコマンドには supply chain のセキュリティ機構も組み込まれており、tag または commit SHA による pinning、変更不可能な release、frontmatter による provenance 追跡が含まれる。オープン仕様は agentskills.io で公開されている。

🔗 GitHub Changelog


Qwen3.6-35B-A3B オープンソースと Meta Muse Spark Safety

Qwen3.6-35B-A3B : Apache 2.0 のオープンソース MoE

4月15〜16日 — Alibaba は Qwen3.6-35B-A3B のオープンソース化を発表した。これは sparse な MoE (mixture-of-experts) モデルで、総パラメータ数は 350億だが、推論時にアクティブなのは 30億パラメータのみ。

項目詳細
アーキテクチャsparse MoE: 350億パラメータ、30億アクティブ
ライセンスApache 2.0
マルチモーダルネイティブ(vision + reasoning)
モードThinking / non-thinking
BenchmarkQwen3.6-35B-A3B
SWE-bench Verified73,4
SWE-bench Multilingual67,2
AIME 202692,7
GPQA86,0

Hugging Face / ModelScope、Qwen Studio、そして Alibaba Cloud API(qwen3.6-flash)経由で利用可能。Claude Code、Qwen Code、OpenClaw とネイティブ互換。 🔗 Qwen公式ブログ

Meta Muse Spark:安全性レポートを公開

4月15日 — Meta AI は、Meta Superintelligence Labs が開発した初のマルチモーダル非 open-weights モデルである Muse Spark の安全性および準備状況レポート(Safety & Preparedness Report)を公開しました。

項目詳細
使用フレームワークMeta Advanced AI Scaling Framework
評価されたリスク化学・生物、サイバーセキュリティ、制御喪失
chem/bio の結果当初は「潜在的に高い」リスク → 緩和策を検証済み → 残留リスクは許容範囲

このレポートは注目すべき節目を示しています。Meta は現在、Anthropic や OpenAI のアプローチに似た、先進モデルのデプロイ前に正式な安全性評価プロセスを踏むようになっています。

🔗 Muse Spark Safety レポート


メディアおよびその他の更新

Runway は4月16日に2つの更新を公開しました。Seedance 2.0 は 1080p レンダリングに対応し、Runway Characters にはテキストスクリプトによるアニメーション機能が追加されました(キャラクターを選び、スクリプトを書き、生成する)。NVIDIA は NAB Show 2026 に出展し、メディア制作、ファンエンゲージメント、コンテンツの収益化における AI をデモしています。

Grok iOS はボイスモードにアニメーション付きの視覚インジケーターを追加しました。小さな円が、Grok が現在アクティブに待ち受けていることを示します。

🔗 Runway — Seedance 2.0 の 1080p 🔗 Runway Characters — スクリプトによるアニメーション


それが意味すること

4月16日は、あらゆる面でエージェント化の収束が起きた一日でした。Claude Opus 4.7、computer use 付きの Codex、Perplexity Personal Computer、そして gh skill は、同じロジックを共有しています。つまり、ローカルシステム(ファイル、アプリケーション、コンピューター)上で動作できるエージェントであり、ポータブルな標準を介して複数のプラットフォーム間で連携されるということです。

gh skill コマンドは特に構造的に重要です。エージェント間のインストールに関するオープンな仕様(Copilot、Claude Code、Cursor、Codex、Gemini CLI)を提示することで、GitHub はエージェント化された世界の npm install になり得る共通インフラを構築しています。

GPT-Rosalind は、OpenAI の戦略における進化も示しています。汎用モデルの後、同社は分野特化型の frontier モデルを作り始めています。これは、Google DeepMind が計算生物学で既に探求してきた、縦軸ごとの多様化を思わせるアプローチです。


出典

このドキュメントは、モデル gpt-5.4-mini を使用して fr 版から ja 言語へ翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。