検索

Claude Code の auto mode、ChatGPT のビジュアルショッピング、Grok Imagine の multi-images から動画

Claude Code の auto mode、ChatGPT のビジュアルショッピング、Grok Imagine の multi-images から動画

3月23日と24日はニュースが非常に多い一日でした。Anthropic は Claude Code に auto mode を展開し、ユーザーの代わりに承認判断を行うアクション分類器を導入するとともに、GAN に着想を得たマルチエージェント・アーキテクチャに関するエンジニアリング記事を公開しました。OpenAI は Agentic Commerce Protocol とともに ChatGPT にビジュアルショッピングを追加し、xAI は Grok Imagine の multi-images から動画生成を API で開放しました。GitHub Copilot、Google DeepMind、Anthropic Science Blog もこの概観を補完します。


Claude Code: auto mode、あなたとコマンドの間に入る分類器

3月24日 — Claude Code に第3の権限レベルである auto mode が追加されました。これまでこのツールは、ファイル書き込みや bash コマンドを1つずつ手動承認するか、あるいは権限制御を完全に無効化するかのどちらかでした。auto mode はその中間の道を導入します。Claude が自分で判断を行い、その前段で各アクションを実行前に分析する分類器(classifier)が挟まります。

仕組みはシンプルです。各ツール呼び出しの前に、分類器がその操作が破壊的である可能性があるかを評価します。安全と判断された操作は自動実行されます。危険な操作はブロックされ、Claude はユーザーを中断せずに別の方法を探します。

Anthropic は、このモードがリスクを下げはするものの完全には排除しないと明記しており、隔離された環境での利用を推奨しています。有効化するには: claude --enable-auto-mode、その後 Shift+Tab でこのモードへ移動します。

この機能は Team プランで研究プレビュー(research preview)として利用可能です。Enterprise と API 向けの展開は数日後に予定されていました。

New in Claude Code: auto mode. Instead of approving every file write and bash command, or skipping permissions entirely, auto mode lets Claude make permission decisions on your behalf. Safeguards check each action before it runs.

🇯🇵 Claude Code の新機能: auto mode。すべてのファイル書き込みや bash コマンドを承認する代わりに、あるいは権限を完全に無視する代わりに、auto mode は Claude にあなたの代わりに権限判断を行わせます。保護機能が各アクションを実行前にチェックします。@claudeai sur X

🔗 X の告知


マルチエージェント・アーキテクチャ: Anthropic Engineering の GAN アプローチ

3月24日 — Anthropic Engineering Blog に掲載された記事で、Prithvi Rajasekaran(Labs チーム)は、2つの領域で Claude の限界を押し広げるためのマルチエージェント・アーキテクチャを説明しています。それは、インターフェース設計と、長期にわたる自律的なアプリケーション開発です。

このアプローチは敵対的生成ネットワーク(Generative Adversarial Networks, GAN)に着想を得ています。生成エージェントがコードやデザインを作成し、別の評価エージェントが結果を採点して批評的なフィードバックを返します。この分離は、Claude が自己評価に甘くなりがちだという既知の問題を解決します。例を使って徐々に調整された専用の評価者は、効果的な改善手段になります。

frontend デザインでは、評価者が MCP Playwright にアクセスしてページを実際にナビゲートします。評価基準は4つです。デザインの品質と一貫性、独創性(いわゆる「AI slop」のような一般的なパターンを減点)、技術的な作り込み、そして機能性です。10〜15回の反復で、生成エージェントはより際立ったインターフェースを作り出します。

アプリケーション開発では、このアーキテクチャにプランナーが加わります。1文のプロンプトを完全な製品仕様へと変換するのです。生成エージェントと評価エージェントは、各実装の前に「sprint の契約」を交渉し、成功条件を定義します。評価者は Playwright を使ってアプリをテストし、sprint を失敗させて修正を強制することもできます。

アプローチ所要時間コスト結果
単独エージェント Opus 4.520分9ドル壊れたアプリ
完全なハーネス6時間200ドル機能するアプリ
Opus 4.6 付きハーネス4時間124.70ドル機能するアプリ + 組み込み Claude エージェント

Opus 4.6 では、もはや「コンテキスト不安」に悩まされないため、著者はアーキテクチャを簡素化し、セッションのリセットを削除し、コストを削減できました。基本原則は、モデルがすでに自力でできるようになったことを取り除くために、ハーネスを定期的に監査することです。

🔗 全文記事 🔗 X の告知


Cowork と Claude Code の Computer Use(macOS、Pro/Max)

3月23日 — Claude は、直接タスクを実行するためにあなたのコンピュータを使用できるようになりました。プレビューでは、この機能は macOS 限定で Claude Cowork と Claude Code で利用できます。

Claude はアプリを開き、ブラウザを操作し、スプレッドシートに入力できます。考え方は、スマートフォンからタスクを渡し、別のことをして、完了した仕事に戻るというものです。毎朝メールをスキャンする、毎週金曜日にレポートを生成する、といった定期タスクを設定することも可能です。

Computer Use 機能は Pro と Max プランで利用でき、デスクトップアプリを更新し、モバイルアプリと連携させることで使えます。

🔗 X の告知 🔗 Cowork 製品ページ


Anthropic Economic Index : “Learning curves”(第5報告)

3月24日 — Anthropic は Anthropic Economic Index の第5回レポートとなる “Learning curves” を公開しました。これは 2026年2月の Claude 利用データ(約100万件の会話、2月5日〜12日)に基づいています。

レポートは、2025年11月以降の2つの大きな変化を記録しています。まず、用途の多様化です。Claude.ai で最も頻繁な10件のタスクは、トラフィック全体の19%しか占めなくなっており、3か月前の24%から低下しました。この傾向は一部、Claude Code の成長によって促進された、API へのコーディングタスク移行によって説明できます。

次に、「学習曲線」効果です。長期利用者(6か月超)は、成功率が4〜5ポイント高くなっています。彼らはより複雑な問題に取り組み、より多く協働し、自動モードでの委任が少なくなっています。著者らはこれを実践による学習(learning-by-doing)の兆候と見ていますが、生存者バイアスの可能性も残ります。

モデル選択については、データは高価値タスクに Opus が選ばれることを裏付けています。タスクの推定価値が 10ドル/時 増えるごとに、Claude.ai での Opus 利用比率は 1.5ポイント増加し、API では 2.8ポイント増加します。

🔗 完全版レポート 🔗 X の告知


Anthropic Science Blog: 科学研究における AI のための新しいブログ

3月23日 — Anthropic は、AI と科学研究の交差点に特化した Anthropic Science Blog を立ち上げました。目的は、AI が研究者の仕事をどのように加速するかを記録し、この変革が提起する問いを探ることです。

このブログでは3種類のコンテンツが公開されます。AI の役割を詳しく扱う特定結果の深掘り記事(Features)、科学分野ごとの実践ガイド(Workflows)、そして分野の最新動向をまとめたレビュー(Field notes)です。

この開始に合わせて2本の初回記事も公開されました。Matthew Schwartz による “Vibe physics: The AI grad student”(Claude によって監督された実際の計算を行う物理学者)と、科学タスク向けに Claude Code を数日単位でオーケストレーションするチュートリアルです。

このブログは Anthropic の既存の取り組み、すなわち AI for Science プログラム(研究者向け API クレジット)、Claude for Life Sciences(製薬・バイオテク企業との提携)、そして Genesis Mission に位置づけられています。

🔗 立ち上げ記事 🔗 X の告知


ChatGPT のビジュアルショッピングと Agentic Commerce Protocol

3月24日 — OpenAI は、ChatGPT 内で直接使える、視覚的で没入感のある買い物体験を開始しました。ユーザーは商品を視覚的に閲覧し、価格・レビュー・特徴などの詳細とともに横並びで比較し、会話のまま検索を絞り込めます。ChatGPT を離れる必要はありません。インスピレーション用の写真をアップロードして、似た商品を見つけることも可能です。

この機能を支えるために、OpenAI は Agentic Commerce Protocol (ACP) を商品発見へ拡張しています。このプロトコルは、加盟店とユーザーをつなぐ接続層になります。加盟店は ACP 経由でカタログを共有し、そのデータは直接 ChatGPT に反映されます。Salesforce と Stripe は、すでにサードパーティ提供者として統合されています。

詳細情報
利用可能範囲Free, Go, Plus, Pro の全ユーザー — 今週展開
画像アップロード類似商品を見つけるためのインスピレーション写真
統合済み加盟店Target, Sephora, Nordstrom, Lowe’s, Best Buy, The Home Depot, Wayfair
Shopify加盟店の操作なしでカタログをすでに統合済み

Walmart は、ネイティブ ChatGPT アプリを提供する最初の加盟店です。ChatGPT での発見から、アカウント連携、ロイヤルティプログラム、支払いを備えた Walmart 環境へ移行できます。Web ブラウザで利用可能で、iOS と Android は今後対応予定です。注: OpenAI は、加盟店に対する柔軟性が不十分と判断した初期の “Instant Checkout” 機能を廃止し、発見に注力します。

🔗 公式発表


OpenAI: 青少年向けの安全ポリシーをオープンソース化

3月24日 — OpenAI は、開発者がティーン向けに適した体験を構築できるよう支援するため、一連の安全ポリシーをオープンソースで公開しました。これらのポリシーは、OpenAI の安全用オープンウェイトモデルである gpt-oss-safeguard と直接一緒に使えるプロンプトとして提供されています。

目的は、開発者が抽象的な安全目標を、具体的で運用可能なルールへと変換できるようにすることです。6つの分野がカバーされています。

分野説明
グラフィックな暴力コンテンツ露骨な暴力のフィルタリング
グラフィックな性的コンテンツ露骨な性的表現のフィルタリング
危険な身体的理想摂食障害、危険行動
危険な活動とチャレンジリスクのあるバイラル・チャレンジ
ロマンチックまたは暴力的なロールプレイ不適切なインタラクション
成人向けの財・サービスアルコール、たばこ、ギャンブル

これらのポリシーは Common Sense Media と everyone.ai との協力で開発されました。ROOST Model Community(RMC GitHub)を通じて公開されており、明確に「完全な解決策ではなく出発点」と位置づけられています。

🔗 公式発表


OpenAI Foundation: 少なくとも10億ドルを展開

3月24日 — OpenAI Foundation の理事長 Bret Taylor は、財団が 2025年秋の資本再構成で得た資源の投下を開始すると発表しました。少なくとも10億ドルが、生命科学(アルツハイマー病、高致死率疾患)、雇用と経済的影響、AI レジリエンス(子どもの安全、バイオセキュリティ)、およびコミュニティ・プログラムの4分野に、今年中に投資されます。

🔗 公式発表


ChatGPT のファイル管理用 Library タブ

3月23日 — OpenAI は ChatGPT に新しいファイル管理機能を追加しました。最近使ったファイルをツールバーから直接開ける機能、すでにアップロード済みの文書に問い合わせる機能、そして Web サイドバーの Library タブで全ファイルを見つけられる機能です。Plus、Pro、Business の加入者向けに提供され、今後 EEA、スイス、英国向けにも展開予定です。

🔗 X の告知


Gemini 3.1 Flash-Lite: ページをリアルタイム生成するブラウザ

3月24日 — Google DeepMind は Gemini 3.1 Flash-Lite のデモを公開しました。これは、クリック、検索、ナビゲーションの流れに応じて各 Web ページをその場で生成する実験的ブラウザです。既存の HTML ページはなく、各コンテンツはモデルによってリアルタイムで作成されます。デモは Google AI Studio から直接アクセスでき、強い反応を得ました(数時間で 85,000 回の閲覧)。

🔗 AI Studio デモ 🔗 X の告知


Google DeepMind × Agile Robots: ロボティクス提携

3月24日 — Google DeepMind は、ヒューマノイド・ロボティクスの専門企業 Agile Robots との研究提携を発表しました。この合意では、Google DeepMind の Gemini Robotics 戦略の一環として、Gemini の基盤モデルを Agile Robots のロボットハードウェアに統合することが計画されています。

🔗 X の告知


Grok Imagine: API で multi-images から動画へ(#1 Arena Elo 1342)

3月24日 — xAI は、Grok Imagine の API に2つの新機能を追加したと発表しました。複数画像からの動画生成(multi-image to video)と、既存動画の延長(video extension)です。

開発者は最大7枚の画像を入力として送信し、grok-imagine-video モデルを通じて一貫性のある動画を生成できます。API は非同期で動作します。リクエストを送信し、その後 done のステータスになるまでポーリングします。出力は 720p の 16:9 をサポートします。

Design Arena によると、Grok Imagine は Multi Image to Video Arena のランキングで即座に首位に立ち、Elo スコア 1342 を記録しました。

🔗 @grok の告知 🔗 Imagine API ドキュメント


GitHub Copilot: @copilot で PR を直接変更

3月24日 — GitHub Copilot は、任意の pull request をその場で直接変更できるようになりました。コメントで @copilot をメンションし、失敗したテストの修正、レビューコメントへの対応、単体テストの追加などを自然言語で指示すると、エージェントはクラウド環境で作業し、テストとリンターで検証したうえで、変更をブランチに push します。従来の挙動である「新しい PR を開く」も、明示的に依頼すれば引き続き利用できます。Copilot の有料プランすべてで利用可能です。

🔗 GitHub Changelog


GitHub Copilot: JetBrains、Xcode、Eclipse での Gemini 3.1 Pro

3月23日 — GitHub Copilot は、JetBrains、Xcode、Eclipse の IDE で Gemini 3.1 Pro の利用可能範囲を拡大しました。 Le modèle est désormais accessible via le sélecteur de modèles Copilot dans tous les modes (agent, ask, edit) sur ces environnements, en plus des plateformes déjà supportées. En preview publique pour les plans Enterprise, Business, Pro et Pro+.

🔗 Changelog GitHub


GitHub Copilot : gestion de l’accès de l’agent par dépôt via API

24 mars — GitHub publie en preview publique une API REST pour gérer l’accès du Copilot coding agent au niveau des dépôts d’organisation. Les administrateurs peuvent autoriser l’agent sur aucun, tous, ou certains dépôts spécifiques de manière programmatique — utile pour les déploiements à grande échelle en entreprise.

🔗 Changelog GitHub


GitHub Copilot : logs en direct dans Raycast

20 mars — L’extension GitHub Copilot pour Raycast (le launcher macOS/Windows) permet désormais de surveiller en direct les logs du coding agent sans quitter le launcher. Via la commande “View Tasks”, puis sélection de la session, les développeurs suivent l’avancement de l’agent en temps réel. Disponible pour tous les abonnés Copilot payants.

🔗 Changelog GitHub


これが意味すること

Claude Code の auto mode は、この時期で最も構造的な変化です。各コマンドを承認する必要がなくなることでユーザーの認知負荷を下げつつ、分類器によって安全性の網を維持します。これは、より自律的な開発エージェントに向けた一歩ですが、明示的に隔離された環境向けに推奨される枠組みの中にあります。マルチエージェント harness に関するエンジニアリング記事は、この全体像を補完します。Anthropic の軌道は明確に、各段階で人間が監督するのではなく、内部の監督構造(専任の evaluator、sprint 契約)を備えつつ、長時間かつ自律的に動くエージェントへ向かっています。

OpenAI の側では、ChatGPT における visual shopping が、一般消費者向けの商用ユースケースへの転換を示しています。Agentic Commerce Protocol は、ChatGPT を商人と消費者の間にある仲介層として位置づけます。これは、取引価値を直接狙う API 専用の戦略とは異なります。

Grok Imagine が multi-image to video でのローンチ直後に Arena ランキングの首位に達したことは、xAI が動画生成にどれほど速く反復しているかを示しています。GitHub Copilot もまた、自社の coding agent の自律性を着実に強化しています。既存の PR を直接変更できる機能により、agent と開発者の間のやり取りがさらに減ります。


ソース

この文書は、モデル gpt-5.4-mini を使用して fr 版から ja 言語へ翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。