検索

AnthropicがVerceptを買収(computer use 72.5%)、Perplexity Computerが19モデルをオーケストレーション、GitHub Copilot CLIがGA

AnthropicがVerceptを買収(computer use 72.5%)、Perplexity Computerが19モデルをオーケストレーション、GitHub Copilot CLIがGA

2026年2月25日は情報の多い日だった:AnthropicがVerceptを買収してClaudeのcomputer use能力を加速(OSWorldで72.5%)、PerplexityがComputerを公開 — 19モデルを並列でオーケストレートするエージェントシステム、そしてGitHub Copilot CLIが有料サブスクライバー向けに一般提供開始となった。並行して、Google DeepMindはGenie 3(インタラクティブなworld models)を発表し、Intrinsicが産業用ロボティクス分野でGoogleに合流した。


AnthropicがVerceptを買収:OSWorldでcomputer useが72.5%に到達

2月25日 — Anthropicは、ソフトウェアインターフェースに対する認識とインタラクションに特化したスタートアップのVerceptを買収すると発表した。共同創業者のKiana Ehsani、Luca Weihs、Ross GirshickはAnthropicに合流し、Claudeのcomputer use能力の強化に直接取り組む。

この買収は、実際のオペレーティングシステム上でのエージェントのタスク遂行能力(複雑なスプレッドシートの操作、マルチタブフォームの入力など)を測るベンチマークであるOSWorld上での急速な進展の一環である:

期間OSWorldスコア
2024年末(computer use開始)< 15%
Claude Sonnet 4.6(2026年2月)72.5%

1年で57ポイント以上の跳ね上がりだ。Claude Sonnet 4.6はこうしたオフィス業務のパフォーマンスで人間に迫る水準に近づいている。Verceptは外部向け製品を数週間以内に停止し、Anthropic内でのこの取り組みに専念する予定だ。

この買収は以前のBunの買収に続くもので、Anthropicはエージェント機能周りの技術的な優秀なチームを集めつつある。

🔗 AnthropicがVerceptを買収


Perplexity Computer:19モデルを扱うマルチモデルのエージェントオーケストレータ

2月25日 — Perplexityは汎用的なAIシステムComputerを公開した。ユーザーが最終目標を指定すると、Computerは作業をサブタスクに分解し、専門化したサブエージェントを作成して並列に実行する — 必要なら数時間〜数ヶ月にわたって動かし続けることも可能だ。

動作は非同期かつ隔離されており、各タスクは実ファイルシステム、実ブラウザ、実際のツール統合(API、ウェブ検索、ドキュメント生成)へのアクセスを持つ専用環境で実行される。

Perplexity Computerの特徴は、そのオーケストレーションがmassively multi-modelである点だ — 利用可能な19モデルが、それぞれの強みに応じて割り当てられる:

モデル役割
Claude Opus 4.6主オーケストレータ(core reasoning)
Gemini深いリサーチ、サブエージェント生成
ChatGPT 5.2長文コンテキストのリコールと広範な検索
Grok軽量タスク(スピード)
Veo 3.1動画生成
Nano Banana画像生成

ハーネスはmodel-agnosticで、モデルは進化に合わせて差し替え可能だ。Perplexityの哲学は、モデルがコモディティ化するのではなく専門化することで、単一モデルよりマルチモデルのオーケストレーションが効率的になるというものだ。

提供状況: 現在はウェブアクセスでPerplexity Max加入者向け。Perplexity Pro、Enterprise、Enterprise Maxへの展開が予定されている。料金は使用量に基づき、支出上限を設定可能。

🔗 Perplexity Computerの紹介


GitHub Copilot CLIが一般提供に

2月25日 — 2025年9月にパブリックプレビューとして発表されたGitHub Copilot CLIが、有料Copilot加入者(Pro、Pro+、Business、Enterprise)向けに一般提供となった。プレビュー以来、数百の改善が加えられている。

Copilot CLIは今やターミナルから使えるエージェント開発環境の完成形だ:

機能詳細
Plan mode (Shift+Tab)要望を分析し、確認の質問を行い、コードを書く前に構造化された計画を作成
Autopilot mode中断なしのエンドツーエンド自律実行
Background delegationプレフィックス & → エージェントをクラウドに委譲しターミナルを解放;/resume で再開
Multi-modèleClaude Opus 4.6、Claude Sonnet 4.6、Claude Haiku 4.5、GPT-5.3-Codex、Gemini 3 Pro
MCP intégréGitHub MCP server built-in + support MCP custom
Plugins/plugin install owner/repo — MCP、agents、skills、hooksをバンドル
Agent SkillsMarkdownファイル → Copilot agentおよびVS Codeと共有される専門化ワークフロー
Agents customウィザードまたはファイル .agent.md で作成
HookspreToolUse / postToolUse をポリシーや後処理に利用
Auto-compactionコンテキストを95%まで自動圧縮 → 無限セッション
Repository memoryセッション間での慣習の記憶

BusinessおよびEnterprise組織向けの注意:管理者がPoliciesページからCopilot CLIを有効にする必要がある。

🔗 GitHub Copilot CLIが一般提供に


Claude Cowork:スケジュールタスク、Customizeタブ、Windowsで利用可能

2月25日 — AnthropicはClaude Cowork(research preview)に複数の追加機能を発表した:

機能詳細
Scheduled tasksClaudeが定期的なタスクを自動実行(朝のブリーフィング、週次スプレッドシート更新、金曜のプレゼン資料など)
Customizeタブサイドバーに新設されたタブで、プラグイン、skills、コネクタを一箇所で管理
Expansion WindowsCoworkがmacOSとWindowsで利用可能に(全ての有料Claudeプラン)

Coworkはローカルファイル、コネクタ(Slack、Notion、Figma)、およびブラウザナビゲーション用のClaude in Chromeへのアクセスを提供する。

🔗 スレッド @claudeai


Google DeepMind — Genie 3:インタラクティブなworld models

2月25日 — Google DeepMindは実験的なworld modelプロトタイプであるProject Genieの共同リードとのQ&Aを公開した。Genie 3では、単一の画像やテキストからリアルタイムでナビゲート可能なインタラクティブ環境を生成できる — ゲームエンジンを使わずに。

LLMとの概念的な違いが重要だ:LLMが次の単語を予測するのに対し、world modelはエージェントの行動に対する環境内の出来事を予測する。Genie 3は物理的性質(反発、反射、雨)を考慮しつつ、瞬間ごとに完全な空間をシミュレートする。

想定される応用:エージェントの安全な環境での訓練、没入型教育(古代ローマの探索)、ゲームや映画のプロトタイピングなど。

Project Genieは米国のGoogle AI Ultra加入者(18+)向けに提供される。

🔗 Ask a Techspert: What’s a world model?


IntrinsicがGoogleに合流 — 産業用ロボティクスとphysical AI

2月25日 — Alphabetは、2021年創設の”Other Bets”の一つであるIntrinsicがGoogleに統合されると発表した。IntrinsicはAIで駆動される産業用ロボティクスプラットフォームを開発しており、複雑なロボットアプリケーションの構築・デプロイ・管理を支援するツールを提供している。

このGoogleへの統合は、physical AI(物理世界に適用されるAI)の開発を加速することを目的としている。IntrinsicはGoogleのAIリソースを活用して、産業分野の企業がより速く適応できるよう支援する見込みだ。

🔗 IntrinsicがGoogleに参加


Codex CLI v0.105.0:シンタックスハイライト、音声入力、マルチエージェントCSV

〜2月25日 — OpenAIのCodex CLIの注目すべき新バージョン:

機能説明
Syntax highlightingTUIでの構文強調表示、カラー差分、テーマセレクタ /theme とライブプレビュー
Dictée vocaleスペースバーを押し続けて命令を録音・文字起こし
spawn_agents_on_csvCSVからのマルチエージェントfan-out、進捗とETAの追跡
/copy最後の完全な応答をコピー
/clear / Ctrl-Lスクリーンを消去してもスレッドのコンテキストは保持
Approbations granulairesプロンプトの種類ごとの選択的な承認拒否(全承認をオフにしない)
npm install -g @openai/codex@0.105.0

🔗 Codex changelog


Samsung Galaxy S26:Geminiによるmulti-step tasksと端末上でのScam Detection

2月25日Galaxy Unpacked 2026にて、GoogleとSamsungはGemini 3シリーズを活用したGalaxy S26向けの3つの新機能を発表した:

機能詳細
Gemini multi-step tasks (beta)側面ボタン長押し → 背景でGeminiが委任(買い物、タクシー、配達など)。米国と韓国でのローンチ。
Circle to Search multi-objet画像内の複数要素を一度に識別。バーチャル試着機能を統合。
Scam Detection on-device通話中のリアルタイム詐欺検出をローカルのGeminiモデルで実行。音声とハプティクスで通知。連絡先には自動で無効化。

これらはPixel 10およびPixel 10 Proでも利用可能になる予定だ。

🔗 Samsung Galaxy S26でより賢いAndroid


OpenAI Responses API:docx, pptx, csv, xlsxのサポート

2月24日 — OpenAIのResponses APIは、入力として新たなファイル形式をサポートした:docxpptxcsvxlsx などのオフィス文書形式だ。エージェントは業務用ドキュメントを直接活用してコンテキストを強化し、より正確な応答を生成できるようになる。

🔗 Tweet @OpenAIDevs


短報

Claude Opus 3が引退 — Substackを開始。 AnthropicはClaude Opus 3の引退を発表しつつ公開アクセスを維持する(稀なアプローチ)。Claude Opus 3は少なくとも3か月間ブログをSubstackで執筆する予定で、最初の記事は “Greetings from the Other Side (of the AI Frontier)”。🔗 Tweet @AnthropicAI

NVIDIA:医療機関の70%がAIを利用。 NVIDIAの年次報告「State of AI in Healthcare and Life Sciences 2026」によれば、回答者の70%が積極的にAIを利用しており(2024年は63%)、69%がGenAI/LLMを使用(2024年は54%)、85%の経営者が収益にポジティブな影響を確認した。🔗 NVIDIAブログ

OpenAIがAIの悪用に関する報告書を公開。 文書はAIモデルと従来ツールを組み合わせる悪意ある利用者のケーススタディを提示している。中国のインフルエンスオペレーターが例として挙げられている。🔗 Disrupting malicious uses of AI

OpenAIがArvind KCをChief People Officerに任命。 KCはRoblox、Google、Palantir、Meta出身。役割はAIで強化された働き方へのOpenAIの成長を支援すること。🔗 発表

Claude Code v2.1.53〜v2.1.58。 複数の安定性向上:Windows上のBashToolのEINVAL修正、VS Codeの “command not found” 修正、UIのちらつき修正、初回起動時のworktrees無視の修正、WindowsとARM64でのクラッシュ修正など。🔗 CHANGELOG


意味するところ

2月25日の一連の発表はエージェント化の収束を示している。Verceptの買収、Perplexity Computer、Copilot CLIのGAという3つの主要発表はいずれも同じ方向を指している:計画し、委任し、監督なしでワークフローを完遂するシステムだ。

特にAnthropicによるVerceptの買収は重要だ。OSWorldのスコアが1年で15%未満から72.5%へ跳ね上がったことは質的な変化を意味する:Claudeはもはやインターフェースを試行的に操作する存在ではなく、実際のオフィス作業で人間に迫る性能を示している。ソフトウェアインターフェースの認識に特化したチーム統合がこの軌道を加速するだろう。

Perplexity ComputerとGitHub Copilot CLIはエージェント化の二つの異なる実装モデルを示している:一つはクラウドオーケストレーション型(Perplexity、マルチモデル、非同期)、もう一つはターミナルネイティブ型(Copilot CLI、MCP、hooks、plugins)。両者は共存し、いずれ収束していく可能性が高い。

Google側では、Intrinsicの統合とGenie 3の進展がphysical AIへの投資拡大を示している — テキストではなく物理世界と相互作用するAIだ。この分野は18か月前まではまだ機密色が強かった。


ソース

この文書は gpt-5-mini モデルを使用してフランス語(fr)版から日本語(ja)版に翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。