2026年4月13日、GitHub は Copilot CLI セッション向けのリモートコントロール機能(remote control)を開始し、シンプルな QR コードを使ってウェブやスマートフォンからターミナルを操作できるようにしました。MiniMax は、初日から稼働するクラウド・エコシステムを備えた ModelScope 上で利用可能なエージェントモデル M2.7 を公開しました。Alibaba は世界中の開発者向けに Qwen3.5-Omni API を提供開始し、Google DeepMind は Gemini 3.1 Flash Live(Thinking)が音声エージェント向け τ-Voice ランキングで現在1位だと発表しました。
GitHub Copilot CLI — ウェブとモバイルからのリモートコントロール
4月13日 — GitHub は copilot --remote を public preview で公開しました。進行中の Copilot CLI セッションを、マシンへ直接アクセスすることなく、GitHub.com または GitHub Mobile アプリから監視・操作できるようになります。
仕組みはシンプルです。リモートセッションを開始すると、CLI はリンクと QR コードを表示します。そのリンクをブラウザまたはスマートフォンから開くと、ユーザーは現在進行中のセッションのインターフェースにアクセスできます。同期は双方向で、ウェブやモバイルで行った操作はターミナルに反映され、その逆も同様です。
| 機能 | 詳細 |
|---|---|
| 開始 | 既存セッション内での copilot --remote または /remote |
| アクセス | CLI が表示するリンク + QR コード |
| アプリ | GitHub.com + GitHub Mobile(iOS TestFlight、Android Google Play beta) |
| 同期 | リアルタイムの双方向同期 |
| プライバシー | プライベートセッション、開始したユーザーのみに表示 |
| セッション維持 | 長時間のタスクでスリープを防ぐための /keep-alive コマンド |
通常の CLI 機能はすべて遠隔からでも利用可能です。セッション中の操作(steering)、プランの確認と編集、モード切り替え(plan / interactive / autopilot)、権限の承認または拒否、ask_user の質問への応答などです。
企業向け注意: Copilot Business または Enterprise のユーザーは、利用前に管理者がリモートコントロールと CLI のポリシーを有効化する必要があります。
MiniMax M2.7 — day-0 クラウド・エコシステム付きオープンソース・エージェントモデル
4月12日 — MiniMax は M2.7 を公開しました。これは ModelScope 上で利用可能なエージェント・アーキテクチャの LLM で、vLLM 連携が初日から稼働しています。
公開された性能では、M2.7 は利用可能な最高水準のコーディングモデルに肩を並べています。
| Benchmark | M2.7 スコア |
|---|---|
| SWE-Pro | 56,22%(GPT-5.3-Codex と同等) |
| Terminal Bench 2 | 57,0% |
このモデルは、マルチエージェント・オーケストレーション(Agent Teams)、高度なコーディング、コマンドラインタスクの自動化向けに設計されています。Together AI(serverless と dedicated)および Fireworks AI ですぐに利用できます。
補足: MiniMax は公開後に、M2.7 はライセンス上の意味で厳密にはオープンソースではないと明言しました。モデルは利用条件を変更したうえで再公開されています。
🔗 ModelScope でのオープンソース告知 🔗 vLLM day-0 サポート 🔗 Together AI での提供開始
Qwen3.5-Omni API — 国際提供開始
4月13日 — Tongyi Lab(Alibaba)は、Alibaba Cloud Model Studio を通じて Qwen3.5-Omni API の国際提供開始を発表しました。qwen3.5-omni-plus モデルは API キーですぐに利用できます。
2026年3月29日に研究論文で紹介された Qwen3.5-Omni は、ネイティブなオムニモーダルモデルです。テキスト、画像、音声、動画を単一の推論で処理し、複数段階のパイプラインを必要としません。ハイブリッド・アーキテクチャにより、Thinker(推論)と Talker(音声会話)の2つの動作モードを備えています。
“Now our Qwen3.5-Omni API is officially live, and it’s ready to transform how you process video content.”
🇯🇵 Qwen3.5-Omni API は現在正式に利用可能になり、動画コンテンツの処理方法を変革する準備が整っています。 — @Ali_TongyiLab on X
🔗 発表スレッド 🔗 Alibaba Cloud Model Studio
Gemini 3.1 Flash Live (Thinking) — τ-Voice ランキングで第1位
4月13日 — Tulsee Doshi(Google DeepMind の Product Manager)は、Thinking モードを有効にした Gemini 3.1 Flash Live が Sierra Platform の τ-Voice Leaderboard で首位になったと発表しました。
このランキングは、リアルタイム音声エージェント構築におけるモデルの性能を測定するものです。音声認識、マルチターン推論、そして実運用に近いシナリオでのアクション実行を評価します。Gemini 3.1 Flash Live は 2026年3月26日にリリースされており、この結果は音声アプリケーションを構築する開発者にとってその能力を裏付けるものです。
このモデルは Google AI Studio の Gemini Live API から利用できます。
🔗 X での告知 🔗 τ-Voice Leaderboard
Claude 向け TurboTax と Aiwyn Tax コネクタ
4月12日 — Henry Shi(Anthropic)は、Claude 向けの新しい2つのコネクタ、TurboTax と Aiwyn Tax(旧 Column Tax)を発表しました。米国の確定申告期限である4月15日の数日前のリリースです。
接続すると、Claude は還付金または納税額の見積もり、税務フォームの説明、申告手続きの案内が可能になります。これらのコネクタは、Claude のサブスクリプションを持つ米国のユーザー向けです。
これが意味すること
GitHub の copilot --remote 機能は今日の中でも最も構造的なニュースです。長時間の CLI タスクに新しい使い方を開きます。つまり、ワークステーションからセッションを開始し、どのデバイスからでも監視または操作できるようになるということです。これは、何時間も動作する自律エージェントのユースケースに対する直接的な回答です。
モデル面では、MiniMax M2.7 と Qwen3.5-Omni が2つの異なる潮流を示しています。M2.7 はコーディング・エージェントをデプロイする開発者を対象としており、初日からの vLLM 連携が特徴です。これは、このエコシステムに後から入ってくる多くのモデルとは対照的です。一方、Qwen3.5-Omni はネイティブなマルチモダリティに重点を置き、動画を中心的な強みとしています。
τ-Voice Leaderboard における Gemini 3.1 Flash Live の結果は、Google がまだ十分に整備されていないものの成長中の市場である本番環境向け音声エージェント分野に本格的に投資していることを示しています。
ソース
- GitHub Changelog — Copilot CLI remote control (13 avril)
- MiniMax M2.7 — open-source ModelScope
- MiniMax M2.7 — support vLLM
- MiniMax M2.7 — Together AI
- MiniMax M2.7 — Fireworks AI
- Qwen3.5-Omni API disponible — tweet principal
- Qwen3.5-Omni — Alibaba Cloud Model Studio
- Gemini 3.1 Flash Live Thinking — τ-Voice #1
- τ-Voice Leaderboard — Sierra Platform
- Connecteurs TurboTax/Aiwyn Tax pour Claude
この文書は、gpt-5.4-mini モデルを使用して fr 版から ja 言語へ翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。