検索

GitHub Copilot CLI plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ fixes

GitHub Copilot CLI plugins enterprise, VS Code BYOK + /chronicle, Claude Code 60+ fixes

ai-powered-markdown-translator

fr から ja へ翻訳された記事、gpt-5.4-mini を使用。

GitHub でプロジェクトを見る ↗

GitHub Copilot は、CLI プラグインの集中管理によって enterprise 導入をさらに一歩進めた。一方、VS Code の 4 月アップデートでは BYOK、すべてのワークスペースでのセマンティック検索、検索可能なチャット履歴が追加された。Claude Code も高い更新ペースを維持し、今週はさらに 60 件の修正を提供した。並行して、Luma AI は Human Preference Elo で首位のモデル Uni-1.1 の API を公開し、Qwen3.6-35B-A3B は ODinW ベンチマークで +8.2 ポイントを記録した。


GitHub Copilot CLI — 企業管理のプラグインが public preview に

5月6日 — GitHub は、企業向けに Copilot CLI プラグインの集中管理 を public preview で開始した。管理者は、カスタムエージェント、スキル、フック、MCP 設定などのプラグインを、組織内の全ユーザーへ settings.json つのファイルから定義・配布できるようになった。

具体的な動作:

パラメータ
設定ファイル.github-private/.github/copilot/settings.json
必要なプランCopilot Business, Copilot Enterprise
ステータスPublic Preview
インストール認証時に自動

Copilot CLI は、これらの設定をライセンス付与済みユーザー全員に取得して適用する。プラグインには、組織全体向けのカスタムエージェント、ワークフローフック、MCP 設定を含めることができる。企業がすでに .github-private を通じてカスタムエージェント用のソースを設定していた場合、その同じリポジトリが再利用される。管理者は enterprise 設定内の Agents ページ、AI controls の下から構成を確認できる。

この機能は、個々の導入と組織全体への展開の間にあった大きなギャップを埋めるものだ。これまでは、各開発者が自分でプラグインを設定する必要があった。

🔗 GitHub Changelog の発表


VS Code の GitHub Copilot — 2026年4月アップデート(v1.116–v1.119)

5月6日 — GitHub は、VS Code が週次の安定版リリースへ移行したことを受け、v1.116 から v1.119 まで(2026年4月〜5月初旬)を対象とする Copilot 更新のまとめを公開した。

より賢いコンテキスト:

機能ステータス
セマンティック検索(すべてのワークスペース)利用可能
githubTextSearch(GitHub リポジトリ横断 grep)利用可能
/chronicle(ローカルチャット履歴)実験的
プロンプトキャッシュ + ツールの遅延ロード利用可能

セマンティック検索は、もはやインデックス済みリポジトリだけでなく、すべてのワークスペース で有効になった。githubTextSearch により、GitHub のリポジトリや組織全体に対して grep 型のクエリを実行できる。実験的コマンド /chronicle は、過去のセッション、触れたファイル、参照された PR を見つけるためのローカルなチャット履歴データベースを作成する。

拡張されたエージェント体験:

機能ステータス
BYOK(Business + Enterprise)利用可能
Integrated Browser利用可能
リモート CLI モニタリング実験的
開いているターミナルへのアクセス利用可能

BYOKBring Your Own Key)により、Copilot Business と Enterprise の組織は、自社の API キーを VS Code に直接接続できる。対応先は OpenRouter、Microsoft Foundry、Google、Anthropic、OpenAI、Ollama、Foundry Local。エージェントは、開いているターミナル(REPL、対話型スクリプト)を読み書きできる。Integrated Browser 機能は、ブラウザタブをエージェント用のコンテキストとしてリアルタイム共有できる。Copilot CLI セッションは、GitHub.com またはモバイルアプリから遠隔操作できる(実験的)。

🔗 GitHub Changelog の発表


Claude Code — 60件超の信頼性修正(5月8日の週)

5月8日 — Claude Code チームは、今週デプロイした 60 件超の修正を列挙したスレッドを公開した。これは先週の 50 件超に続くものだ。

“Last week we shipped 50+ Claude Code reliability fixes. This week it’s 60+ more. Smoother long-running sessions, a more efficient agent loop, auth that works in more environments, and terminal fixes.”

🇯🇵 「先週、私たちは Claude Code に 50 件超の信頼性修正を出しました。今週は、さらに 60 件超です。長時間セッションの安定化、より効率的なエージェントループ、より多くの環境で機能する認証、そしてターミナル修正。」@ClaudeDevs on X

分野主な修正
安定性claude -p が stdin 経由で >10 MB を受け付ける、スリープ復帰後の再開
エージェントループサブエージェント向けプロンプトキャッシュ、ENABLE_PROMPT_CACHING_1H 経由の 1 時間キャッシュ opt-in
認証OAuth コードをターミナルへ直接貼り付け可能(WSL、SSH、コンテナ)
MCP自動再接続 + /mcp での明確なステータス、制限付きメモリの修正
ターミナル描画Cursor、VS Code、JetBrains のスクロール修正;日本語文字の修正

これらの修正を適用するには、claude update

🔗 Claude Code Changelog


GitHub Copilot — Grok Code Fast 1 の非推奨化(5月15日)

5月8日 — GitHub は、すべての Copilot 環境で Grok Code Fast 12026年5月15日 に非推奨化すると発表した。理由は、このモデル自体が xAI により非推奨化されるためだ。

モデル非推奨化日推奨代替
Grok Code Fast 12026年5月15日GPT-5 mini, Claude Haiku 4.5

Copilot Enterprise の管理者は、この日までに代替モデルがモデルポリシーで有効になっていることを確認する必要がある。非推奨化後の移行は自動で行われるため、モデルを外すための追加作業は不要だ。

🔗 非推奨化の発表


Google Health App — Fitbit が Google Health に、Gemini コーチを搭載

5月8日 — Fitbit アプリは進化し、新しい Google Health アプリになる。この再設計では、既存の Fitbit 機能はすべて維持され、Gemini 搭載のパーソナライズ健康コーチ が統合される。このコーチは、ウェアラブルデバイスのデータ、好みのヘルスアプリ、医療記録を分析し、各ユーザーに合わせた先回りの健康アドバイスを提供する。

このアプリは Fitbit と Pixel Watch に対応し、数百のサードパーティ製アプリやデバイスと連携する。

🔗 @GoogleAI の発表


Gemini API — マルチモーダル File Search、Webhooks、Gemma 4 MTP で 3 倍高速化

5月8日 — @GoogleAI の週次まとめでは、Google I/O を 11 日後に控えた今週の開発者向けリリース 3 件が紹介された。

機能日付影響
マルチモーダル File Search5月5日ページ引用付きの検証可能なマルチモーダル RAG
Gemini API Webhooks5月4日pollingpush 通知へ置き換え
Gemma 4 MTP drafters5月5日推論で最大 3 倍高速

File Search は、カスタムメタデータとページ引用をサポートするようになり、マルチモーダルソース上で検証可能な RAG(Retrieval-Augmented Generation)システムを構築できる。webhooks により、長時間タスクに対する継続的な問い合わせが不要になる。Gemma 4 向けの MTP(Multi-Token Prediction)アクセラレータは、デプロイワークフローにおいて推論速度を最大 3倍 に高める。

🔗 Google Developers Blog


Luma AI Uni-1.1 API — 一般公開

5月5日 — Luma AI は Uni-1.1 API を公開し、自社の統合知能モデル(Unified Intelligence model)を REST インターフェース経由で開発者が利用できるようにした。このモデルは、推論と画像生成を単一のアーキテクチャに統合している。これは、推論時に複数の分離されたモデルを組み合わせる標準的なアプローチとは対照的だ。

指標
Human Preference Elo#1(全体生成、スタイル、参照ガイド)
Image ArenaTop 3(Text-to-Image + Image Edit)
RISEBench 空間推論首位
1リクエストあたりの参照画像数最大 9 枚
生成時間画像 1 枚あたり約 31 秒
本番導入パートナーEnvato, Comfy, Runware, Flora, Krea, Magnific, Fal, LovArt

API は 2 つの主要エンドポイントを提供する。Generate Image(最大 9 枚の参照画像を使った text-to-image で、アイデンティティ、構図、スタイルを保持)と Modify Image(自然言語による編集)だ。Python と JavaScript/TypeScript の SDK も利用できる。料金プランは 2 段階で、Build(従量課金)と Scale(より高いレート上限、専用サポート)がある。

🔗 Luma AI の発表


NVIDIA + SakanaAI — TwELL sparse kernels に関する ICML 2026 論文

5月8日 — NVIDIA AI と SakanaAI Labs は共同で、ICML 2026 に採択された研究論文を公開した。テーマは、疎なトランスフォーマーカーネルsparse transformer kernels)と、現代の NVIDIA GPU 上での実行に最適化されたデータ形式だ。このプロジェクトは TwELL と名付けられている。

中心となる発想は、人間の脳は与えられた思考に必要なニューロンだけを活性化するというものだ。これを言語モデルに適用すると、構造化された疎性を通じてアクティブな重みだけを選択的に計算し、性能を犠牲にせず計算負荷を下げられる。この研究は、特に Mixture-of-Experts(MoE) アーキテクチャに向けた、より効率的な推論へと向かう NVIDIA の方向性と一致している。投稿は ML コミュニティで 5 万ビュー、66 リポストを獲得した。

🔗 @NVIDIAAI のツイート


Qwen3.6-35B-A3B — ODinW ベンチマークで +8.2 ポイント

5月9日 — Tongyi Lab(Alibaba)は、Qwen3.6-35B-A3B による指示志向物体検出(Instruction-Oriented Object Detection)の進展を発表した。従来の物体検出が視覚要素の位置特定にとどまるのに対し、この手法は自然言語の指示を意味的に理解して検出を導くことを目指している。

指標Qwen3.5Qwen3.6-35B-A3B増加
ODinW score42.650.8+8.2 pts

インタラクティブなデモは ModelScope で利用できる。

🔗 @Ali_TongyiLab のツイート


Tongyi Lab — 世界的包摂のための 1,200+ 言語

5月9日 — Tongyi Lab(Alibaba)は、「1,200+ Languages. One Vision for AI Inclusion」というタイトルの動画を公開し、十分に代表されていない言語コミュニティに対する AI アクセスの公平性を問いかけた。この取り組みは、2025年7月に発表された Qwen-MT の 92 言語を大きく超える、1,200 言語超のカバレッジを目指すもので、世界規模の技術と、それが本来支えるべきコミュニティとの間にあるギャップに応える。

🔗 @Ali_TongyiLab のツイート


OpenAI Codex Switch — ChatGPT から Codex への移行ページ

5月8日 — OpenAI は、chatgpt.com/codex/switch-to-codex/ へのリンクだけを含む最小限のツイートを公開し、メッセージは「Just gonna leave this here.」のみだった。このツイートは 51万7千ビューを記録した。このティーザーは、Codex を ChatGPT プラットフォームの中核開発アシスタントとして位置づける戦略の一環だ。掲載ページはスキャン時点でアクセスできなかった。

🔗 @OpenAI のツイート


短報

  • OpenAI supply.openai.com — @OpenAIDevs が謎めいたツイート「Available until the goblins notice.」🧌 を投稿し、supply.openai.com へのリンクを引用した。ページはスキャン時点でアクセスできなかった(27万4千ビュー)。 🔗 ツイート

これが意味すること

enterprise は Copilot の中心的な戦場になる。 GitHub は、組織規模で管理された Copilot 展開の基盤を整えつつある。.github-private による集中プラグイン、独自モデル接続のための BYOK、リモート CLI モニタリング、エージェントの live context としての Integrated Browser だ。これらの機能は、各開発者が自分のスタックを勝手に組むのではなく、AI ツールを標準化したい CIO の実際のニーズに応えるものだ。同時に Grok Code Fast 1 を非推奨化し、GPT-5 mini または Claude Haiku 4.5 に置き換えることは、このエコシステムにおいてサードパーティモデルがいかに素早く組み込まれ、そして外されるかを示している。

Claude Code は信頼性を前面に出している。 長時間セッション、制限された環境での OAuth 認証、MCP、ターミナル描画といった具体的なテーマで 2 週連続 110 件超の修正を行ったことは、Anthropic チームが信頼性を本番導入の最大の障壁と捉えていることを示す。WSL、SSH、コンテナに対する修正は、ブラウザが localhost に到達できない enterprise 環境を明確に狙っている。サブエージェントで 1 時間のプロンプトキャッシュを opt-in にしている点も、長時間のマルチエージェントワークフローが優先ユースケースになりつつあることのシグナルだ。

Luma AI と統合 API:アーキテクチャへの賭け。 画像生成パイプラインの多くが複数の専用モデルを組み合わせるのに対し、Uni-1 は推論と生成を 1 つのアーキテクチャに統合している。1 リクエストあたり最大 9 枚の参照画像を使えること、そして Human Preference Elo で #1 を獲得していることは、この統合アプローチが、組み合わせ型パイプラインでは達成しにくいスタイルの一貫性を実現していることを示唆する。すでに 8 社のパートナーが本番導入している事実は、この API が実運用の負荷に耐えうることを裏づける。

Alibaba/Qwen はマルチモーダルと多言語を狙う。 Qwen3.6-35B-A3B が自然言語誘導の物体検出で ODinW を +8.2 ポイント伸ばしたことに加え、1,200+ 言語をカバーするという野心は、Tongyi Lab が社会的インパクトの大きい用途に向けた戦略を描いていることを示す。すなわち、テキスト指示で使える産業向けビジョンと、現時点では支援が行き届いていない言語コミュニティにも使える AI だ。これら 2 つの軸は、より広いアクセシビリティという同じ論理に収束している。


ソース