検索

Mistral Medium 3.5 と Vibe Remote Agents、Google TPU 第8世代、Claude for Creative Work

Mistral Medium 3.5 と Vibe Remote Agents、Google TPU 第8世代、Claude for Creative Work

今週は3つの фронトで同時に加速が見られた。オープンモデル(Mistral Medium 3.5、NVIDIA Nemotron 3 Nano Omni)、ハードウェア基盤(Google TPU 第8世代)、そしてエージェントのエコシステム(Vibe Remote Agents、Claude for Creative Work、GitHub Copilot)である。さらに ElevenLabs は、AI 音楽エンジンを収益化機能付きの一般向けプラットフォームへと進化させ、新たな節目を迎えた。


Mistral Medium 3.5、Vibe Remote Agents、Le Chat Work Mode

4月29日 — Mistral AI は、モデル Mistral Medium 3.5、Vibe のリモートエージェント(remote agents)、そして Le Chat の Work Mode を同時に発表した。

Mistral Medium 3.5 の一般公開プレビュー

Medium 3.5 は 1280 億パラメータの dense モデルで、命令追従、推論、コードを単一の重みセットに統合し、256,000 tokens のコンテキストウィンドウを備える。ローカルでもわずか 4 GPU で実行できる。

特徴
アーキテクチャDense 128B
コンテキスト256,000 tokens
SWE-Bench Verified77.6 %
τ³-Telecom91.4
ライセンス修正 MIT(open weights)
API — 入力 tokens$1.50 / 100万
API — 出力 tokens$7.50 / 100万
セルフホスティング(最小 GPU)4 GPU

このモデルは SWE-Bench Verified で Devstral 2 と Qwen3.5-397B-A17B を上回っており、公開時点でコード向け open weights モデルの基準的存在に位置づけられる。利用先は Mistral API、Le Chat、Vibe、NVIDIA の端末(build.nvidia.com)、および NVIDIA NIM マイクロサービス。

Vibe のリモートエージェント(remote agents

Vibe のコードセッションは、ローカルで開いたままにせずクラウド上で実行できるようになった。複数のセッションを並列で動かしつつ、開発者は別の作業を進められる。ローカルセッションは、その履歴と完全な状態を保ったままクラウドへ「テレポート」できる。タスク完了時には、エージェントが GitHub 上で自動的にプルリクエスト(pull request)を作成し、開発者に通知する。

Vibe は GitHub(コード + PR)、Linear と Jira(チケット)、Sentry(インシデント)、Slack と Teams(通知)とネイティブ統合される。各セッションは分離された環境で実行される。

Le Chat の Work Mode(プレビュー)

Le Chat における複雑なタスク向けの新しいエージェントモード。複数ソースの調査、文書要約、メールボックスの整理、Jira チケットの作成、Slack への要約送信に対応する。コネクタは Work Mode でデフォルト有効。可視化される各アクションでは、センシティブな操作に対して明示的な承認が求められる。

🔗 X 上の Mistral の発表


Google TPU 第8世代 — TPU 8t と TPU 8i

4月29日 — Google は TPU(Tensor Processing Unit)チップの第8世代を公開した。これは前週の Google Cloud Next ‘26 で発表されたもの。今回の世代は、AI サイクルの異なる段階に最適化された 2 種類のチップで構成される。

A decade in the making, the chips for the agentic era have arrived. At @GoogleCloud’s Next ‘26 event last week, we unveiled our eighth-generation TPUs. TPU 8t: 3x more powerful than previous gen, 10x faster data movement, 97% productive resource utilization, training time from months to weeks. TPU 8i: tripled internal memory, 80% better perf/dollar, 5x latency reduction.

🇯🇵 10年をかけて形になった、エージェント時代のためのチップがついに登場しました。先週開催された @GoogleCloud の Next ‘26 イベントで、私たちは第8世代 TPU を発表しました。TPU 8t は前世代比で 3 倍の性能、データ移動は 10 倍高速、リソースの生産的利用率は 97%、トレーニング時間を数か月から数週間へ短縮します。TPU 8i は内部メモリを 3 倍に増やし、perf/dollar を 80% 改善し、レイテンシを 5 分の 1 に削減します。X の @GoogleAI

TPU 8t — モデルのトレーニング

改善点詳細
生の計算性能前世代比で 3 倍
データスループット10 倍高速(ストレージ → チップ)
生産的利用率リソースの 97 %(障害の検出と自動リルーティング)
影響トレーニング時間を数か月から数週間へ短縮

TPU 8i — AI エージェント向け推論

改善点詳細
内部メモリ複雑な多段推論を扱うため 3 倍化
コスト効率支出 1 ドルあたり性能が +80 %
レイテンシ新しい統合エンジンにより 5 倍削減

これらのチップはエージェント時代を前提に設計されている。TPU 8t はモデル開発を高速化し、TPU 8i はそれらのモデルがほぼリアルタイムで行動すること(フライト予約、予定管理)を可能にする。Google はこの二重アーキテクチャを、次の 10 年の技術基盤として位置づけている。


Claude for Creative Work — Blender、Autodesk Fusion、Adobe ほか 5 つの MCP コネクタ

4月28日 — Anthropic は、Blender、Autodesk、Adobe、Ableton、Splice と提携し、クリエイティブ業界のプロフェッショナル向け公式 MCP(Model Context Protocol)コネクタ群を公開した。

ツール用途
Blender3D シーンのデバッグ、ツール作成、全オブジェクトへの一括変更
Autodesk Fusion自然言語による 3D モデルの作成と編集
Adobe Creative Cloud50 以上の CC ツールを通じた画像・動画・デザインの具体化
Ableton Live と Push公式製品ドキュメントの探索
SpliceClaude から直接、ロイヤリティフリーのサンプルを検索
Canva Affinity繰り返し発生する制作タスクの自動化
SketchUpテキスト記述から始める 3D モデリングの出発点
Resolume / TouchdesignerVJ やビジュアルアーティスト向けの自然言語によるリアルタイム制御

“Claude now connects to the tools creative professionals already use. With the new Blender connector, you can debug a scene, build new tools, or batch-apply changes across every object, directly from Claude.”

🇯🇵 Claude は、クリエイティブのプロがすでに使っているツールに接続できるようになりました。新しい Blender コネクタにより、シーンのデバッグ、新しいツールの作成、あるいはすべてのオブジェクトへの一括変更を、Claude から直接行えます。X の @claudeai

Anthropic はまた、Blender Development Fund にパトロンドナーとして参加し、オープンソースソフトウェアの開発を支援している。メインの投稿は 24 時間未満で 1000 万回超の表示 を記録し(Autodesk Fusion の投稿は 1100 万回に到達)、ここ数か月で最も拡散した Anthropic の発表のひとつとなった。

強調されたユースケースは、複雑なソフトウェアの学習、コードによるツール拡張(スクリプト、plugin、Claude Code を通じた生成システム)、パイプライン内でのツール間連携、反復タスクの自動化(一括処理、scaffolding)である。

🔗 Anthropic の記事


NVIDIA Nemotron 3 Nano Omni — オープンソースの 30B omnimodal モデル

4月28日 — NVIDIA は Nemotron 3 Nano Omni を発表した。これは vision、audio、language を単一アーキテクチャに統合したオープンソースの omnimodal モデルである。

パラメータ
アーキテクチャハイブリッド MoE 30B-A3B(総計 30B、アクティブ 3B)
コンテキスト256K tokens
モダリティ(入力)テキスト、画像、音声、動画、文書、グラフ、インターフェース
モダリティ(出力)テキスト
効率性他のオープン omnimodal モデルより 9 倍高いスループット
提供状況Hugging Face、OpenRouter、build.nvidia.com、25 以上のパートナープラットフォーム

このモデルは 3 つのユースケースで特に優れている。computer use(ネイティブ解像度 1920×1080 の GUI 操作)、ドキュメントインテリジェンス(PDF、表、グラフ、スクリーンショットの解釈)、そして単一の推論フロー内で audio-video コンテキストを維持することだ。

Aible、H Company、Palantir、Foxconn、Oracle などの組織が、公開と同時にこのモデルを評価している。H Company はこれを自社の computer use エージェントに統合している。

“To build useful agents, you can’t wait seconds for a model to interpret a screen. By building on Nemotron 3 Nano Omni, our agents can rapidly interpret full HD screen recordings — something that wasn’t practical before.”

🇯🇵 有用なエージェントを構築するには、モデルが画面を解釈するのを何秒も待つわけにはいきません。Nemotron 3 Nano Omni を基盤にすることで、私たちのエージェントはフル HD の画面録画を高速に解釈できます。これは以前は実用的ではなかったことです。 — Gautier Cloix、H Company CEO

Nemotron ファミリー全体では、この 1 年で Nano/Super/Ultra の各バリアントを合わせて 累計 5000 万ダウンロード に到達した。

🔗 NVIDIA ブログ


ElevenMusic — AI 音楽プラットフォーム(発見、リミックス、制作、収益化)

4月29日 — ElevenLabs は ElevenMusic を発表した。これは視聴、リミックス、オリジナル制作を 1 つのシステムに統合し、アーティストへの直接収益化も提供する AI 音楽プラットフォームである。

機能説明
発見4,000 人以上のインディペンデントアーティスト、厳選カタログ
リミックスジャンル変更、テンポ変更、楽曲の再解釈
制作歌詞、メロディ、雰囲気から生成
公開ファンのエンゲージメントを通じた配信 + 収益化

この経済モデルは ElevenLabs の Voice Library に着想を得ており、同サービスはすでにクリエイターへ $1100 万 を還元している。アーティストは中間レーベルなしで、リスナーのエンゲージメントに応じて作品を公開し収益を得られる。

ElevenMusic は Eleven Album Vol. 2 とともにローンチされる。これは Danger Twins と Justin Love を含むコンピレーションで、プラットフォーム上で体験し、リミックスすることを前提に設計されている。Kevin Jonas Sr.(Jonas Group Entertainment)と Amy Stroup(Danger Twins)がローンチ時のアーティストパートナーに名を連ねる。

“Fans want to feel like they’re part of the music, the songwriters, and the artists. ElevenMusic gives them a way in, turning a song into something people can step into, not just listen to.”

🇯🇵 ファンは、自分たちが音楽やソングライター、そしてアーティストの一部であると感じたいのです。ElevenMusic はその入り口を提供し、楽曲を、ただ聴くだけのものではなく、人々が入り込めるものへと変えます。 — Kevin Jonas Sr.、Jonas Group Entertainment 創業者兼会長

このプラットフォームは 2026 年 4 月 29 日より、モバイルアプリと Web で利用可能。

🔗 X の @ElevenLabs の発表 — 🔗 ElevenLabs ブログ


GitHub Copilot code review — 2026 年 6 月 1 日から二重課金

4月27日 — GitHub は、2026 年 6 月 1 日 から、GitHub Copilot による各自動コードレビューで、新しい従量課金モデルに基づく AI クレジットに加えて GitHub Actions の minutes も消費するようになると発表した。

これまでは、Copilot のコードレビューは premium request units(PRU)のみを消費していた。6 月 1 日以降、プライベートリポジトリでは 2 つのカウンタが同時に動作する。

カウンタ詳細
IA CreditsCopilot のあらゆる利用(code review を含む)は、従量課金モデルに従って AI クレジットで課金
Minutes GitHub Actionsプライベートリポジトリ上の各レビューごとにプランの枠から消費。追加 minutes は標準の Actions 料金で課金

この二重計上は、Copilot code review のエージェントアーキテクチャによるものだ。より適切なフィードバックを生成するため、ツールは GitHub-hosted runners を利用してリポジトリのより広い文脈を解析する。

対象プラン: Copilot Pro、Pro+、Business、Enterprise — 非ライセンスユーザーが開始したレビューを組織へ直接請求するケースも含む。

パブリックリポジトリ: 変更なし。Actions minutes は引き続き無料。

6 月 1 日までに準備しておくこと:

  • 請求設定で現在の Actions 消費量を確認する
  • 必要に応じて Actions の spending limits を調整する
  • 組織の請求担当者へ知らせる

🔗 GitHub Changelog


OpenAI DevDay 2026 — サンフランシスコ、9月29日

4月29日 — OpenAIは毎年恒例の開発者向けイベントの復活を発表しました。OpenAI DevDay 2026は9月29日にサンフランシスコで開催されます。公式登録はまだ開始されていません。

期待感を高めるため、OpenAIはコンテストを開始しました。GPT-5.5と画像生成を使って何かを構築した開発者は、早期招待を獲得できるチャンスがあります。方法は、プロジェクトへのリンクと、それがどのように構築されたかを説明するメモを、公式ハッシュタグ #OpenAIDevDay2026 とともに提出することです。

詳細
日付2026年9月29日
場所サンフランシスコ
公式ハッシュタグ#OpenAIDevDay2026
ポスト閲覧数(最初の数時間)239,000+

発表は5か月前に行われており、DevDayとしては異例なほど早いタイミングです。過去の開催では、OpenAIが開発者コミュニティ向けに行った最も重要な製品発表の場となってきました。2023年には、GPT-4 TurboとAssistants APIがここで発表されました。現在のリリースペースの加速 — GPT-5.5、画像生成、Codex CLI — を踏まえると、DevDay 2026はOpenAIモデルを本番環境に統合している技術チームにとって、カレンダー上の重要な節目になりそうです。

別のスレッドでは、開発者に対して今すぐ作品を共有するよう呼びかけています。@OpenAIDevs アカウントは、メイン投稿の公開から数分以内にこの発表を拡散しました。

🔗 XでのOpenAI発表


エージェントエコシステムと新たな統合

Claude Code CLI v2.1.120–2.1.123 — 50件超の修正

4月28日 — Claude Codeチームは、CLIの直近4バージョン(v2.1.120〜v2.1.123)で行われた修正内容を詳しく説明しました。安定性とパフォーマンスに関する改善は50件を超えます。

指標
対象バージョンv2.1.120, v2.1.121, v2.1.122, v2.1.123
修正件数50+
パフォーマンス向上 /resume最大67%高速化
@ClaudeDevs スレッド閲覧数493k

5つの重点項目は、長時間セッションの高速化(/resume が最大67%高速化)、macOS認証の安定化(keychain関連の十数件の修正)、Linuxでのメモリ使用量削減、大きなページでもフリーズしないWebFetch、そしてWindowsおよびXcodeからのコピー&ペースト時に改行を保持することです。

🔗 @ClaudeDevs スレッド

OpenAI × AWS — Amazon Bedrock上のCodexとManaged Agents

4月28日 — OpenAIとAWSは、戦略的パートナーシップを3つの軸で拡大しました。AWS環境でのOpenAIモデルへのアクセス、Bedrock上のCodex(データをAmazonインフラ内に保持したい組織向けの限定プレビュー)、そしてOpenAIを基盤とするBedrock Managed Agents(即時利用可能)です。Codexの週間ユーザー数は400万人を超えています。

🔗 OpenAI発表

Copilot cloud agent、起動が20%高速化

4月27日 — GitHub Copilot cloud agentは、GitHub Actionsのcustom imagesを通じて事前構成されたrunner環境により、起動が20%以上高速化されました。この改善は、2026年3月に提供された50%短縮に続くものです。

🔗 GitHub Changelog

Gemini — ダウンロード可能なファイル生成

4月29日 — Geminiは、チャットから直接ダウンロード可能なファイルを作成できるようになりました。対応形式は、PDF、Word(.docx)、Excel(.xlsx)、Google Docs/Sheets/Slides、CSV、LaTeX、RTF、Markdownです。Webおよびモバイルのすべてのユーザーに即時提供されます。

🔗 Googleブログ

Mistral Workflowsがパブリックプレビューに

4月27日 — Mistral AIは、Temporalの耐久実行エンジン(durable execution engine)上に構築された企業向けオーケストレーション層であるWorkflowsをパブリックプレビューとして公開しました(Netflix、Stripe、Salesforceと同じインフラ)。フローはMistral SDK v3.0を使ってPythonで記述し、その後Le Chatから業務チームが起動できます。ASML、France Travail、La Banque Postaleはすでに利用しています。

🔗 Mistral発表

Qwen FlashQLA — 線形アテンション kernel

4月29日 — Qwenは、TileLang上に構築された高性能な線形アテンション kernel ライブラリであるFlashQLAを公開しました。個人用デバイス上のエージェント型AI向けに設計されており、forwardで2〜3倍、backwardで2倍の性能向上を実現します。GitHubでオープンソース公開されています。

🔗 GitHub QwenLM/FlashQLA

GPT Image 2がManus Slidesに統合

4月29日 — Manusは、GPT Image 2をManus Slidesに統合しました。ビジュアルのポイント&クリック編集、promptによる置き換え、発表ノート生成、Google Slides、PowerPoint、PDF、Google Drive、OneDriveへのエクスポートに対応します。

🔗 Manus発表

SalesforceがGensparkに接続

4月29日 — Gensparkは、Salesforceを自社のエージェントエコシステムに統合しました。接続方法はGenspark Claw(指示によるCLIインストール)またはSuper Agent(直接接続)です。ユースケースには、顧客依頼の自動処理、四半期ダッシュボード、自動化された営業パイプライン管理が含まれます。

🔗 Genspark発表

GensparkでGPT-5.5とChatGPT Images 2.0が利用可能に

4月28日 — Gensparkは、AIチャットにGPT-5.5を、画像ジェネレーターにChatGPT Images 2.0(GPT Image 2)を統合しました。利用先はそれぞれ genspark.ai/agents と genspark.ai/ai_image です。

🔗 Genspark発表

Pika Agents — クリエイティブな会話型インターフェース

4月28日 — PikaはPika Agentsを公開しました。これは、prompt入力欄をユーザー設定可能なAIエージェント(音声、顔、性格を設定可能)に置き換える動画制作インターフェースです。このエージェントは自然言語で創作意図を理解し、1回の会話の中で組み立て、洗練、生成までを行います。

🔗 Pika発表

ChatGPT Business向けCodex seatsが6月末まで $0

4月29日 — OpenAIは、対象となるChatGPT Business加入者に対し、2026年6月末までseat料金なしでCodex seatsを追加できるようにしました。これはAWS上でのCodex拡大にあわせたものです。

🔗 @OpenAIDevs 発表

GPT-5.5で60年来のErdős問題を解決

4月28日 — OpenAIはポッドキャストのエピソードを公開し、その中でSébastien BubeckとErnest Ryuが、Paul Erdősに帰される60年間未解決だった数学問題をGPT-5.5の助けを借りて解決した件を振り返っています。この投稿は399,000回超の閲覧を記録しています。

🔗 OpenAIの投稿


短報

  • DeepSeek-V4-Pro:-75%プロモ延長 — DeepSeek-V4-Pro APIの75%割引は2026年5月31日まで延長されました。プロモ価格は、入力 $0.003625/M tokens(cache hit)、$0.435(cache miss)、出力 $0.87 です。🔗 DeepSeekの投稿

  • Google DeepMind — ラテンアメリカでExperience AI — 教育プログラムExperience AI(Raspberry Pi Foundation)がラテンアメリカに拡大し、2028年までに24,000人の教師育成、125万人の生徒への提供を目標としています。Google.orgが $4.6 million を拠出しています。🔗 Google DeepMindの投稿

  • GPT-5.3-CodexがCopilot Studentのモデル選択から削除 — 2026年4月27日以降、GPT-5.3-CodexはCopilot Studentプランで手動選択できなくなりました。ただし自動選択では引き続き利用可能です。🔗 GitHub Changelog

  • Responses API — Web検索用のブロックドメイン — OpenAIのResponses APIでは、Web検索を有効にしたまま特定のドメインをブロックできるようになり、結果から特定ソースを除外できます。🔗 @charlierguo の投稿

  • OpenAI — コミュニティ安全性への取り組み — OpenAIは、ChatGPTにおける安全対策の実践を詳述した記事を公開しました。モデル内でのリスク緩和、自動監視、支援リソースへの案内、深刻なケースでの当局通報が含まれます。新機能を伴わない透明性に関する公開です。🔗 OpenAI発表


これが意味すること

オープンモデル競争は激化しています。 Mistral Medium 3.5(128B、SWE-Bench 77.6%)とNVIDIA Nemotron 3 Nano Omni(30B、他のオープンなオムニモーダルモデルより9倍効率的)が、寛容なライセンスで同時に登場しました。両モデルは、クローズドな最先端モデルに対する信頼できる代替として位置づけられています。Mistralはコードと推論、Nemotronはエージェント型マルチモーダルに強みがあります。この圧力によって、プロプライエタリモデルとopen weightsの差はますます小さくなっています。

ハードウェアインフラは依然として戦略的ボトルネックです。 Googleの第8世代TPU(学習3倍、推論レイテンシ5分の1)は、AI競争がシリコンのレベルでも戦われていることを示しています。Google Cloud Next ‘26の発表は、GoogleのインフラをNVIDIA GPUに対する持続的な競争優位として位置づけています — 実際のデプロイでは両者が共存するとしてもです。

エージェントエコシステムは垂直特化へと細分化しています。 今週、AIエージェントはクリエイティブツール(Claude for Creative Work、8+のMCPコネクタ付き)、ソフトウェア開発(Vibe Remote Agents、20%高速化したCopilot cloud agent)、音楽(ElevenMusic)、動画(Pika Agents)、CRM(Genspark内のSalesforce)、企業ワークフロー(Mistral Workflows)へと広がりました。もはや問いは「AIにこれができるか?」ではなく、「どの特化ツールで、どの課金モデルのもとで行うか?」です。

従量課金は開発者の経済モデルを変えつつあります。 GitHub Copilot code reviewが6月1日から二重カウント(AI credits + Actions minutes)へ移行することと、ChatGPT Business向けCodex seats $0 オファーを組み合わせると、1つの力学が見えます。ベンダーは、従量課金を標準化する前に、導入促進策(一時無料、DeepSeekの-75%プロモ)で利用習慣を作ろうとしています。技術チームは6月前にAI支出項目を監査する価値があります。


出典

この文書は、gpt-5.4モデルを使用してfr版からja言語に翻訳されました。翻訳プロセスの詳細については、https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。