検索

Luma Uni-1 は思考しピクセルを生成、Perplexity が Samsung の10億台を支援、Claude Code v2.1.86

Luma Uni-1 は思考しピクセルを生成、Perplexity が Samsung の10億台を支援、Claude Code v2.1.86

Luma AI は Uni-1 を発表しました。これは、推論とピクセル生成を単一パスで融合するモデルで、数日で610万回の視聴を集めました。一方、Perplexity は Samsung Browsing Assist に自社の API を導入し、10億台以上の Samsung デバイスに展開されています。Claude Code v2.1.86 は約15件のバグ修正を含むアップデートで登場し、GitHub Copilot CLI はエージェントによる自動化された単体テスト生成を導入しました。


Luma Uni-1 — 推論とピクセル生成の統合

3月23日 — Luma AI は Uni-1 を発表しました。彼らはこれを「ピクセルを同時に考え生成する新しいタイプのモデル」と説明しています。従来の拡散モデルのようにまず潜在表現を生成してからデコードするのではなく、Uni-1 は推論(reasoning)と生成を単一のプロセスで融合させます。

この発表は注目を集め、610万回の視聴、4,000件のいいね、1,000件以上のリシェアを記録しました — 画像生成分野の技術発表としては異例の数字です。

アーキテクチャとポジショニング:

CapacitéDescription
Raisonnement spatial視点や遮蔽の一貫性を保ってシーンを理解・補完する
Raisonnement de bon sensシーンの意図を推測して生成を導く常識推論
Transformation guidée単なるピクセル一致ではなく物理的妥当性で操作を導く変更
Intelligence unifiée理解、指示、生成を単一パスで行う(unified pass

Luma は Uni-1 を「Less artificial. More intelligent.」というフレーズで位置づけており、視覚パターンの統計的一致に基づく生成器からの断絶を示唆しています。モデルは将来の「Creative Agents」の基盤、次世代 Dream Machine のエンジンとなる可能性が提示されています。

Uni-1 は lumalabs.ai/app ですぐに利用可能です。

“A new kind of model that thinks and generates pixels at the same time.”

🇯🇵 ピクセルを同時に思考し生成する、新しいタイプのモデル。@LumaLabsAI の投稿

🔗 Luma Uni-1 発表


Perplexity が Samsung Browsing Assist を 10億台のデバイスで支援

3月26日 — Samsung は Browsing Assist を発表しました。これは Galaxy Android デバイスおよび Windows PC 上の Samsung Browser にネイティブ統合された会話型 IA アシスタントです。機能の裏側には Perplexity の API があり、世界で10億台を超える Samsung デバイスへ展開されています。

このローンチは既存のパートナーシップの強化でもあります:Perplexity は Galaxy S26 に搭載された3つのアシスタントのうち2つ(ネイティブな Perplexity アシスタントと、ウェブ検索や推論に Perplexity API を使う Bixby)に力を与えています。Browsing Assist により、Perplexity は単なる会話型アシスタントからブラウザ自体の IA レイヤーへと拡張しました。

Browsing Assist の機能:

FonctionnalitéDescription
Réponses sourcéesナビゲーション中のリアルタイムなソース付き回答
Résumé de pagesログインが必要なページを含むページ要約
Recherche dans l’historique自然言語での履歴検索
Gestion conversationnelle音声やテキストでタブを開閉・移動
Actions multi-onglets複数の開いているタブを同時に操作
Synchronisation téléphone → PCモバイルで始めた会話を PC で再開

インフラストラクチャ: Browsing Assist は Perplexity の専用テナント(single-tenant)クラスター上で動作し、すべての API 入力に対してデータ保持はゼロとされています。エンドポイントは Samsung の要求する速度とスケールに合わせて特注設計されています。

Perplexity は、Samsung で展開された機能(検索、推論、マルチタブのオーケストレーション)が、自社ブラウザ Comet の構築要素そのものであると述べています。この展開は Perplexity の技術スタックの大規模な検証を意味します。

提供状況: ローンチ時は米国と韓国で利用可能;その他地域は今後対応予定。開発者は同等の機能を Perplexity の Search API、Embeddings API、Agent API を通じて利用できます。

🔗 Perplexity公式ブログ


Claude Code v2.1.86 — 主要な修正と VCS Jujutsu/Sapling サポート

3月27日 — Anthropic は Claude Code v2.1.86 を公開しました。今回のリリースは修正が多く、約15件のバグ修正と複数の性能改善が含まれています。

主な改善点:

CatégorieChangement
APIプロキシ側でセッション毎にリクエストを集約するためのヘッダ X-Claude-Code-Session-Id
VCSGrep と自動補完で .jj(Jujutsu)と .sl(Sapling)を除外
Cache MCP起動遅延が 5s から 30s に短縮(macOS の keychain キャッシュ)
PerformancesBedrock、Vertex、Foundry 上でのキャッシュヒット率改善
Tokensメンション @fichier のオーバーヘッド削減(生コンテンツの JSON エスケープなし)
UX mémoire「Saved N memories」の表示でメモリのファイル名がクリック可能に
Skills説明文は250文字に制限;メニュー /skills をアルファベット順にソート
Read tool行番号のコンパクト表示、同一の再読の重複排除

注目のバグ修正: --resume は v2.1.85 より前に作成されたセッションで失敗していた;条件付き skills でプロジェクトルート外のファイルに対する Write/Edit/Read が失敗していた;長時間セッションで /feedback によるメモリクラッシュの可能性;--bare モードで MCP ツールを失う問題;OAuth の URL コピーショートカットが URL 全体ではなく約20文字しかコピーしていなかった;公式 marketplace のプラグインスクリプトが v2.1.83 以降 macOS/Linux で「Permission denied」で失敗する事象など。

🔗 Claude Code のチェンジログ


GitHub Copilot CLI — エージェントによる自動単体テスト(autopilot)

3月28日 — GitHub は Copilot CLI の新機能を発表しました:ターミナルから直接、エージェントのフリートを autopilot モードで利用して完全な単体テストスイートを自動生成する機能です。これにはプランモード(plan mode)の併用が必要です。

ワークフロー:

  1. ターミナルで Shift-Tab を使ってプランモードを有効化
  2. Autopilot モードでエージェントのフリートを起動
  3. /tasks コマンドで進捗を追跡

生成作業は複数のエージェントに並列化され、複数モジュールを同時にカバーできます。主なユースケースはテストカバレッジがない既存プロジェクトで、Copilot CLI はターミナルを離れずに完全なテストスイートを生成できます。

🔗 GitHub Copilot CLI のツイート


OpenAI — gpt-realtime-1.5 と gpt-realtime-mini が一般提供に

3月27日 — OpenAI は Realtime API を通じた新しいリアルタイムモデルの GA(General Availability)を発表しました。モデルのドキュメントには次のようなラインナップが掲載されています:

ModèlePositionnement
gpt-realtime-1.5双方向オーディオ対話における最良の音声モデル
gpt-realtime-miniリアルタイムモデルの経済的なバージョン

これらのモデルはベータ時代に使われていた旧称 gpt-4o-realtime-preview に代わるものです。Realtime API は WebRTC、WebSocket、SIP を通じて入出力のある双方向音声対話をリアルタイムで提供します。@OpenAIDevs が示したデモでは、シンガポールのクリニック向けのコンシェルジュが自然に情報を収集し予約を行う様子が示されました。

🔗 @OpenAIDevs のツイート


Google DeepMind — AI 操作(manipulation)を測るツールキット

3月26日 — Google DeepMind は現実世界における AI による操作(manipulation)に関する大規模実証的研究の結果を公開しました。調査は 10,000 人 を対象に行われ、モデルが大きな影響力を持つ分野(特に金融分野)や、既存のガードレールが偽の助言を効果的に防ぐ分野(医療分野)を特定しています。

Google DeepMind は、どのように操作が発生し得るかを定量化するための、実証的に検証された同種初のツールキットを開発しました。研究は、恐怖を利用するようなリスクの高い戦術を識別しています。

“We’ve built an empirically validated, first-of-its-kind toolkit to measure AI manipulation in the real world — to better understand how it can occur and help protect people.”

🇯🇵 我々は、現実世界でのAIによる操作を測定するツールキットを開発しました — 実証的に検証された同種初のもので、どのように起こり得るかをよりよく理解し、ユーザーを保護することを目的としています。@GoogleDeepMind の投稿

🔗 @GoogleDeepMind のツイート


Google Translate Live — iOS でのリアルタイム翻訳

3月27日 — Google は Google Translate Live をイヤホン対応で iOS に拡大し、さらに多くの国で展開中です。以前は Android 限定だったこの機能は、Bluetooth や有線イヤホン経由で 70 以上の言語 のリアルタイム翻訳を可能にします。

🔗 @GoogleAI のツイート


MedGemma Impact Challenge — 4つの受賞プロジェクト、850+チーム参加

3月26日 — Google は MedGemma Impact Challenge の受賞者を発表しました。このコンペティションには 850 を超えるチーム が参加し、MedGemma 1.5(Google のオープン医療モデル)を使ったヘルスケアアプリを構築しました。

受賞上位:

RangProjetDescription
1erEpiCastECOWAS(西アフリカ諸国)のための疫学監視 — 臨床観察を WHO の標準 IDSR シグナルに変換
2eSunnyモバイルでの皮膚がん兆候検出、プライバシーに配慮した構造化レポート
3eFieldScreen AIオフライン結核スクリーニング:胸部X線と咳音の解析
4eTracer医療ミス防止:医師ノートから仮説を抽出し検査結果と照合

エッジ AI やエージェンシックなワークフローに対する特別賞も授与され、ClinicDX(OpenMRS に統合された診断ツール、サブサハラ向けに160以上の WHO/MSF ガイド、完全オフライン対応)などが選ばれました。

🔗 MedGemma Impact Challenge のブログ記事


Runway — Ad Concepter App と 10万ドルコンテスト

3月27日 — Runway は Ad Concepter App をローンチしました。プロンプト、参照画像、製品ビジュアルから広告のコンセプト、構図、ナラティブのステップ(ストーリービート)を生成するツールです。ウェブアプリで即時利用可能です。

Runway は同時に Big Ad Contest(#RunwayBigAdContest)を開始し、ツールの普及促進のために最大 100,000 $ の賞金を提供します。

🔗 Runway のツイート


Pika — Pika AI Selves をパブリックベータで提供

3月26日 — Pika は Pika AI Selves をパブリックベータで公開しました。2月に発表されたこの機能は、各ユーザーが持続的なメモリ(食物アレルギーなどの個人情報を含む)を持つ自分自身のエージェント拡張を作成でき、グループ会話で自律的に振る舞ったり、ゲームを作成したり、写真を送信したりできます。

アクセスは pika.me(ウェブ)と新しい iOS アプリで普遍的に提供されます。Pika はこの機能を単なる動画生成の範疇を超えるものと位置づけ、個人向けエージェント市場で競合する狙いです。

🔗 Pika Labs のツイート


ブリーフィング

Awesome GitHub Copilot — 3月27日 — コミュニティプロジェクト「Awesome GitHub Copilot」が新しい専用サイト awesome-copilot.github.com に移行しました。全文検索、Learning Hub、Copilot CLI と VS Code 向けのワンクリックインストール機能を備えています。 🔗 GitHub のツイート

NotebookLM のプッシュ通知 — 3月27日 — NotebookLM は長時間の生成中にページを離れても、生成完了時にモバイルにプッシュ通知を受け取れる機能を追加しました。 🔗 NotebookLM のツイート


意味するところ

Luma Uni-1 は視覚生成におけるパラダイムシフトを示しています:ピクセルの統計的一致を最適化する代わりに、生成の過程で空間的推論を組み込む点が重要です。実用化されれば、ツールはシーンの整合性や複雑な指示の扱い方を大きく変える可能性があります。

今週の中で最も実務的なインパクトは Perplexity × Samsung の展開でしょう。10億台という規模は Perplexity の検索・推論機能の大規模な配布を意味します。また、検索・推論・マルチタブオーケストレーションといった専門 API がハードウェアメーカーのインフラ要素になったことを示しています。

開発者向けでは、Claude Code v2.1.86 と GitHub Copilot CLI が異なる方向性で進化しています:Claude Code は信頼性を強化(長時間セッション、MCP、マイナーな VCS 対応の修正)、一方で Copilot CLI はエージェントによる自動化(エージェントフリートでのテスト生成)を推し進めています。どちらも開発アシスタントの成熟度が、単なるオートコンプリートを超えて進化していることを反映しています。


ソース

この文書は gpt-5-mini モデルを使用して fr 版から ja 言語に翻訳されました。翻訳プロセスの詳細については https://gitlab.com/jls42/ai-powered-markdown-translator をご覧ください。