【AIニュース】推論コストの激変とインフラ成熟——エージェント時代の“地盤”が固まる


モデルの性能差が縮まるにつれ、競争の重心は「どれだけ賢いか」から「どこで、いくらで、どう動かすか」へ移っています。今週は、DeepSeek V4がオープンソースで性能と価格の常識を塗り替え、CloudflareがエージェントのためのAIインフラを本格整備し、さらにAIが数学研究に“共同研究者”として参加する事例が出てきた週でした。個別モデルの優劣より、インフラと経済性の設計がプロダクトの持続性を左右し始めています。

DeepSeek V4:オープンソースが“20倍のコスト差”を現実にした

DeepSeek V4は2026年4月24日にリリースされ、MITライセンスの2バリアント(V4-Pro・V4-Flash)として公開されました(DeepSeek API Docs)。100万トークンのコンテキストウィンドウを持ち、V4-ProはSWE-benchコーディングベンチマークでClaude Opus 4.6とわずか0.2ポイント差の性能です(DEV Community)。

注目すべきはコストです。V4-Proは100万トークンあたり$3.48、Claude Opus 4.6は$75——約21倍の価格差がありながら、コーディングタスクではほぼ同等の性能を発揮します(Medium)。エージェント開発の現場では、すでに「トラフィックの70%をDeepSeek V4-Flash、25%をClaude Sonnet 4.6、5%をOpus 4.7」という分割運用が報告されています(BuildFastWithAI)。

実務上の示唆:コストは「モデル選定」ではなく「ルーティング設計」で決まる

  • 単一のプレミアムモデルをすべてのリクエストに使う時代は終わりつつあります。タスクの難易度・リスク・レイテンシ要件に応じてモデルをルーティングする設計が、コストと品質のトレードオフを最適化します。
  • オープンウェイトモデルの採用では「誰がホストするか」「SLOをどう担保するか」が新たな設計項目になります。MITライセンスはコードの自由度を与えますが、インフラコスト・セキュリティ・バージョン管理は自社で抱える必要があります。
  • コーディング以外のタスク(長文分析、推論、多言語対応)では性能差が広がる場合があります。ベンチマークスコアではなく、自社のタスク分布での評価が、ルーティング戦略の基盤になります。

CloudflareがAgents Weekでエージェント専用インフラを整備

Cloudflareは「Agents Week 2026」でエージェント運用を前提としたインフラ群を一斉公開しました(Cloudflare Blog)。中核は独自の推論エンジンInfireで、Rustで実装されており、複数GPUをまたいでLLMを効率的に実行します(Cloudflare Blog)。

InfireはプリフィルとデコードをGPUで分離する「分離プリフィル(disaggregated prefill)」を採用し、各ステージを独立してスケールできる設計です(InfoQ)。この最適化により、Llama 4 ScoutをH200 GPU 2枚で、Kimi K2.5をH100 GPU 8枚で動作させながら、KVキャッシュのためのメモリを確保できています(InfoQ)。330都市のデータセンター網を活かし、ユーザーと推論エンドポイントの双方に近い位置でAI Gatewayを機能させる設計です(Cloudflare Blog)。

実務上の示唆:エッジ推論は「レイテンシ」より「状態管理」が先の課題

  • エージェントのユースケースでは、推論の低レイテンシと同等かそれ以上に、ツール呼び出し結果や会話状態の管理が設計の要になります。インフラを選ぶ際は、「速い」だけでなく「状態をどこに、どう持つか」の仕様を確認するべきです。
  • 分離プリフィル設計はスループット効率を高める一方、バースト時の挙動やコールドスタートのレイテンシに特性が出やすい構造です。SLO設計では、平均レイテンシだけでなくP99・コールドスタート時間を要件に含めることが重要です。
  • CloudflareのようなグローバルCDN事業者がAI推論を取り込む流れは、「モデルは外、インフラは既存CDNで」という調達モデルを現実的にします。将来の乗り換えコストと、ベンダーロックインのリスクを今の時点で整理しておく価値があります。

AIが数学の“共同研究者”に:AI Co-Mathematician

arXivに投稿された「AI Co-Mathematician」(arXiv:2605.06651)は、フロンティアモデルを補完する位置付けで、ステートフルなアーキテクチャを持つエージェント型AIを数学研究に応用した取り組みです。AlphaProofやAletheiaのような自律推論器を動的に呼び出し、長時間かかる証明探索や仮説生成を支援します。

単一の問題を解く「ツール」ではなく、研究者とともに仮説→検証→修正のサイクルを回す「共同研究者」として設計されている点が、従来の数学AIとの違いです。

実務上の示唆:専門領域エージェントは「正確さ」より「検証可能性」が鍵

  • 数学のような検証が明確な領域でエージェントが力を発揮できるのは、出力の正否を人間が(あるいはシステムが)確認できるからです。あいまいな領域にエージェントを展開する際は、何をもって成功とするかを先に定義することが、エラーの見逃しを防ぎます。
  • 長時間タスク(証明探索、文献調査、シミュレーション)をエージェントに委ねるには、途中状態の保存・再開と、部分的な失敗からの回復設計が不可欠です。「最後まで動いたか」だけを評価する設計では、長時間タスクの品質管理ができません。

まとめ:地盤の整備が、次のエージェント競争を決める

DeepSeek V4のコスト破壊(DeepSeek)、CloudflareのエッジAIインフラ成熟(Cloudflare)、専門領域への浸透(arXiv:2605.06651)——これらは、エージェントの「走る地盤」が急速に整備されていることを示しています。モデルの賢さが前提になりつつある今、インフラコスト・ルーティング設計・状態管理・検証可能性の整備が、プロダクトの持続的な競争力を決める局面に入っています。

関連記事