2026年5月第2週は、AIが自らソフトウェアの未知の脆弱性を発見し、業界トップ企業が合従連衡を加速させ、推論インフラの効率化で「より少ないGPUでより多くを動かす」競争が本格化するという、フロンティアモデルの能力が既存の前提を次々と覆す出来事が相次いだ。安全性・市場構造・インフラ効率・学習コストという四つの軸すべてで同時に変化が起きたことは、AIがいよいよ産業インフラの中枢に組み込まれていく段階に入ったことを示唆している。
Claude MythosがAIセキュリティの前提を塗り替えた
Anthropicは2026年4月7日、セキュリティ研究特化モデルClaude Mythos Previewを公開し、AI業界に衝撃を与えた。同モデルはあらゆる主要OS・ブラウザを対象に数千件のゼロデイ脆弱性(開発者が把握していない未公開の欠陥)を自律的に発見し、初回試行での再現・実動エクスプロイト生成率が83%超に達したことがThe Hacker Newsの報道で明らかになった。
Anthropicはこれに合わせてProject Glasswingを立ち上げ、Amazon Web Services、Apple、Google、Microsoft、NVIDIAら大手企業や政府系組織と協力しながら、発見された脆弱性の修正を進めている。悪用リスクを考慮し、同モデルは一般公開されていない。
TechTargetはこれを「脅威の民主化ではなく、攻撃の高速化・高精度化」と評し、防御側の前提を根底から見直す必要があると警告している。AIが「知っている脆弱性を悪用する」段階から「知らない脆弱性を自ら探して悪用する」段階へと移行したことで、パッチ管理や侵入検知の時間軸が根本的に圧縮される。
実務上の示唆
- 脆弱性スキャンのサイクルを週次から日次・時間単位へ短縮することが現実的な要件になりつつある
- パッチ管理プロセスの自動化投資の優先度を引き上げ、ゼロデイへの対応速度を組織として高める必要がある
- セキュリティベンダーとの契約評価時に「AI支援検知・修正」の有無が主要な選定軸となる
- 内部セキュリティチームもAIツールを積極活用し、攻撃者との非対称ギャップを埋めることが急務
GPT-5.5がデフォルトへ移行、CohereとAleph Alphaが統合
5月5日、OpenAIはGPT-5.5 InstantをChatGPT全ティアの新デフォルトモデルとして展開した。医療・法務・金融などリスクの高いプロンプトにおける幻覚(ハルシネーション)件数を52.5%削減し、平均レスポンス長も約30%短縮したことが特徴だ。APIユーザーにとってはトークンコスト削減に直結する変更でもある。また5月7日には、セキュリティ研究向けに調整したGPT-5.5-Cyberを限定プレビューとしてTechCrunchが報じた。
一方、企業向けAIプロバイダーのCohereは4月25日、ドイツのAleph Alphaとの統合を発表した。合算評価額は200億ドルに達し、2026年最大の横断的AI企業統合となった。TechCrunchによると、CohereのエンタープライズAIインフラとAleph Alphaの欧州データ主権・コンプライアンス体制を組み合わせることで、EU AI Act対応を求める欧州市場での競争力を高める狙いがある。出資者にはSchwarzグループ(Lidl・Kauflandの親会社)が6億ドルを投じており、ソブリンAI(国家・地域固有のAI基盤)という概念がビジネスモデルとして成立し始めていることを示す事例でもある。
実務上の示唆
- GPT-5.5への切り替えは段階的ロールアウトのため、APIバージョン固定の設定と出力品質の再評価が必要
- Cohere-Aleph Alpha統合はEUデータ主権規制への対応をサービス選定の主軸にする動きを加速させる
- 企業のAI調達戦略において「データがどの国のインフラで処理されるか」は必須チェック項目へと昇格しつつある
Cloudflareが推論インフラの設計思想を刷新
Cloudflareは独自の推論エンジンInfireを開発・公開した。Rustで実装されたInfireは、LLM処理を「入力読み込みフェーズ(プリフィル)」と「出力生成フェーズ(デコード)」に分離し、それぞれ最適化されたハードウェアで実行する「disaggregated prefill/decode」アーキテクチャを採用している。プリフィルはコンピュート律速、デコードはメモリ律速という異なる性質を持つ二段階を分離することで、従来よりも少ないGPU数で多くのリクエストを処理できる。Pipeline並列・テンソル並列・エキスパート並列の各モードに対応し、Llama 4 ScoutをH200 GPU 2枚で動作させることに成功、起動時間も20秒以下を実現した。
さらに、モデル重みを最大22%圧縮しつつ精度を維持する独自圧縮技術Unweightも同時公開した。InfoQはこれを「LLMをネットワークエッジに実装する上での設計哲学の転換点」と評している。クラウド集中型ではなくエッジ分散型での大規模LLM推論という方向性が、コスト・レイテンシの両面で現実的な選択肢となりつつある。
実務上の示唆
- ローカル・エッジ推論を検討する際、disaggregated prefillの考え方をアーキテクチャ選定の基準に含めることを推奨
- モデル圧縮(量子化・重み圧縮)の評価はインフラコスト削減に直結するため優先的に着手したい
- Cloudflare Workers AIを使ったエッジ推論実装は、コストとレイテンシの両面で再評価する価値がある
MetaとNYUがRL学習の「オンポリシー神話」を覆す
Meta FAIRとNYUクーラント研究所の共同研究チームは、LLMの後処理(Post-Training)における強化学習に「経験リプレイ(Experience Replay)」を導入することで計算コストを最大40%削減できることを示した論文をarXivに公開した。
従来、LLMのRLトレーニングには「オンポリシー(最新モデルで生成した新鮮なデータのみを使用する)」が必須とされてきた。同研究はこの前提を理論と実験の両面から覆し、適切なリプレイバッファ設計によって過去データを再利用しながら同等以上の性能を達成できることを証明した。バッファ設計の最適化を「データの鮮度によるバリアンス」「サンプル多様性」「生成コスト」の三者トレードオフとして定式化し、推論コストが高まるほどリプレイ戦略が有利になるという理論的な境界値も導出している。Qwen2.5-7BをMATHベンチマークで評価した実験では、同精度で推論コンピュートを約40%節約することに成功している。
実務上の示唆
- 自社でLLMのファインチューニングやRLHFを実施している組織は、リプレイバッファ導入で計算資源を大幅に節約できる可能性がある
- 「オンポリシーでなければならない」という従来の制約を見直し、より効率的なトレーニングパイプラインの設計を検討する価値がある
- 7B程度の小規模モデルでも適切なRL設計次第で高い精度が実現できる実例として、スモールモデル活用戦略の見直しにも参照できる
まとめ
Claude MythosによるAIセキュリティの再定義、GPT-5.5の全面展開とCohere-Aleph Alphaの業界再編、Cloudflareの推論インフラ革新、そしてRLトレーニングの効率化研究——2026年5月第2週は、AIの「使われ方」と「作られ方」の両面でパラダイムシフトが重なった週だった。特にClaude Mythosが示した「AIが自律的に脆弱性を発見する」能力の実証は、セキュリティの前提を根底から変えるインパクトを持つ。次の焦点は、これらの技術的飛躍が企業・社会のガバナンスにどう組み込まれ、誰がそのルールを設計するかに移りつつある。