従来セキュリティの“盲点”「AIインフラ」の脅威をどう防ぐか? Check Pointが公表した設計指針:GPUクラスタからLLM層まで
Check PointはAIインフラ向けのセキュリティ設計指針「AI Factory Security Blueprint」を発表した。プライベートAIインフラにおいてハードウェア層からアプリケーション層までを保護するレファレンスアーキテクチャとなっている。
GPUを採用したAIインフラの構築が加速する一方で、企業のセキュリティ対策はAI活用のスピードに追い付いていない。こうした課題が目立ってくる中で、Check Point Software Technologies(以下、Check Point)が2026年3月23日(米国時間)、AIインフラ向けのセキュリティ設計指針「AI Factory Security Blueprint」を公開した。プライベートAIインフラにおいて、ハードウェア層からアプリケーション層までを包括的に保護するためのレファレンスアーキテクチャとなっている。
AIインフラは想定外のセキュリティリスク?
AI Factory Security Blueprintは、NVIDIAのDPU(データ処理ユニット)「BlueField」を基盤に、AIファクトリー(AIモデルの学習や推論のためのインフラ)の全階層に「ゼロトラスト」を組み込むための設計指針を提供し、ハードウェアからアプリケーションまでを統合的に保護することが目的。
企業は知的財産の保護やデータ主権への対応、クラウドコストの抑制などを目的に、プライベートAIインフラの構築を重視し始めている。しかし、AIインフラを急速に構築することにセキュリティの整備が追い付かないケースが多いとCheck Pointは指摘する。
AI向けのコンピューティング環境は、GPUクラスタや分散トレーニングパイプライン、大規模データレイク、リアルタイム推論APIなどを組み合わせて構成される。従来のセキュリティツールが想定していない攻撃対象領域(アタックサーフェス)を生み出しているという。
脅威の範囲は多岐にわたる。
- トレーニングデータを汚染するデータポイズニング
- モデル窃取
- Kubernetes Namespace(名前空間)内のラテラルムーブメント(侵害の横展開)
- 推論APIへのプロンプトインジェクション
- オープンソース依存を悪用したサプライチェーン攻撃
4つの階層による立体的な保護戦略
AI Factory Security Blueprintは、以下4つのレイヤーでの保護策を定義している。
- 境界層
- AIファブリックへの入り口において、ゼロトラストネットワークアクセス(ZTNA)や仮想セキュリティグループのセグメンテーション、スケーラブルなポリシー適用を提供し、外部ユーザーやインターネット、企業ネットワークからの南北トラフィック(ネットワーク境界をまたぐ通信)を処理
- アプリケーションおよびLLM層
- 推論APIとLLMエンドポイントを保護。プロンプトインジェクション、データ窃取、敵対的クエリ、APIの不正利用を遮断し、従来のWebアプリケーションファイアウォール(WAF)では対応できない領域をカバーする
- AIインフラ層
- 「NVIDIA DOCA」(Datacenter-On-a-Chip Architecture)を介してBlueField DPUにファイアウォールおよび脅威防御機能を直接組み込む。CPUやGPUのリソースを消費することなく、ハードウェアアクセラレーションによるインライン型セキュリティを実現する
- 高性能なAIプロンプト防御および入出力トラフィックの検査を提供し、GPUサーバの保護、テナントのセグメンテーション、DPU上の「DOCA Argus」ランタイムセキュリティフレームワークにより脅威検知する
- ワークロードおよびコンテナ層
- サードパーティー製マイクロセグメンテーションツールと連携し、Kubernetesクラスタ内での東西トラフィックを制御する。ラテラルムーブメントを防止し、侵害されたコンテナを被害拡散前に隔離する
グローバルな規制と「セキュリティバイデザイン」への準拠
AI Factory Security Blueprintは、CISA(米国サイバーセキュリティ・インフラセキュリティ庁)の「セキュリティバイデザイン」原則に準拠している。稼働中のシステムに後からセキュリティを追加するのではなく、ファブリック、ハードウェア、オーケストレーションの各層に最初からセキュリティを組み込む考え方を採用する。
またAIガバナンスフレームワークとしては
- NIST(米国国立標準技術研究所)のAI RMF(AIリスクマネジメントフレームワーク)
- GartnerのAI TRiSM(AIのトラスト/リスク/セキュリティ管理)
に準拠する。
以下の規制対応にも活用できるとしている。
- 欧州連合(EU)のAI Act(AI規制法)およびGDPR(一般データ保護規則)
- 米国のHIPAA(医療保険の携行性と責任に関する法律)
- PCI-DSS(クレジットカード情報のセキュリティ基準)
- ISO/IEC 42001(AIマネジメントシステム国際規格)
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
APIキーは必ず狙われる 生成AI時代のAPIセキュリティの新常識をPreferred NetworksのCISOが解説
LLMの利用や外部サービス連携など、AIでは至るところでAPIが使われる。だが、APIの利用にはセキュリティリスクも伴う。そこで、サービスの開発者、利用者、管理者のそれぞれが知っておくべきAPIセキュリティの新常識を解説した、AI企業のCISOによる講演をレポートする。
推論コストを10分の1に? NVIDIAが次世代AIプラットフォーム「Rubin」発表
NVIDIAは、次世代AIコンピューティングプラットフォーム「Rubin」を発表した。前世代のBlackwellと比較して推論トークンの生成コストを最大10分の1に削減し、大規模モデルのトレーニングに必要なGPU数を4分の1に抑えるという。
NVIDIA「NemoClaw」がAIエージェント推進の転換点に Clawブームで直面する「特権リスク」
企業の関心が「対話型AI」から「AIエージェント」へと移り変わる中、ABI ResearchはNVIDIAのNemoClawを「エンタープライズにおけるAIエージェント採用を加速させるための転換点になる」との見解を示した。