検索
連載

AIエージェントのリスクやセキュリティ上の脅威を軽減する方法Gartner Insights Pickup(370)

企業は既に、AIエージェント機能を備えた製品の統合やカスタマイズを進めている。だが、AIエージェントはAIモデルやアプリケーションに関連するリスクに加えて、新たなリスクをもたらす。本稿では、AIエージェントがもたらすリスクやセキュリティ脅威について紹介する。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

ガートナーの米国本社発のオフィシャルサイト「Insights」などのグローバルコンテンツから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。

 AI(人工知能)エージェントは自律的に、または半自律的に、あるいはマルチエージェントシステム内で動作し、デジタル環境と物理環境の両方でAIを用いてさまざまなユースケースを認識し、判断し、行動して目標を達成する。

 企業は既に、AIエージェント機能を備えた製品の統合やカスタマイズを進めている。例えば「Microsoft Copilot Studio」「Azure AI Studio」「AWS Bedrock」「Google NotebookLM」といった製品だ。ベンダーが生成AI機能を向上させ、自動化を強化しようとしている既存製品もたくさんある。

 だが、AIエージェントは、AIモデルやアプリケーションに関連するリスクに加えて、新たなリスクをもたらす。一般的に、従来のAIモデルやアプリケーションは、入力、モデルの処理と出力、オーケストレーション層におけるソフトウェアの脆弱(ぜいじゃく)性、ホスティング環境などに脅威が限られる。これに対し、AIエージェントでは、脅威の範囲が広がる。AIエージェントが開始するイベントとインタラクション(相互作用)の連鎖も、その中に加わる。これらは本質的に、人間やシステム運用者には見えず、管理できない。

 AIエージェントがもたらすリスクやセキュリティ脅威には、以下のようなものがある。

Copyright © ITmedia, Inc. All Rights Reserved.

[an error occurred while processing this directive]
ページトップに戻る