AIエージェントの活用が広がる中で、ソフトウェア開発やIT運用において新たなリスクが生まれていることがさまざまな角度から報告されています。AIエージェントが生み出すコードのリスクや未承認のエージェント利用といった現実に企業のIT部門は向き合わなければなりません。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
AI技術は人間を支援する“便利ツール”の枠を超え、自律的に判断して行動する「AIエージェント」の領域へとその進化が広がっています。一方でソフトウェア開発やIT運用の現場におけるリスク対策が、AI技術の進化のスピードに追い付いていない現状もまた浮き彫りになっています。
AIエージェントが自律的に動くことで生み出される侵入口や、承認されていないAI機能の利用、AIコーディングで混入する脆弱(ぜいじゃく)性。企業のIT部門や情報システム部門は、こうしたリスクを前提にAI技術の利用状況を把握し、開発や運用のプロセスに安全対策を組み込む必要に迫られています。本稿では各種調査などを基に、企業が直面しているリスクの現状と、求められる対策の方向性を整理します。
外部ツールとの連携や、データアクセスを通じて、AIエージェントが自ら判断して処理を実行する仕組みは、業務の効率化に寄与します。その半面、攻撃者にとっても企業のネットワークやアプリケーションへ侵入する新たな経路が開かれる可能性があります。
Check Point Software Technologiesと傘下のAIセキュリティプラットフォームのLakeraが公表したレポート「Q4 2025 Agent Security Trends Report」は、AIエージェントの構造的リスクを具体的に示しました。Lakeraの保護ツール「Lakera Guard」とゲーム形式のAI攻撃シミュレーター「Gandalf: Agent Breaker」のインタラクション(やりとり)を対象に、2025年第4四半期(10〜12月)の特定の30日間に焦点を当てて攻撃を分析したものです。
調査では「システムプロンプトの窃取」が多く確認されました。AIエージェントのシステムプロンプトには、使用ツールの仕様やワークフローのロジックなどが記述されています。攻撃者にとっては、それを入手できれば、AIエージェントの挙動や外部ツールとの連携方法を推測し、後続の攻撃を設計しやすくなります。
従来のシステムでは、人間の操作を前提とした制御が行われていましたが、AIエージェントの自律性は、意図しない入力や外部データの影響を受けて、想定外の動作をする可能性をもたらします。
「シャドーAI」はAIエージェントのリスクをより深刻なものにします。
Microsoftが行った調査では、従業員の約3割が会社から承認されていないAIエージェントを業務で使用していることが明らかになっています。急速なAI普及のスピードに、企業側の管理、ガバナンス体制が追い付いていない実態を示しています。
会社から承認されていない技術やツールを利用するという点では従来のシャドーITと同じですが、AIエージェントの場合はリスクの性質が異なります。AIエージェントはデータ処理や意思決定に関与するからです。そのためMicrosoftは、例えばアクセス制御では最小特権の原則を踏まえて付与するなど、人間と同様のポリシーに基づいて統制を図るべきだとしています。
AIの活用が急速に進んでいる分野の一つがソフトウェア開発です。Snowflakeが2026年3月に公開した調査結果は、企業が扱うコードの約48%がAIによって生成されているという実態を取り上げました。
AIコーディングツールの主な成果としては、回答者の82%がテスト・バグ検出・修正の迅速化を、80%がコード品質の向上を挙げています。調査はAIが補助ツールの段階を超え、開発ワークフロー全体に深く組み込まれた段階へと移行しつつあることを示唆していると、レポートは述べています。
AIの活用は開発スピードを大幅に向上させますが、その裏で新たな課題も浮き彫りになっています。その一つとして、脆弱なコードが増加しているとの調査結果も報告されています。
パロアルトネットワークスが2026年1月に発表した「クラウドセキュリティの現状2025」によると、99%の組織が「バイブコーディング」を利用していると回答し、ソフトウェア開発における生成AIの使用が主流となっている実態が示されています。
問題は、AIによってコードの生成速度が格段に上がった一方、レビューや修正の速度を上回っている点にあります。パロアルトネットワークスの調査でも、コードを週次でリリースする52%のチームのうち、同じペースで脆弱性を修正できるのは18%にとどまっています。
コードレビュー体制やセキュリティプロセスが整備されていなければ、速度の向上はむしろリスクの蓄積へとなりかねません。
こうしたAIエージェント利用に伴うリスクが広がる今、新たな現実に向き合う上で重要なのは、AIの利用を「止める」ことではなく、「把握し、制御する」ことです。まずは現状を適切に可視化し、把握できるようにするとともに、一元的な管理やルールの適用など、統制のための体制を整備することも重要です。
誰がどのAIエージェントを使い、どのデータにアクセスし、どのような処理を行っているのかを把握できなければ、適切な対策は講じられません。シャドーAIの問題が示す通り、見えないリスクは管理できません。
アクセス制御や利用ルールの明確化、ログ管理などを通じて、AIの利用を組織として管理する必要があります。特にAIエージェントは、自律的に外部と連携するため、従来のアプリケーション管理とは異なる視点での制御が求められます。
AIの挙動の安全性を高め、人間との責任範囲を明確にするために一定のガードレールを設けることも欠かせません。
新たな視点としては、運用やセキュリティへのAI活用も検討が進んでいます。AIを用いたコードレビューや脆弱性スキャンの自動化は、開発スピードに品質管理を追い付かせるための現実的なアプローチです。AIを使った攻撃をAIで防御する「AI対AI」の構図は、慎重に設計・運用されながら、着実に広がっていくことになります。
AIエージェントの普及は、もはや止められない流れです。開発や運用の現場において、その活用は今後さらに広がっていくでしょう。しかし、その利便性の裏側に、自律性や外部連携に起因する新たなリスクが存在することは本稿で触れた通りです。AI技術を単に導入して業務効率を上げるだけでなく、安全性や生産性を高めるために運用設計が問われる段階に入っています。
AIエージェントが「自律的に動くほど」侵入されやすい? 調査で分かった攻撃パターン
「バイブコーディングが脆弱なコード量産」 99%の組織が直面 レビューや修正リリースを上回るペースで
ソフトウェア開発の未来を形作るAIベースのインテリジェントな開発Copyright © ITmedia, Inc. All Rights Reserved.