Gartnerは2025年2月17日、「生成AIの誤用によるデータ侵害のリスク」に関する見解を発表した。同社は「現状のままでは市場が分断し、AIの拡張性や利点が制限される恐れがある」と注意を促している。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
Gartnerは2025年2月17日(米国時間)、「生成AI(人工知能)の誤用によるデータ侵害のリスク」に関する見解を発表した。同社は、2027年までに、AI関連のデータ侵害の40%以上が「国境を越えた生成AIの不適切な使用によって引き起こされる」と予測している。
生成AI技術はエンドユーザーに急速に普及しており、そのペースは、データガバナンスやセキュリティ対策の整備スピードを上回っている。これらの技術は中央集中型(特定の場所にデータを集める)という特性があるため、データローカライズ(自国内でデータを保持、管理すること)が十分にできないのではないかという懸念が高まっているという。
「明確な説明やアナウンスなしに、生成AI機能が既存のIT製品に組み込まれた場合、不十分な監視によって意図しない“国境を越えたデータ転送”が発生することがある」と、ガートナーのVPアナリストであるヨルグ・フリッチ氏は指摘する。
「企業は、生成AIツールによって、従業員が作成するコンテンツに変化が起きていることに気付き始めている。これらのツールは、承認された業務アプリケーションに対して使われることもあるが、未知の場所にホストされたAIツールやAPIに機密性の高いプロンプトが送信されると、セキュリティリスクが生じる可能性がある」
Gartnerは、AIとデータガバナンスに関する、グローバルで一貫した標準やベストプラクティスを確立させなければ「市場が分断し、企業は地域ごとに戦略を策定しなければならない事態になる」と指摘。そうなれば、企業はグローバルに事業を拡大することが難しくなり、AI製品やサービスの恩恵を十分に享受できなくなる可能性がある。
「地域ごとにAIポリシーを変えてしまうと、データフローの管理や品質の維持が複雑化する。これは業務の非効率性につながる恐れがある」と、フリッチ氏は指摘する
「企業は、機密データを保護してコンプライアンスを確保するために、高度なAIガバナンスとセキュリティへの投資を強化する必要がある。この需要の高まりによって、AIセキュリティやガバナンス、コンプライアンスサービス市場は成長するだろう。また、それに伴い、AIプロセスの透明性と制御を強化する技術ソリューションの発展も加速すると考えられる」
Gartnerは「2027年までに、AIガバナンスが世界中の主権国家におけるAI関連法規や規制の必須要件となる」と予測している。
「必要なガバナンスモデルと管理体制を統合できない組織は、競争上の不利な立場に置かれる可能性がある。特に、既存のデータガバナンスフレームワークを迅速に拡張するためのリソースが不足している企業は、その影響を受けやすいだろう」
AI関連のデータ侵害、特に国境を越えた生成AIの誤用によるリスクを軽減し、コンプライアンスを確保するために、Gartnerは企業に対し、以下の戦略的行動を推奨している。
国際規制への準拠を確保しつつ、自社のデータガバナンスフレームワークに、AIが処理するデータに関するガイドラインを追加する。定期的な「プライバシー影響評価」(PIA)にデータの系統管理(データリネージ)とデータ転送影響の評価を組み込むことで、意図しない“国境を越えたデータ転送”を監視し、コンプライアンスを維持できる。
AIの管理体制を強化し、AI導入やデータ処理に関する透明性のあるコミュニケーションを確保するために、専門のガバナンス委員会を設立する。委員会は技術的監督、リスクとコンプライアンス管理、コミュニケーションと意思決定の報告を担当する必要がある。
機密データを保護するために、高度な技術、暗号化、匿名化を活用する。例えば、特定の地理的地域における「信頼できる実行環境」(Trusted Execution Environments)を検証し、データがその地域外に出る必要がある場合は「差分プライバシー」(Differential Privacy)などの高度な匿名化技術を適用する。
AI向けの「TRiSM」(信頼/リスク/セキュリティ管理)関連製品や機能への投資計画を立て、予算を確保する。これには、AIガバナンス、データセキュリティガバナンス、プロンプトのフィルタリングと編集、非構造化データの合成生成といった機能が含まれる。Gartnerは「2026年までに『AI TRiSM』管理を適用する企業は、不正確または不正な情報の利用を50%以上削減し、それに伴う誤った意思決定を抑制できる」と予測している。
Copyright © ITmedia, Inc. All Rights Reserved.