AIセキュリティ戦略に欠かせない「MLSecOps」のベストプラクティスを解説:AI導入時の注意点も紹介
TechTargetは、「MLSecOps」に関する記事を公開した。MLSecOpsのベストプラクティスに従うことで、セキュリティに考慮したAI開発が可能になる。
TechTargetは2024年1月30日(米国時間)、「MLSecOps」に関する記事を公開した。
近年、組織は、基本的な機械学習モデルから「ChatGPT」のような生成AI(人工知能)に至るまで、新しいAIテクノロジーをビジネスプロセスに統合しようと、急速に動き始めている。AI導入はビジネスに多くのメリットをもたらす一方、攻撃対象領域(アタックサーフェス)が広がるという懸念もある。
攻撃者はターゲットのIT環境へ侵入する方法を常に探しており、AIを利用したツールは彼らの新たな侵入ポイントになる可能性がある。そのため、企業データを不正アクセスから守るための「AIセキュリティ戦略」が不可欠となる。そこで注目したいのが「MLSecOps」だ。
MLSecOpsは、運用における機械学習(Machine Learning:ML)の知見とセキュリティ上の懸念をまとめたフレームワークで、AI/MLモデルが組織にもたらすリスクの軽減を目的としている。具体的には、MLモデルの開発とトレーニングに使用されるデータのセキュリティ保護、それらのモデルに対する敵対的攻撃の軽減、開発されたモデルが規制コンプライアンスフレームワークに準拠していることを確認する、といったことに重きを置いている。
本稿では、組織へのAI導入において懸念されるリスクをMLSecOpsでどのように解決するかについて解説する。
AI導入のリスク
MLモデルは、反復的なタスクを自動化し、顧客サービスを向上させ、運用コストを削減し、競争上の優位性を維持することで、組織の効率を向上させることができる。一方、MLモデルを採用する場合(特にオープンソースの大規模言語モデル<LLM>を使用する場合)、開発およびデプロイフェーズを含むさまざまな点でリスクをもたらす。
重大なリスクには以下のようなものがある。
バイアス(先入観)
トレーニングに使用したデータが偏っており、偏向した結果が出力される可能性がある。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- RAG(Retrieval-Augmented Generation:検索拡張生成)とは?
用語「RAG」について説明。ChatGPTなどのチャットAIに独自の情報源を付与する仕組みのことで、具体的には言語モデルによるテキスト生成に特定の情報源(ナレッジベース)の検索を組み合わせること。これには、生成内容の正確さを向上させるメリットがある。 - 生成AIリスク探索のオープンフレー厶ワーク「PyRIT」、Microsoftがリリース
Microsoftは生成AIのリスクを探索する自動化フレームワークPyRIT(生成AIのためのPythonリスク識別ツールキット)の導入を発表した。生成AIパラダイムにおけるレッドチーム特有の課題に対処する。 - 「ONNX Runtime Web」でWebGPUによるブラウザ内機械学習の高速化が可能に
オープンソースでクロスプラットフォームの機械学習(ML)モデルアクセラレータ「ONNX Runtime」の「ONNX Runtime Web」機能において、WebGPUを用いてWebブラウザ内でのMLを高速化できるようになった。