TechTargetは、「MLSecOps」に関する記事を公開した。MLSecOpsのベストプラクティスに従うことで、セキュリティに考慮したAI開発が可能になる。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
TechTargetは2024年1月30日(米国時間)、「MLSecOps」に関する記事を公開した。
近年、組織は、基本的な機械学習モデルから「ChatGPT」のような生成AI(人工知能)に至るまで、新しいAIテクノロジーをビジネスプロセスに統合しようと、急速に動き始めている。AI導入はビジネスに多くのメリットをもたらす一方、攻撃対象領域(アタックサーフェス)が広がるという懸念もある。
攻撃者はターゲットのIT環境へ侵入する方法を常に探しており、AIを利用したツールは彼らの新たな侵入ポイントになる可能性がある。そのため、企業データを不正アクセスから守るための「AIセキュリティ戦略」が不可欠となる。そこで注目したいのが「MLSecOps」だ。
MLSecOpsは、運用における機械学習(Machine Learning:ML)の知見とセキュリティ上の懸念をまとめたフレームワークで、AI/MLモデルが組織にもたらすリスクの軽減を目的としている。具体的には、MLモデルの開発とトレーニングに使用されるデータのセキュリティ保護、それらのモデルに対する敵対的攻撃の軽減、開発されたモデルが規制コンプライアンスフレームワークに準拠していることを確認する、といったことに重きを置いている。
本稿では、組織へのAI導入において懸念されるリスクをMLSecOpsでどのように解決するかについて解説する。
MLモデルは、反復的なタスクを自動化し、顧客サービスを向上させ、運用コストを削減し、競争上の優位性を維持することで、組織の効率を向上させることができる。一方、MLモデルを採用する場合(特にオープンソースの大規模言語モデル<LLM>を使用する場合)、開発およびデプロイフェーズを含むさまざまな点でリスクをもたらす。
重大なリスクには以下のようなものがある。
トレーニングに使用したデータが偏っており、偏向した結果が出力される可能性がある。
Copyright © ITmedia, Inc. All Rights Reserved.