ニュース
生成AIリスク探索のオープンフレー厶ワーク「PyRIT」、Microsoftがリリース:生成AIのセキュリティと責任あるAIのリスクを探る
Microsoftは生成AIのリスクを探索する自動化フレームワークPyRIT(生成AIのためのPythonリスク識別ツールキット)の導入を発表した。生成AIパラダイムにおけるレッドチーム特有の課題に対処する。
Microsoftは2024年2月22日(米国時間)、セキュリティ専門家と機械学習エンジニアが生成AIシステムのリスクを発見するためのオープンな自動化フレームワーク「PyRIT」(Python Risk Identification Toolkit for Generative AI)をリリースした。
PyRITを開発した背景には、MicrosoftがAIシステムのセキュリティを評価し、改善することを目的に運営する「AI Red Team」の存在がある。このチームは、セキュリティ、敵対的機械学習、責任あるAIといった分野の専門家で構成され、Microsoft全体のリソースを活用している。
Microsoftは、顧客にリリースする前に幾つかの生成AIシステムとモデルのリスクをレッドチーム(※)で積極的に評価していた。それを通じて、生成AIのレッドチームが、古典的なAIシステムや従来のソフトウェアのレッドチームと3つの点で大きく異なることを発見したという。
(※)システムなどに攻撃や侵入を試みることで、セキュリティ対策の有効性を判断したり、脆弱(ぜいじゃく)性を明らかにしたりするチームのこと
AIレッドチームにおける自動化の必要性
1.セキュリティと責任あるAIのリスクを同時に探る
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- あなたの会社に「レッドチーム」はありますか? 実践形式のセキュリティ評価サービスの需要が高まる
ITRは、国内レッドチームサービス市場の規模推移と予測を発表した。2022年度の売上金額は、対2021年度比で30.9ポイント増の28億8000万円。2022〜2027年度の年平均成長率を11.1%と見込み、「2027年度の売上金額は約49億円に上る」と予測している。 - Microsoft、任意のデータで生成AIサービスを構築できる「Azure OpenAI Service On Your Data」を提供開始
Microsoftは、「Azure OpenAI Service」で独自のデータを使用できる新機能「Azure OpenAI Service On Your Data」の一般提供を開始した。 - 「プロンプトインジェクション」「ジェイルブレイク」など5項目を診断 生成AI診断サービスをラックが提供開始
ラックは、生成AIシステムのセキュリティを強化するサービス「生成AI活用システム リスク診断」の提供を開始した。生成AIを使ったシステムに特有の脆弱性が含まれていないかどうかを評価し、改善点をレポートする。