ニュース
NIST、LLMのネタバレ制御など3つのシナリオでAIの社会的リスクと影響を評価するプログラム「ARIA」を発表:「AIの機能を総合的な視点から評価する手法の確立を目指す」
NISTは、AIのリスクと影響を評価するプログラム「ARIA」を発表した。NISTは、ARIAの成果を通じて、AI技術の設計、開発、リリース、使用におけるガイドライン、ツール、方法論および指標を提供するという。
米国国立標準技術研究所(NIST)は2024年5月28日(米国時間)、AI(人工知能)の能力と影響の理解を深めることを目的としたテスト、評価、妥当性確認、検証(TEVV)プログラム「Assessing Risks and Impacts of AI(以後、ARIA)」を発表した。
ARIAは、あるAI技術を展開する際にそのAI技術が有効で、信頼性が高く、安全で、セキュリティとプライバシーが確保され、公正であるかどうかを、組織や個人が判断できるように支援することを目的としている。
商務省標準技術担当次官兼NIST所長のローリー・E・ロカシオ氏は「ARIAは、AI技術の利用が拡大する中で、現実世界のニーズに応えるように設計されている。この新たな取り組みは、米国AI安全研究所を支援し、NISTの研究コミュニティーとの既に広範な関わりをさらに拡大し、現実世界におけるAIの機能性をテスト、評価するための信頼性の高い手法の確立に役立つ」と述べている。
AIをどのようにテスト、評価するのか
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 2024年のサイバーセキュリティトレンド予測、ここでも生成AIがキーワードに Gartner
Gartnerは2024年のサイバーセキュリティのトップトレンド予測を発表した。トップトレンドの推進要因として、「生成AI」「セキュリティ意識の低い従業員の行動」「サードパーティーのリスク」など6点を挙げた。 - AIセキュリティ戦略に欠かせない「MLSecOps」のベストプラクティスを解説
TechTargetは、「MLSecOps」に関する記事を公開した。MLSecOpsのベストプラクティスに従うことで、セキュリティに考慮したAI開発が可能になる。 - 米国のサイバーセキュリティ戦略、「脆弱性のあるソフトウェアを提供する企業にも法的責任を追わせるべき」と明記
米バイデン政権は「国家サイバーセキュリティ戦略」を発表した。ランサムウェア攻撃を国家安全保障上の脅威と位置付けた。さらに、ソフトウェアやサービスにおける脆弱性について、提供する企業に責任を負わせる法律の策定に取り組むとした。