検索
ニュース

NIST、LLMのネタバレ制御など3つのシナリオでAIの社会的リスクと影響を評価するプログラム「ARIA」を発表「AIの機能を総合的な視点から評価する手法の確立を目指す」

NISTは、AIのリスクと影響を評価するプログラム「ARIA」を発表した。NISTは、ARIAの成果を通じて、AI技術の設計、開発、リリース、使用におけるガイドライン、ツール、方法論および指標を提供するという。

Share
Tweet
LINE
Hatena

 米国国立標準技術研究所(NIST)は2024年5月28日(米国時間)、AI(人工知能)の能力と影響の理解を深めることを目的としたテスト、評価、妥当性確認、検証(TEVV)プログラム「Assessing Risks and Impacts of AI(以後、ARIA)」を発表した。

 ARIAは、あるAI技術を展開する際にそのAI技術が有効で、信頼性が高く、安全で、セキュリティとプライバシーが確保され、公正であるかどうかを、組織や個人が判断できるように支援することを目的としている。

 商務省標準技術担当次官兼NIST所長のローリー・E・ロカシオ氏は「ARIAは、AI技術の利用が拡大する中で、現実世界のニーズに応えるように設計されている。この新たな取り組みは、米国AI安全研究所を支援し、NISTの研究コミュニティーとの既に広範な関わりをさらに拡大し、現実世界におけるAIの機能性をテスト、評価するための信頼性の高い手法の確立に役立つ」と述べている。

AIをどのようにテスト、評価するのか

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る