AIの信頼性を高めるためのオープンソースプロジェクト「CoSAI」発足 標準化フレームワークやツール提供を目指す:主要設立スポンサーは、Google、IBM、Intel、Microsoftなど
標準化団体のOASISはオープンソースプロジェクトCoSAIの立ち上げを発表した。CoSAIは、AIシステムの信頼性と安全性を高めるための指針や標準化されたフレームワーク、ツールを開発し、共有することを目的としている。
標準化団体のOASISは2024年7月18日(米国時間)、オープンソースプロジェクトCoalition for Secure AI(CoSAI)の立ち上げを発表した。
CoSAIは、セキュアバイデザインのAI(人工知能)システムを構築するために必要なガイダンスやツールを、実務者や開発者に提供することを目的としている。オープンソースの方法論、標準化されたフレームワーク、ツールを共有する共同エコシステムの促進を目指す。
CoSAIの主要設立スポンサーとして、Google、IBM、Intel、Microsoft、NVIDIA、PayPal Holdingsが参加している。その他の設立スポンサーは、Amazon.com、Anthropic、Cisco Systems、Chainguard、Cohere、GenLab Studio、OpenAI、Wizなど。
CoSAIの概要
CoSAIの概要は下記の通り。
- AIの利用とデプロイにおける信頼とセキュリティの強化に取り組む
- AIモデルの盗難、データポイズニング、プロンプトインジェクション、大規模な不正操作、推論段階での攻撃などのリスク軽減に重点を置き、AIシステムの安全な構築、統合、デプロイ、運用管理に注力する
- AIシステムの従来型リスクと固有リスクに対処する包括的なセキュリティ対策を開発することを目的とする
- プロジェクト運営委員会と技術運営委員会が主導するオープンソースコミュニティー。前者は全体的な技術アジェンダを推進・管理する。後者は学術界と産業界のAI専門家によって構成され、実際の作業を監督する
CoSAIの必要性
CoSAI発足の背景として、OASISは次のように述べている。
「AIやAIアプリケーション/サービスのセキュリティ確保の取り組みは、現在のところ断片的だ。開発者は多くの場合、一貫性がなく分断された寄せ集めのガイドラインや基準に苦労している。明確なベストプラクティスや標準化されたアプローチなしに、AI特有の、そして広く認識されているリスクを評価し軽減することは、経験豊富な組織にとっても大きな課題だ」
CoSAI運営委員会の共同議長であるGoogleのデビッド・ラビアンカ氏は「CoSAIの設立は、AIの安全な統合とデプロイに不可欠な知識と進歩を民主化する必要性に根差したものだ」と述べる。
今後の活動
CoSAIは今後まず以下の3つの作業部会を立ち上げる。また、時間の経過とともにさらに幾つかの作業部会を立ち上げる予定だ。
- AIシステムのソフトウェアサプライチェーンセキュリティ:AIアプリケーションの安全性を確保するための構成と出どころ追跡の強化
- 変化するサイバーセキュリティ環境に対するセキュリティ担当者の準備:AIと従来型システムにおける投資と統合の課題へ対処する
- AIセキュリティガバナンス:AIセキュリティのベストプラクティスとリスク評価フレームワークの開発
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
生成AI「Amazon Q Developer」で社内のライブラリやAPIに基づいた説明、提案が可能に 対応言語やセキュリティは?
AWSは開発者向け生成AIアシスタント「Amazon Q Developer」において、カスタマイズ機能のプレビュー版の提供を開始した。カスタマイズ機能を利用することで、社内のライブラリ、API、パッケージ、クラス、メソッドに基づいた説明やコード提案が受けられるという。NIST、LLMのネタバレ制御など3つのシナリオでAIの社会的リスクと影響を評価するプログラム「ARIA」を発表
NISTは、AIのリスクと影響を評価するプログラム「ARIA」を発表した。NISTは、ARIAの成果を通じて、AI技術の設計、開発、リリース、使用におけるガイドライン、ツール、方法論および指標を提供するという。公共機関での生成AIの使用に向けてIT責任者が考慮すべきこと
公共の政策の多くは生成AIの使用に関して透明性を求めている。公共機関のCIO(最高情報責任者)は、生成AIによるリスクがあることを理解しなければならない。