「完成してから考える」では遅い? AIの安全性を守るために何をすべきか、Googleが解説:ガバナンスフレームワーク、シフトレフトなど
Googleは開発者向けブログで、製品開発ライフサイクルを通じてAIの安全性とコンプライアンスへの取り組みを進めるための4つのポイントを解説した。
Googleは2023年12月20日(米国時間)に開発者向けブログで、製品開発ライフサイクルを通じてAI(人工知能)の安全性とコンプライアンスへの取り組みを進めるための4つのポイントを、CTO(最高技術責任者)など技術リーダー向けに解説した。
Googleは、「生成AIの急速な進歩は、多くの業界に変革の機会をもたらしている。だが、その一方で、プライバシー、悪用、バイアス(偏見、偏り)、不公平などのリスクに対する懸念を引き起こしている」との認識を示している。
そのため、AIの責任ある開発と展開が求められており、技術リーダー、特にCTOや、エンジニアリング/AIの責任者など、自社の製品やスタック全体にAI導入を主導する責任者は、AIを安全かつ倫理的に、関連するポリシー、規制、法律を順守して使用する責任があると、Googleは述べている。
「AIの安全性に関する包括的な規制はまだ始まったばかりだ。だが、こうした技術リーダーは、規制の強化を待ってから行動するわけにはいかない。先進的なAIガバナンスアプローチを採用し、安全性とコンプライアンスに関する実践を製品開発ライフサイクル全体に統合する必要がある」とGoogleは指摘し、そのためのポイントとして以下の4つを挙げて解説している。
1.強固なAIガバナンスフレームワークを確立する
AIシステムの開発、展開、運用に関する自社の原則、方針、手順を明確に定義した包括的なAIガバナンスフレームワークを策定する。このフレームワークにより、明確な役割、責任、説明責任の仕組み、リスク評価プロトコルを確立する必要がある。
新しいフレームワークの例としては、米国国立標準技術研究所(NIST)の「AI Risk Management Framework」(AIリスク管理フレームワーク)、米国大統領府科学技術政策局(OSTP)の「Blueprint for an AI Bill of Rights」(AI権利章典)、欧州連合(EU)の「AI Act」(AI法)、Googleの「Secure AI Framework」(SAIF)などがある。
AIガバナンスフレームワークを採用する際は、サードパーティーの基盤モデルに依存することの含意を考慮することが重要だ。考慮事項には、基盤モデルが使用する自社アプリケーションのデータや、基盤モデルの提供者の利用規約に基づく義務などが含まれる。
2.AIの安全原則を設計段階に組み込む
Googleの責任あるAI原則など、AIの安全原則を最初から設計プロセスに組み込む。
AIの安全原則には、開発サイクルの早い段階で潜在的なリスクや課題を特定し、軽減することが含まれる。例えば、トレーニングやモデルの推論におけるバイアスを軽減し、モデルの動作の説明可能性を確保する。AIモデルを公正でバイアスのない堅牢(けんろう)な方法で動作させるために、敵対的トレーニング(安全でない出力を探すプロンプトを使用した大規模言語モデル《LLM》のレッドチームテスト)のような手法を使用する。
3.継続的なモニタリングと監査を実施する
継続的なモニタリングと監査により、AIシステムのパフォーマンスと動作をリアルタイムで追跡する。その目的は、潜在的な安全性の問題や異常が大きな問題に発展する前に特定し、対処することにある。
モデルの精度、公平性、説明可能性などの主要指標を調べ、アプリケーションとそのモニタリングのベースラインを確立する。従来の指標にとどまらず、Googleの「Vertex AI Model Monitoring」のようなツールを使って、ユーザー行動の予期せぬ変化やAIモデルのドリフトを探す。継続的なモニタリングを確実に行うために、データロギング、異常検知、ヒューマンインザループのメカニズムを使用する。
4.透明性と説明可能性の文化を育てる
透明性と説明可能性の文化を通じて、AIの意思決定を促進する。この文化を奨励するために、明確な文書化ガイドライン、評価指標、役割を定義し、AIシステムを開発するチームメンバー全員が設計、トレーニング、展開、運用に参加するようにする。
また、AIシステムが機能する仕組みや、その限界、AIシステムの意思決定の背後にある利用可能な根拠について、部門の垣根を越えてステークホルダーに明確で分かりやすい説明を行う。この情報はユーザー、規制当局、ステークホルダーの信頼を醸成する。
Googleは、「基幹システムや重要なシステムにおけるAIの役割が高まるとともに、適切なガバナンスはAI活用の成功、そしてAIを使用するシステムや組織の成功に不可欠だ。以上の4つのポイントを押さえることは、適切なガバナンスを確保するための出発点となる」と述べている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 医療における生成AI――責任ある展開をどのようにサポートするか
医療業界では、生成AIへの関心が急速に高まり、導入も急ピッチで進んでいる。だが、規制が追い付いていないため、医療機関がガードレールを設け、生成AIが責任ある方法で使われるようにすることが重要だ。 - 2025年までにソフトウェア開発リーダーの半数以上が「生成AIの監督」を任される Gartner
Gartnerは、2025年にはソフトウェア開発リーダーの半数以上が、生成AIの監督を任されるとの予測を発表した。 - MetaやIBMなど50以上の組織が、オープンかつ安全で責任あるAIを推進する「AI Alliance」を創設
MetaやIBMなど50以上の組織が共同で、オープン、安全で責任あるAIを推進する「AI Alliance」を立ち上げた。