「完成してから考える」では遅い? AIの安全性を守るために何をすべきか、Googleが解説ガバナンスフレームワーク、シフトレフトなど

Googleは開発者向けブログで、製品開発ライフサイクルを通じてAIの安全性とコンプライアンスへの取り組みを進めるための4つのポイントを解説した。

» 2023年12月27日 08時00分 公開
[@IT]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

 Googleは2023年12月20日(米国時間)に開発者向けブログで、製品開発ライフサイクルを通じてAI(人工知能)の安全性とコンプライアンスへの取り組みを進めるための4つのポイントを、CTO(最高技術責任者)など技術リーダー向けに解説した。

 Googleは、「生成AIの急速な進歩は、多くの業界に変革の機会をもたらしている。だが、その一方で、プライバシー、悪用、バイアス(偏見、偏り)、不公平などのリスクに対する懸念を引き起こしている」との認識を示している。

 そのため、AIの責任ある開発と展開が求められており、技術リーダー、特にCTOや、エンジニアリング/AIの責任者など、自社の製品やスタック全体にAI導入を主導する責任者は、AIを安全かつ倫理的に、関連するポリシー、規制、法律を順守して使用する責任があると、Googleは述べている。

 「AIの安全性に関する包括的な規制はまだ始まったばかりだ。だが、こうした技術リーダーは、規制の強化を待ってから行動するわけにはいかない。先進的なAIガバナンスアプローチを採用し、安全性とコンプライアンスに関する実践を製品開発ライフサイクル全体に統合する必要がある」とGoogleは指摘し、そのためのポイントとして以下の4つを挙げて解説している。

1.強固なAIガバナンスフレームワークを確立する

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。