ニュース
「完成してから考える」では遅い? AIの安全性を守るために何をすべきか、Googleが解説:ガバナンスフレームワーク、シフトレフトなど
Googleは開発者向けブログで、製品開発ライフサイクルを通じてAIの安全性とコンプライアンスへの取り組みを進めるための4つのポイントを解説した。
Googleは2023年12月20日(米国時間)に開発者向けブログで、製品開発ライフサイクルを通じてAI(人工知能)の安全性とコンプライアンスへの取り組みを進めるための4つのポイントを、CTO(最高技術責任者)など技術リーダー向けに解説した。
Googleは、「生成AIの急速な進歩は、多くの業界に変革の機会をもたらしている。だが、その一方で、プライバシー、悪用、バイアス(偏見、偏り)、不公平などのリスクに対する懸念を引き起こしている」との認識を示している。
そのため、AIの責任ある開発と展開が求められており、技術リーダー、特にCTOや、エンジニアリング/AIの責任者など、自社の製品やスタック全体にAI導入を主導する責任者は、AIを安全かつ倫理的に、関連するポリシー、規制、法律を順守して使用する責任があると、Googleは述べている。
「AIの安全性に関する包括的な規制はまだ始まったばかりだ。だが、こうした技術リーダーは、規制の強化を待ってから行動するわけにはいかない。先進的なAIガバナンスアプローチを採用し、安全性とコンプライアンスに関する実践を製品開発ライフサイクル全体に統合する必要がある」とGoogleは指摘し、そのためのポイントとして以下の4つを挙げて解説している。
1.強固なAIガバナンスフレームワークを確立する
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 医療における生成AI――責任ある展開をどのようにサポートするか
医療業界では、生成AIへの関心が急速に高まり、導入も急ピッチで進んでいる。だが、規制が追い付いていないため、医療機関がガードレールを設け、生成AIが責任ある方法で使われるようにすることが重要だ。 - 2025年までにソフトウェア開発リーダーの半数以上が「生成AIの監督」を任される Gartner
Gartnerは、2025年にはソフトウェア開発リーダーの半数以上が、生成AIの監督を任されるとの予測を発表した。 - MetaやIBMなど50以上の組織が、オープンかつ安全で責任あるAIを推進する「AI Alliance」を創設
MetaやIBMなど50以上の組織が共同で、オープン、安全で責任あるAIを推進する「AI Alliance」を立ち上げた。