公共機関はAI(人工知能)技術への理解を徐々に深めており、サービス提供の改善に向けて投資を増やしている。だが、「ChatGPT」のようなモデルによる生成AIの台頭に伴う課題が生じており、新たなマインドセットが必要とされている。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
公共機関はAI(人工知能)技術への理解を徐々に深めており、市民サービスの向上、自動化と効率化の推進、サービス体制の改善に向けて投資を増やしている。だが、「ChatGPT」のようなモデルによる生成AIの台頭に伴う新たな課題が生じており、新しいマインドセットが必要となっている。
民間企業では、生成AIの利用は、リスクの高いイノベーションから得られる利益が潜在的な問題を上回り、拡大し始めている。だが公共機関に対しては、倫理的で公平な行動や説明責任、透明性、プライバシーなどに関して市民の寄せる期待が、企業に寄せる期待よりもはるかに大きい。公共機関は生成AIに大きな関心を持っているが、導入にはまだ問題が残っている。
公共機関にとって最大の問題は、生成AIは実際の認知モデルではなく、数学的アルゴリズムを使用して、プロンプトに対する有効な、あるいは効果的な応答を生成することだ。
生成AIは「幅広い知識を持ち言語明瞭だが経験が浅く、秘密保持契約を結んでいないインターン」のようなものと考えるとよい。こうしたインターンには機密情報にアクセスさせないだろうし、その仕事の成果物は、公表したり対外的に使用したりする前に、経験豊富なスタッフにレビューさせるだろう。
こうした生成AIプラットフォームの自由な利用を認めれば、情報の流出や政策検討過程の暴露、不用意な偏見、公共機関の記録や報告における著作権のあるコンテンツの使用といったリスクが生じかねない。
現時点では、一部の公共機関が実験や学習のツールとしてChatGPTの機能を調べている。これは生成AIの利用を検討している公共機関にとって、良い出発点となる。実現される価値が残存するリスクを上回り、影響が小さい方法で、技術の限界を探るのが賢明だ。
こうした課題はあるものの、生成AIアプリケーションは公共機関全体にイノベーションの扉を開く。適切な方法で使用すれば――例えば、この技術は同じ文書を異なる言語で、あるいは異なる層向けに、さまざまな形で起草する際に効果を発揮する。
生成AIを使うことで、長い記述や複雑な事例を要約し意思決定の改善に役立てたり、複雑な問い合わせに対応中の顧客サービス担当者にガイダンスを提供したりできる。また生成AIは、大量の非構造化テキストを分類、照合し、政策立案者が使用するデータの質を向上させることもできる。
Copyright © ITmedia, Inc. All Rights Reserved.