公共の政策の多くは生成AIの使用に関して透明性を求めている。公共機関のCIO(最高情報責任者)は、生成AIによるリスクがあることを理解しなければならない。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
「GPT-4」や「Gemini」のような大規模言語モデル(LLM)を使用する生成AIアプリケーション(AIチャットbot「ChatGPT」など)は、その技術、機会、リスクを理解したいと考える公共機関幹部の間で、普通に話題に上るようになっている。
生成AIアプリケーションは、公共機関の内部向けおよび市民向けの幅広いユースケースで、価値を生み出すのに利用できる。だが、生成AIアプリケーションを通じて価値を提供するためには、それらが地域社会の人々と公共機関職員の信頼を獲得し、維持されることだ。そのためには、強力なガバナンスとリスク管理を実行するとともに、この技術に内在する限界を包括的に理解し、管理する必要がある。
適切にトレーニングされた生成AIシステムを他の自動化ツールとともに導入すれば、公共サービスの提供と運営を大幅に改善できる可能性がある。生成AIが役立つ分野には以下のようなものがある。
公共の政策の多くは、生成AIの使用に関して透明性を求めているため、公共機関のCIO(最高情報責任者)は、生成AIには、主に以下の5つの要因によるリスクがあることを理解しなければならない。
基本的に、生成AIは大量のデータを使用し、統計に基づいてプロンプトに対して有効な、または効果的な可能性が高い応答のモデルを作成する。公共機関では、こうしたモデルは幅広い公共データを必要とし、その多くは機密データの可能性がある。そのため、機密データの管理を維持し、不特定多数からの不適切なアクセスだけでなく、内部からの不適切なアクセスも防止することが重要だ。機密データの管理を維持するには、より制約の多いモデルやアーキテクチャが必要になる。
CIOは、機密情報の流出リスクを最小限に抑えるポリシーを推進すべきだ。このポリシーでは、影響の少ない実験を除いて、オープン環境の使用を制限する一方で、技術の能力を慎重に調べ、残余リスクよりも大きな価値を提供するユースケースを特定できるようにしなければならない。CIOは、組織全体にわたってセキュリティおよびコンプライアンス対策が講じられていて、データが顧客のインフラに保存されるサービスを、そうでないサービスよりも優先する必要がある。
システムが成熟し、常に正確な結果が得られるようになるまでは、使用ガイドラインによって人間が出力をレビューし、不正確な点や誤った情報、バイアスの発見に努めるよう義務付けることが重要だ。さらに、行政に対するフラッディングやディープフェイク攻撃など、LLMや生成機能を悪用した悪意ある行動が公共プロセスにもたらすリスクを軽減する方法を文書化し、その実行計画を作成する必要がある。
出典:The Potential Impact of Generative AI on Government CIOs(Gartner)
※この記事は、2024年5月に執筆されたものです。
Copyright © ITmedia, Inc. All Rights Reserved.