検索
連載

公共機関での生成AIの使用に向けてIT責任者が考慮すべきことGartner Insights Pickup(359)

公共の政策の多くは生成AIの使用に関して透明性を求めている。公共機関のCIO(最高情報責任者)は、生成AIによるリスクがあることを理解しなければならない。

PC用表示 関連情報
Share
Tweet
LINE
Hatena

ガートナーの米国本社発のオフィシャルサイト「Insights」などのグローバルコンテンツから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。

 「GPT-4」や「Gemini」のような大規模言語モデル(LLM)を使用する生成AIアプリケーション(AIチャットbot「ChatGPT」など)は、その技術、機会、リスクを理解したいと考える公共機関幹部の間で、普通に話題に上るようになっている。

 生成AIアプリケーションは、公共機関の内部向けおよび市民向けの幅広いユースケースで、価値を生み出すのに利用できる。だが、生成AIアプリケーションを通じて価値を提供するためには、それらが地域社会の人々と公共機関職員の信頼を獲得し、維持されることだ。そのためには、強力なガバナンスとリスク管理を実行するとともに、この技術に内在する限界を包括的に理解し、管理する必要がある。

公共サービスの提供と運営を大きく改善できる可能性

 適切にトレーニングされた生成AIシステムを他の自動化ツールとともに導入すれば、公共サービスの提供と運営を大幅に改善できる可能性がある。生成AIが役立つ分野には以下のようなものがある。

  • テキスト生成:若者や社会的に取り残された人々、共通語以外の言語を話す人々など異なる対象者に向けてさまざまなタイプのコミュニケーションを構成する能力は、公共サービスにおけるパーソナライゼーションを向上させる機会をもたらす
  • テキスト要約:長い、あるいは複雑な関連事例を要約し、ケースマネジャーの意思決定の改善を支援する。同様に、複雑な、あるいは難解な文書を要約し、一般市民や政策立案者の生産性向上を手助けする
  • テキスト分類:LLMは、大量の非構造化テキストの分類と照合を可能にし、意思決定インテリジェンスや政策立案を支援するために使われるデータの質を向上させる
  • 感情抽出:LLMによるテキスト分類は、市民のエンゲージメントやコミュニケーションの感情分析にも利用できる

現在の限界とリスク

Copyright © ITmedia, Inc. All Rights Reserved.

[an error occurred while processing this directive]
ページトップに戻る