検索
ニュース

“説明できないAI”はもうアウト AIによる意思決定の透明性を高める「DI」とは?「AIエージェントを意思決定に生かす政府機関が8割に」 Gartnerが予測

2028年までに政府機関の約8割がAIエージェントを導入し、意思決定の自動化に生かすとGartnerは予測する。そこで課題となるのが、意思決定の透明性の確保だ。その対策の鍵になる「DI」と、実現に向けた取り組みとは。

Share
Tweet
LINE
Hatena

 調査会社Gartnerは2026年3月17日(米国時間)、政府機関におけるAI(人工知能)エージェント活用の予測を発表した。2028年までに少なくとも80%の政府機関が、定型的な意思決定の自動化にAIエージェントを導入し、業務効率やサービス提供の向上につなげると同社は見込む。

 「政府機関のCIO(最高情報責任者)は、意思決定へのAI活用を迅速に、かつ責任を持って進めることが求められている」。Gartnerのシニアディレクターアナリストであるダニエル・ニエト氏はこう述べる。ニエト氏によると、公的機関がAIを活用できる業務の範囲は拡大している。背景にはAIエージェントの普及に加えて、画像や音声、テキストなど複数の情報を処理する「マルチモーダルAI」といった関連技術の進化がある。

意思決定の透明性をどう確保するか 「DI」が鍵に

 AIが実験段階から実運用に進み、意思決定に深く関わるようになる中で、ガバナンスの在り方も見直しが必要になるとGartnerは指摘する。特に透明性や公平性が求められる政府機関では「意思決定インテリジェンス」(DI:Decision Intelligence)に基づくガバナンスへの移行が重要になるという。

 DIは、AIの構成要素ではなく、意思決定の管理に焦点を当てる考え方だ。従来のAIガバナンスは、AIモデルやトレーニング用データ、学習・推論用アルゴリズムといった構成要素の管理が中心だった。これに対してDIは、意思決定の設計や実行、監視、監査の方法を管理対象にする。

XAIとHITLで「説明できないAI」と決別

 こうした中、2029年までに政府機関の70%が「説明可能なAI」(XAI:Explainable AI)や「ヒューマンインザループ」(HITL:Human-In-The-Loop)を導入するとGartnerは予測する。XAIは、AIの判断根拠を人が理解できる形で示す技術だ。HITLは、AIの判断に人が関与して確認や修正をする仕組みを指す。XAIとHITLは、DIの具現化を支える要素だ。政府機関はこれらを活用することで、AIによる判断の根拠を検証・説明しやすくなる。

 AIの活用で、市民が必要なサービスを自動的に受けられるようになれば、政府機関は市民との直接的なやりとりを減らせる可能性がある。一方で、こうした仕組みを支えるシステムの信頼性や公平性、透明性の重要性は高まる。政府機関が市民の信頼を確保するには、AIによる自動化を進めると同時に、DIに基づいて意思決定の透明性を確保し、説明責任を果たせるようにすることが重要だ。

 政府機関におけるAI活用を阻む要因として、Gartnerは「断片化」を挙げる。同社が2025年7〜9月に、世界の政府機関の138人を対象に実施した調査では、41%が「サイロ化された戦略」、31%が「レガシーシステム」を、AIなどのIT導入の主な課題だと回答した。ニエト氏は「技術のモダナイゼーション(近代化)だけでは、これらの問題は解決できない」と指摘する。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る