“説明できないAI”はもうアウト AIによる意思決定の透明性を高める「DI」とは?:「AIエージェントを意思決定に生かす政府機関が8割に」 Gartnerが予測
2028年までに政府機関の約8割がAIエージェントを導入し、意思決定の自動化に生かすとGartnerは予測する。そこで課題となるのが、意思決定の透明性の確保だ。その対策の鍵になる「DI」と、実現に向けた取り組みとは。
調査会社Gartnerは2026年3月17日(米国時間)、政府機関におけるAI(人工知能)エージェント活用の予測を発表した。2028年までに少なくとも80%の政府機関が、定型的な意思決定の自動化にAIエージェントを導入し、業務効率やサービス提供の向上につなげると同社は見込む。
「政府機関のCIO(最高情報責任者)は、意思決定へのAI活用を迅速に、かつ責任を持って進めることが求められている」。Gartnerのシニアディレクターアナリストであるダニエル・ニエト氏はこう述べる。ニエト氏によると、公的機関がAIを活用できる業務の範囲は拡大している。背景にはAIエージェントの普及に加えて、画像や音声、テキストなど複数の情報を処理する「マルチモーダルAI」といった関連技術の進化がある。
意思決定の透明性をどう確保するか 「DI」が鍵に
AIが実験段階から実運用に進み、意思決定に深く関わるようになる中で、ガバナンスの在り方も見直しが必要になるとGartnerは指摘する。特に透明性や公平性が求められる政府機関では「意思決定インテリジェンス」(DI:Decision Intelligence)に基づくガバナンスへの移行が重要になるという。
DIは、AIの構成要素ではなく、意思決定の管理に焦点を当てる考え方だ。従来のAIガバナンスは、AIモデルやトレーニング用データ、学習・推論用アルゴリズムといった構成要素の管理が中心だった。これに対してDIは、意思決定の設計や実行、監視、監査の方法を管理対象にする。
XAIとHITLで「説明できないAI」と決別
こうした中、2029年までに政府機関の70%が「説明可能なAI」(XAI:Explainable AI)や「ヒューマンインザループ」(HITL:Human-In-The-Loop)を導入するとGartnerは予測する。XAIは、AIの判断根拠を人が理解できる形で示す技術だ。HITLは、AIの判断に人が関与して確認や修正をする仕組みを指す。XAIとHITLは、DIの具現化を支える要素だ。政府機関はこれらを活用することで、AIによる判断の根拠を検証・説明しやすくなる。
AIの活用で、市民が必要なサービスを自動的に受けられるようになれば、政府機関は市民との直接的なやりとりを減らせる可能性がある。一方で、こうした仕組みを支えるシステムの信頼性や公平性、透明性の重要性は高まる。政府機関が市民の信頼を確保するには、AIによる自動化を進めると同時に、DIに基づいて意思決定の透明性を確保し、説明責任を果たせるようにすることが重要だ。
政府機関におけるAI活用を阻む要因として、Gartnerは「断片化」を挙げる。同社が2025年7〜9月に、世界の政府機関の138人を対象に実施した調査では、41%が「サイロ化された戦略」、31%が「レガシーシステム」を、AIなどのIT導入の主な課題だと回答した。ニエト氏は「技術のモダナイゼーション(近代化)だけでは、これらの問題は解決できない」と指摘する。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
なぜAIによるエンジニア代替はうまくいかないのか? “効率化”のはずが、現場で起きている逆転現象
AIで開発は効率化したはずだった。ところが現場では、品質低下やベテランの疲弊といった想定外の問題が広がっている。AI時代の開発現場で何が起きているのかを読み解く。
無料で読めるAIエージェントの実践ガイド、Googleが公開 基礎から本番実装まで学べる
AIエージェントの基礎から本番実装まで学べる5つのガイドをGoogleが無償公開した。Kaggleと共同で実施した研修プログラムを基にした内容で、開発者の実務に直結する知識を習得できる。各ガイドが扱う内容とは。
AIエージェントに疑問視? Microsoftが「マルチタスク」の課題を指摘
Microsoftの研究チームは、AIエージェントがマルチタスク環境で陥る4つの主要課題を指摘し、新たなフレームワーク「CORPGEN」を提案した。現実的な勤務スケジュールを持つ「デジタル従業員」としてAIエージェントを展開し、従来手法に比べ最大3.5倍のタスク完了率を実現するという。