CDAOが優先的に取り組むべき3つのプライバシー課題Gartner Insights Pickup(368)

最高データ/アナリティクス責任者(CDAO)は、データとアナリティクス(D&A)、AIから価値を生み出す上で、多くのプライバシー課題に直面している。CDAOが革新的なデジタル環境でリーダーシップを発揮し、成功を収めるには、現代の3つのプライバシー課題への対応が重要だ。

» 2024年09月13日 05時00分 公開
[Bart Willemsen, Gartner]

この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。

ガートナーの米国本社発のオフィシャルサイト「Insights」などのグローバルコンテンツから、@IT編集部が独自の視点で“読むべき記事”をピックアップして翻訳。グローバルのITトレンドを先取りし「今、何が起きているのか、起きようとしているのか」を展望する。

 最高データ/アナリティクス責任者(CDAO)は、データとアナリティクス(D&A)、AIから価値を生み出す上で、多くのプライバシー課題に直面している。

 「2024 Gartner Board of Directors Survey」(2024年Gartner取締役調査)によると、AIと機械学習(ML)、D&A、デジタル製品、サービス、ソリューションが、2024年に取締役会レベルで議論されている主要な技術だ。

 これはCDAOにとって、プライバシーに関する課題を、持続的な投資によって価値を生み出す機会として積極的に捉え直す絶好のチャンスといえる。生体認証データや同様の機密データを使用する際のプライバシー上の課題を回避するのではなく、AIやデジタルツイン技術とともに受け入れ、D&AとAIから最適な価値を得ることを目指すことで、この捉え直しが可能になる。

 AI技術のイノベーションと利用が進み、積極的なプライバシー保護の必要性がさらに高まっている。米国で2023年10月に発令された大統領令は、プライバシー強化技術(PETs)の一層のイノベーションと利用の必要性を明確に呼びかけている。

 欧州連合(EU)などの地域では、AIに特化した法律は、既存のプライバシー法に追加されるのみとなっている。例えば、一般データ保護規則(GDPR)や他の幾つかの法律からなる、より大きな法的文脈の中で順守される。

 ただし、EUのAI法は、基本的人権への影響評価など、複雑な要件を追加しており、人々に関するデータに焦点を当てる以前に、人々を第一に考えている。世界的にも、現代の技術に対する規制では、今後数年にわたって、同様の規制が引き続き設定されると予想される。

 CDAOが革新的なデジタル環境でリーダーシップを発揮し、成功を収めるには、以下に挙げる現代の3つのプライバシー課題への対応が重要だ。

  • 生体認証情報の処理
  • AIの利用
  • デジタルツイン技術。特に、顧客のデジタルツイン(Digital Twin of a Consumer、以下DToC)の利用

プライバシーを最優先した生体認証データ処理

 サイバーフィジカルシステム(CPS)の急速な出現に伴い、生体認証データの処理に関するプライバシーの懸念が高まっている。CPSは、人間が技術や組織と、あるいは公共の場でお互いにやりとりする際に、生体認証を(広範に)利用して、デジタルと物理が融合することで存在する。

 現在、CPSは生体認証データを使用して、部屋への入室や先祖の出身地の特定、支払い、健康維持、さらにはデジタル資産(無料)の受け取りをも可能にしている。CPSは拡大を続けている。例えば、自律走行車やカメラやセンサーなどの機器を搭載したドローン、スマートビルディング、スマートシティーは、いずれもCPSだ。通常、これらは全て、膨大な(機密の)個人データの処理を伴う。これは多くの規制の対象だ。

 Gartnerは、個人データを悪用する組織は2025年までに、科される制裁金よりも、集団訴訟や集団請求による賠償金の支払いの方が3倍多くなるだろうと予測している。

AIの利用における4つのポイント

 AIの合目的的な展開を管理する上で根本的に重要なのは、次の4つの要素だ。

  • リスクを念頭に置きながらAIを使用する
  • AIの機能の説明可能性と使用の透明性を確保する
  • テストと反復を行う
  • 信頼するが、検証と保護も行う

リスクを念頭に置きながらAIを使用する

 AIが全てを解決するわけではないかもしれない。実際、当初考えられていたよりも有害な可能性もある。Gartnerのレポートによると、水を用いたデータセンターの冷却は、実質的に地球温暖化を加速させ、2027年までに、英国の水使用量全体の半分を占める可能性がある。

 そのため、AI技術の利用に当たっては、ESG(環境、社会、ガバナンス)への影響を意識し、AIが大量の電力を消費すること、データセンターの冷却に大量の水が必要なこと、現代の奴隷制といえる幾つかの事例と直接的な関係がある可能性に留意する必要がある。

 CDAOは、生成AIなど、AIの実装に対する責任を負うようになってきている。そのため、AIに特化した法律の影響だけでなく、間接的に適用される要件についても検討している。意図したAIの利用がもたらす社会的な便益を確立するとともに、開発プロセスのできるだけ早い段階から、潜在的な予期せぬ結果を想定することが重要だ。

AIの説明可能性と透明性を確保する

 組織の事業部門によって、AIの機能に対して抱く信頼の度合いはまちまちだ。CDAOは、従業員や職員が持つさまざまな感情を考慮しなければならない。

テストと反復を行う

 最終的に、従業員や職員にそれぞれの目的のために、AIモデルを使って仕事をさせる立場にあるCDAOは、できるだけ早くから関与し、本番環境で起こり得ることに責任を持たなければならない。

信頼するが検証もする

 モニタリングとガードレールがなければ、どんなAIモデルもすぐに複合的な負の効果をもたらし、制御が利かなくなり、AIによるあらゆる良好なパフォーマンスや成果を覆い隠してしまいかねない。

 ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop)は極めて重要だが、アルゴリズム機能への過度な依存は、設計段階から回避しなければならない。HITLを適用する際は、関連するフレームワークでしばしば提唱されているように、人間が機能や結果に異議を唱えたり、それらを裏付けたりするための適切な手段を確保する必要がある。

DToCの取り組みを成功させる積極的なプライバシー保護

 上に挙げた2つの課題(生体認証データなど機密の個人データの処理と、AI技術の利用)の両方が含まれるのが、3つ目の課題である顧客のデジタルツイン(DToC)モデルの運用だ。DToCモデルには、コンプライアンスとベストプラクティスの両方の観点から、固有のプライバシーリスクがある。

 プライバシー保護は、後付けであってはならない。倫理基準に基づいて進め、あらゆるDToC設計に組み込まなければならない。これはプロジェクトの失敗を防ぐために不可欠だ。一般的に、CDAOは意図したDToCの利用において、常に以下を行わなければならない。

  • 規制順守にとどまらず、倫理的な価値創造を追求する
  • DToCモデルを展開する目的を明確にし、文書化し、それに応じて制限を設ける
  • 可能な場合は、DToCモデルにおける個人データの使用を防ぐためにPETsのメリットを調査する
  • DToCモデルの文書化された目的に基づくパラメーターと顧客のシグナルを使用して、DToCライフサイクルを自動化する

出典:3 Privacy Challenges CDAOs Must Prioritize(Gartner)

※この記事は、2024年7月に執筆されたものです。

筆者 Bart Willemsen

VP Analyst


Copyright © ITmedia, Inc. All Rights Reserved.

スポンサーからのお知らせPR

注目のテーマ

Microsoft & Windows最前線2025
AI for エンジニアリング
ローコード/ノーコード セントラル by @IT - ITエンジニアがビジネスの中心で活躍する組織へ
Cloud Native Central by @IT - スケーラブルな能力を組織に
システム開発ノウハウ 【発注ナビ】PR
あなたにおすすめの記事PR

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。