最高データ/アナリティクス責任者(CDAO)は、データとアナリティクス(D&A)、AIから価値を生み出す上で、多くのプライバシー課題に直面している。CDAOが革新的なデジタル環境でリーダーシップを発揮し、成功を収めるには、現代の3つのプライバシー課題への対応が重要だ。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
最高データ/アナリティクス責任者(CDAO)は、データとアナリティクス(D&A)、AIから価値を生み出す上で、多くのプライバシー課題に直面している。
「2024 Gartner Board of Directors Survey」(2024年Gartner取締役調査)によると、AIと機械学習(ML)、D&A、デジタル製品、サービス、ソリューションが、2024年に取締役会レベルで議論されている主要な技術だ。
これはCDAOにとって、プライバシーに関する課題を、持続的な投資によって価値を生み出す機会として積極的に捉え直す絶好のチャンスといえる。生体認証データや同様の機密データを使用する際のプライバシー上の課題を回避するのではなく、AIやデジタルツイン技術とともに受け入れ、D&AとAIから最適な価値を得ることを目指すことで、この捉え直しが可能になる。
AI技術のイノベーションと利用が進み、積極的なプライバシー保護の必要性がさらに高まっている。米国で2023年10月に発令された大統領令は、プライバシー強化技術(PETs)の一層のイノベーションと利用の必要性を明確に呼びかけている。
欧州連合(EU)などの地域では、AIに特化した法律は、既存のプライバシー法に追加されるのみとなっている。例えば、一般データ保護規則(GDPR)や他の幾つかの法律からなる、より大きな法的文脈の中で順守される。
ただし、EUのAI法は、基本的人権への影響評価など、複雑な要件を追加しており、人々に関するデータに焦点を当てる以前に、人々を第一に考えている。世界的にも、現代の技術に対する規制では、今後数年にわたって、同様の規制が引き続き設定されると予想される。
CDAOが革新的なデジタル環境でリーダーシップを発揮し、成功を収めるには、以下に挙げる現代の3つのプライバシー課題への対応が重要だ。
サイバーフィジカルシステム(CPS)の急速な出現に伴い、生体認証データの処理に関するプライバシーの懸念が高まっている。CPSは、人間が技術や組織と、あるいは公共の場でお互いにやりとりする際に、生体認証を(広範に)利用して、デジタルと物理が融合することで存在する。
現在、CPSは生体認証データを使用して、部屋への入室や先祖の出身地の特定、支払い、健康維持、さらにはデジタル資産(無料)の受け取りをも可能にしている。CPSは拡大を続けている。例えば、自律走行車やカメラやセンサーなどの機器を搭載したドローン、スマートビルディング、スマートシティーは、いずれもCPSだ。通常、これらは全て、膨大な(機密の)個人データの処理を伴う。これは多くの規制の対象だ。
Gartnerは、個人データを悪用する組織は2025年までに、科される制裁金よりも、集団訴訟や集団請求による賠償金の支払いの方が3倍多くなるだろうと予測している。
AIの合目的的な展開を管理する上で根本的に重要なのは、次の4つの要素だ。
AIが全てを解決するわけではないかもしれない。実際、当初考えられていたよりも有害な可能性もある。Gartnerのレポートによると、水を用いたデータセンターの冷却は、実質的に地球温暖化を加速させ、2027年までに、英国の水使用量全体の半分を占める可能性がある。
そのため、AI技術の利用に当たっては、ESG(環境、社会、ガバナンス)への影響を意識し、AIが大量の電力を消費すること、データセンターの冷却に大量の水が必要なこと、現代の奴隷制といえる幾つかの事例と直接的な関係がある可能性に留意する必要がある。
CDAOは、生成AIなど、AIの実装に対する責任を負うようになってきている。そのため、AIに特化した法律の影響だけでなく、間接的に適用される要件についても検討している。意図したAIの利用がもたらす社会的な便益を確立するとともに、開発プロセスのできるだけ早い段階から、潜在的な予期せぬ結果を想定することが重要だ。
組織の事業部門によって、AIの機能に対して抱く信頼の度合いはまちまちだ。CDAOは、従業員や職員が持つさまざまな感情を考慮しなければならない。
最終的に、従業員や職員にそれぞれの目的のために、AIモデルを使って仕事をさせる立場にあるCDAOは、できるだけ早くから関与し、本番環境で起こり得ることに責任を持たなければならない。
モニタリングとガードレールがなければ、どんなAIモデルもすぐに複合的な負の効果をもたらし、制御が利かなくなり、AIによるあらゆる良好なパフォーマンスや成果を覆い隠してしまいかねない。
ヒューマン・イン・ザ・ループ(HITL:Human-in-the-Loop)は極めて重要だが、アルゴリズム機能への過度な依存は、設計段階から回避しなければならない。HITLを適用する際は、関連するフレームワークでしばしば提唱されているように、人間が機能や結果に異議を唱えたり、それらを裏付けたりするための適切な手段を確保する必要がある。
上に挙げた2つの課題(生体認証データなど機密の個人データの処理と、AI技術の利用)の両方が含まれるのが、3つ目の課題である顧客のデジタルツイン(DToC)モデルの運用だ。DToCモデルには、コンプライアンスとベストプラクティスの両方の観点から、固有のプライバシーリスクがある。
プライバシー保護は、後付けであってはならない。倫理基準に基づいて進め、あらゆるDToC設計に組み込まなければならない。これはプロジェクトの失敗を防ぐために不可欠だ。一般的に、CDAOは意図したDToCの利用において、常に以下を行わなければならない。
出典:3 Privacy Challenges CDAOs Must Prioritize(Gartner)
※この記事は、2024年7月に執筆されたものです。
Copyright © ITmedia, Inc. All Rights Reserved.