米大学研究者、回答者のプライバシー保護のために調査データを変更する新しい方法論を提唱:ゲノム配列決定アプリケーションで使われる手法がベース
ドレクセル大学とバンダービルト大学の研究者のチームが最近発表した論文で、調査データが共有される場合に、消費者のプライバシー保護のためにデータを恒久的に変更し、その一方でデータの精度を維持する新しい方法論を提唱した。
米国のドレクセル大学とバンダービルト大学の研究者のチームが、2020年2月に「Journal of Marketing Analytics」で発表した論文で、調査データが共有される場合に消費者のプライバシー保護のためにデータを恒久的に変更し、その一方でデータの適切な精度を維持する新しい方法論を提唱した。
この論文は、ドレクセル大学ルボーカレッジオブビジネスの決定科学および管理情報システム学助教授マシュー・シュナイダー博士と、バンダービルト大学のドーン・アイアコブッチ博士が著した。
同論文の著者によると、調査データは多くの場合、組織内で保持され、データはもともとの収集目的以外の用途でも使われる。これはプライバシーにとって脅威となる。「データベースや顧客情報は、企業が提携するときに、相手企業にとって自社の魅力の源泉となる現代的な資産だ。高いデータセキュリティ基準を持つ企業にとっても、消費者データのプライバシー保護は難しい場合がある」(シュナイダー氏)
これほど一般的ではないが、もう1つの現実的な脅威が、従業員が転職先に、これまでの勤務先からデータを違法に持ち出すことだ。その理由は、「転職先で好印象を得る」「これまでの勤務先に害を与える」「データ提供が転職の条件である」などだ。
シュナイダー氏は、データプライバシー保護の約束を果たすためのソリューションは、技術的なものになっていると指摘する。
「調査データは、他のプロプライエタリデータセットとの関連など、回答者レベルの分析にますます使われるようになっている。データが事後的に何度も使われる中で、プライバシー保護は保証されないかもしれない。機密性は匿名性を保証しない。調査の中で、注意深く作られた3つか4つの設問を立てることで、誰かを一意に識別できる」(シュナイダー氏)
著者は論文で、2015年に米国テキサス州オースティン市で収集され、オープンデータ運動を受けて公開された調査データセットを分析した。ニューヨークやフィラデルフィアなどの市でも同様の運動が行われている。
「オープンデータの取り組みには、多くのプライバシーリスクがある。これらを進める地方政府は連邦政府と比べて、プライバシー保護という技術的な問題に対処するための予算やリソースが潤沢ではないからだ」(シュナイダー氏)
洞察精度の誤差を5%以内に保ちつつプライバシー保護が可能に
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 無断でダウンロードしたデータでもAI開発に使える? 改正著作権法を弁護士が解説
AIモデル開発を目的とするなら、著作権者に許諾を得ずとも、データのダウンロード、整形、加工がより広い範囲で行えるようになった。弁護士法人STORIAの柿沼太一弁護士が、2019年1月1日に施行された「改正著作権法」のポイントとAIモデル開発時の注意点について解説した。 - 生データ使い放題?! 「日本は機械学習パラダイス」になった ― DEEP LEARNING LAB 勉強会
2019年1月1日施行の「著作権法30条の4」により、日本ではAIの学習済みモデルの生成にネット上の情報が(ほぼ)自由に使用できるという。DEEP LEARNING LAB 勉強会で説明された、その内容を紹介する。 - プライバシーフリーク、就活サイト「内定辞退予測」で揺れる“個人スコア社会”到来の法的問題に斬り込む!――プライバシーフリーク・カフェ(PFC)前編 #イベントレポート #完全版
学生の就職活動を支援するための「人材」サービスが、本人の権利利益をないがしろにして己の利益のためだけに野放図に使っていたことこそが、問題だ!(by厚生労働省)――リクナビ事件の問題点を、鈴木正朝、高木浩光、板倉陽一郎、山本一郎の4人がさまざまな角度で討論した。※本稿は、2019年9月9日時点の情報です