AIの進化で健康データのプライバシーリスクが増大、カリフォルニア大学匿名の健康データを個人とひも付け可能

カリフォルニア大学バークレー校の研究によれば、AIの進化が健康データのプライバシーに対して新たな脅威をもたらしていることが分かった。匿名の健康データを個人とひも付けられてしまう。SNSなどを通じて大規模な健康情報データを作成可能になる。

» 2019年01月30日 17時30分 公開
[@IT]

 人工知能(AI)の進化が健康データのプライバシーの新たな脅威をもたらしていることが、カリフォルニア大学バークレー校(UCB)の新たな研究で明らかになった。

 この研究は、UCB工学大学院のIndustrial Engineering & Operations Research Department(IEOR)の教授であるアニル・アスワニ氏とそのチームが主導した。AI開発が進む中、現行の法律と規制は、個人の健康状態をプライベートに保つには全く不十分であるとススワニ氏は主張する。

 アスワニ氏は米国に居住する9487人の成人と4966人の子どものデータを利用した。7日間連続した加速度データを含む米国国民健康栄養調査(NHANES)のデータから、地理情報と健康属性情報を削除し、あらためて個人の健康属性情報と相関させた。

 パターン認識モデルとしてはサポートベクターマシンを使い、機械学習アルゴリズムとして、ランダムフォレスト法を利用したところ、成人では93.8%以上、子どもでは85.5%以上の個人を特定(復元)できた。

SNSを運営する企業が悪用可能

 アスワニ氏が研究を終えた際に達した結論はこうだ。米国で1996年に制定されたHIPAA(医療保険の相互運用性と説明責任に関する法律)を見直す必要がある。HIPPAは医療機関に対して、個人情報を保護することを命じた法律だ。

アニル・アスワニ氏

 「原理上、アクティビティートラッカーやスマートウォッチ、スマートフォンなどから収集した身体活動データを、例えばFacebookがスマートフォン上のアプリを経由して収集できる。さらに他社から健康情報データを購入して、両者を対応付けるといったことが考えられる。そうすれば、氏名と結び付いた健康情報データを得て、それを基に広告を販売したり、そのデータ自体を他社に販売したりできる」と、アスワニ氏は説明する。

 同氏は、健康関連のデバイスに問題があるのではなく、デバイスが集める情報が悪用され、オープン市場で販売される可能性があることに問題があると明言している。

 「このような機器を使うことに問題はない。だが、こうしたデータの使い方には十分注意しなければならない。このような情報は保護する必要がある」(アスワニ氏)

 さらにアスワニ氏は、この研究結果は、健康データのプライバシーについて広範な脅威を示唆していると語る。「HIPAAのカバー範囲は、意外にも大きくない。IT企業など、多くの組織がHIPAAの適用を受けない。現行のHIPAAでは、ごく限られた情報について共有を禁止している。しかし、健康データを買う企業は存在しており、健康データは匿名データだと考えられているが、こうした企業のビジネスモデルは、この匿名データに氏名をひも付け、販売することにある」

 AIの進化に伴い、企業が健康データにアクセスしやすくなることから、健康データを違法に、または非倫理的に使用したいという誘惑が大きくなることをアスワニ氏は懸念している。例えば、雇用主や、住宅ローン会社、クレジットカード会社などがAIを使って、妊娠や障害に基づいて差別を行う恐れがあるという。

 「健康データを保護する新しい規制やルールができれば理想的だ。だが現実には、規制緩和を求める声が大きい。ヘルスケアに関しては、われわれがプライバシーを管理できなくなるリスクが増大している」(アスワニ氏)

 研究論文は2018年12月にJAMA Network Openで発表された。

Copyright © ITmedia, Inc. All Rights Reserved.

RSSについて

アイティメディアIDについて

メールマガジン登録

@ITのメールマガジンは、 もちろん、すべて無料です。ぜひメールマガジンをご購読ください。