生成AI利用者の約2割が「シャドーAI」リスクに該当 対策は?:リテラシーに関する課題も顕在化
エルテスは会社員や公務員300人を対象とした「生成AIの利用に関する調査」の結果を明らかにした。業務で生成AIを利用している回答者のうち、約5人に1人が「勤務先が許可していない生成AIツール」を利用しているという。
エルテスは2026年1月19日、会社員や公務員300人を対象に実施した「生成AIの利用に関する調査」の結果を発表した。
同調査によると、業務で生成AI(人工知能)ツールを利用していると回答した割合は全体の34.3%に達した。その内訳を見ると、「勤務先が許可していない生成AIツール」(個人契約の「ChatGPT」「Google Gemini」など)を利用している回答者が6.7%(20人)となり、生成AIツール利用者のうち、少なくとも約5人に1人が「シャドーAI」に該当する結果となった。
回答者自身が利用しているAIツールが「勤務先で許可されているものかどうか分からない」という回答も複数あり、リテラシーに関する課題も顕在化している。
業務優先? 抵抗感があっても非公開情報をアップロードする人も
生成AIに入力、アップロードしたことのある情報やファイルの種類については、「業務メールの本文」が最多となり、次いで「企画書・提案書などの社内文書」が挙げられた。
回答の割合としては少数であるものの、「個人情報を含むデータ(氏名・住所・連絡先など)」をアップロードしたとの回答も6.8%を占めており、情報管理の観点でリスクがある利用実態も明らかとなった。
生成AIに入力する情報に関する意識を聞いたところ、非公開の情報や非公開のファイルをアップロードすることに「抵抗がある」「やや抵抗がある」と回答した人の合計は75.8%に達し、「あまり抵抗はない」「抵抗はない」の合計24.3%を大きく上回った。
しかし「抵抗がある」「やや抵抗がある」と回答した78人のうち、64.1%に当たる50人が「生成AIツールに非公開情報をアップロードしたことがある」と回答した。
この結果から、不安や抵抗感を抱きつつも、業務遂行のためにアップロードしている実態もうかがえる。
利用規程の未整備が「シャドーAI」を助長
勤務先における生成AIツールの利用規程(ガイドライン)の有無についての質問では、「ない」という回答が45%で最も多く、「ある」「現在策定中」の合計は28.4%にとどまった。「分からない」という回答も26.7%あり、約4人に1人が勤務先の規程を把握していない実態がうかがえる。
利用規程の有無と利用ツールの関係性を分析すると、利用規程が「ある」「現在策定中」と回答した層では勤務先が許可したツールを利用している割合が高い一方、利用規程が「ない」と回答した層では、勤務先が許可していないツールを利用している、すなわち「シャドーAI」の割合が高かった。
勤務先で利用規程が整備されている環境にいる回答者ほど、生成AIへの情報アップロードに抵抗感を持ち、リスクを認識している可能性が高い傾向も見られたという。
エルテスは同調査を踏まえ、「利用者の危機意識が高まることから、生成AIツールの利用規程を策定することは一定の効果がある」と結論付けている。
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
ChatGPTに「入力してはいけない情報」5選――NGリストとその理由
ESETは、ChatGPTの利用に伴うセキュリティとプライバシーのリスクをまとめた包括的なガイドを公開した。7つの大きなリスクや共有禁止情報の「レッドリスト」、10の保護習慣を解説している。
プロンプト入力の「ポリシー違反」が急増、シャドーAIで“漏えいリスク”が深刻化
Netskopeは、2025年のAI、クラウド、フィッシング、マルウェアに関する攻撃を分析した「クラウドと脅威レポート」2026年版を発表した。生成AI利用に伴うデータポリシー違反が前年比で2倍以上に急増した他、シャドーAIの常態化や個人用クラウド経由の漏えいリスクが浮き彫りとなった。
シャドーAIを引き起こす「従業員の不満」とは 生成AI利用企業の34.8%が経験
SIGNATE総研は、生成AIの利用実態に関する調査レポートを公開した。企業の許可を得ずAIを利用する「シャドーAI」の浸透と、組織内のリスク認識の差が浮き彫りとなった。