BlackBerry Japanは、「ChatGPT」をはじめとする生成AIや関連するツールを企業で利用する際に、議論すべき事項について発表した。ChatGPTなどのAIツールが安全に利用できるかどうかは、企業が自ら評価していく必要があるとしている。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
BlackBerry Japanは2023年6月2日、「ChatGPT」をはじめとする生成AIや関連するツールを企業で利用する際に、議論すべき事項について同社のブログで発表した。
ChatGPTは、公開後2カ月程度でユーザー数が1億を超えるなど注目を集めている。BlackBerryは、ChatGPTをはじめとする生成AIや類似ツールを利用する際、考慮すべきリスクを3つ挙げた。
ChatGPTに入力された情報は、結果的にChatGPTのデータモデルの一部になる。不用意に社内の機密情報を入力してしまうと、関連する質問をした他のユーザーにその情報が共有され、データが漏えいする恐れがある。
ChatGPTのセキュリティが侵害され、自社の契約上(または法律上)保護を求められる情報が漏えいした場合、企業にも責任を求められる可能性がある。セキュリティが侵害されていなくても、前述したようにChatGPTは入力情報をそのデータモデルに取り込む。そのため、顧客やパートナーの機密情報を入力していた場合、その行為自体が顧客やパートナーとの契約に抵触する恐れがあるとBlackBerryは指摘している。
利用規約では「ChatGPTの出力は入力を提供した人物やサービスの所有物だ」とされているものの、BlackBerryによると、出力が法的に保護されたデータを含み、データが他のソースの入力から収集されたものである場合、複雑な問題が発生する可能性があるという。
著作権も懸念事項になる。例えば、著作物を基にして、ChatGPTに文章を生成させた場合だ。ChatGPTがオープンソースのライブラリを学習しており、質問への回答としてそのコードを「再現」した場合、そのコードを開発者が製品に組み込むと、「非友好的な」OSS(オープンソースソフトウェア)ライセンス違反になりかねない。
ChatGPTが国際的なプライバシーに関する法律をどのように順守しているのか、また、データに対する個人の権利を尊重するために適切に管理しているかどうかが定かではないとBlackBerryは指摘。「ChatGPTに個人データを提供すると、そのデータが別の目的で再利用される可能性が生じ、結果としてデータの悪用や風評被害につながる恐れがある」としている。
「AIツールが安全に利用できるかどうかは、企業が自ら評価していく必要がある。前述した3つのリスクを企業内での議論のきっかけとし、企業が今後取るべき最善策に対して評価できるように準備すべきだ」(BlackBerry)
Copyright © ITmedia, Inc. All Rights Reserved.