検索

AIと法律・知財・契約

AIと法律・知財・契約

「人工知能(AI)のモデル生成で、インターネット上に公開されているデータを活用しても問題ないのか?」「AIを『発注するユーザー』と『作るベンダー』はどう契約を結べばよいのか?」こういった、法律・知財・契約についての最新情報を紹介する連載。

■ 「法律/知財」に関するコンテンツ ■

第1回 生データ使い放題?! 「日本は機械学習パラダイス」になった ― DEEP LEARNING LAB 勉強会(2019/01/30)

2019年1月1日施行の「著作権法30条の4」により、日本ではAIの学習済みモデルの生成にネット上の情報が(ほぼ)自由に使用できるという。DEEP LEARNING LAB 勉強会で説明された、その内容を紹介する。

  • 「日本は機械学習パラダイス」
    ・解説:著作権データからの学習済みモデルの生成についての課題と現状
    ・まとめ:著作権法30条の4によってできること、できないこと
  • セッションスライド
    ・公開されているセッションスライド

第2回 個人情報を含むデータは、AI&機械学習に使えるのか?〜個人情報保護法〜 ― DLLAB勉強会(2019/12/02)

AI/機械学習のデータには、例えば診察情報/店頭映像/ネットコンテンツ抽出など「個人情報」や「個人の権利」が含まれる場合がある。「日本の個人情報保護法の下では、個人情報を含むデータはどう扱えばよいか?」を説明する。

  • 第1 AIと法律・知財・契約に関する問題領域の概観〜AIの適法な生成、保護、活用、法的責任〜
  • 第2 AI学習用データとしての個人情報と、AI処理対象としての個人情報
  • 1 個人情報とは何か
    ・「個人情報の提供」について
  • 2 個人情報保護法上の規制をざっくりとつかむ
    ・(1)「取得」に対する規制
    ・(2)「処理&利用」に対する規制
    ・(3)「第三者提供」に対する規制
    ・個人情報保護法上の規制についてのまとめ
  • 3 自社がやろうとしているビジネスの、どのプロセスに、どのような規制がかかっているかを具体的に知る
    ・AIに個人情報が絡む具体例(1)
    ・AIに個人情報が絡む具体例(2)
    ・AIに個人情報が絡む具体例(3)
  • まとめ

■ 「法律/知財/契約」に関する、外部のお勧めコンテンツ ■

LLM技術と外部データ活用による検索・回答精度向上手法(ファインチューニング、セマンティック検索、In-Context Learning、RAG)と著作権侵害 | STORIA法律事務所(2023/11/28)

LLM技術と外部データ活用による検索・回答精度向上のいくつかの手法(ファインチューニング、セマンティック検索、In-Context Learning、RAG)と著作権侵害について検討している記事。

LLMを利用したRAG(Retrieval Augmented Generation)と著作権侵害 | STORIA法律事務所(2023/08/05)

ChatGPTなどのチャットボットでRAG(Retrieval Augmented Generation)と呼ばれる「社内外の文書データを用いる技術」を採用した場合に、その文書データ(既存情報)が第三者の著作物である際に生じる著作権問題について解説している記事。

大規模言語モデル(LLM)に関連するビジネスを展開する際に留意すべき法規制・知的財産権・契約 | STORIA法律事務所(2023/03/27)

大規模言語モデル(LLM)に関連するビジネスを展開する際に留意すべき法規制・知的財産権・契約について。まずは総論として「LLMに関連するビジネス3つの領域」と「それぞれの領域において法的に問題となる事柄」について簡単に説明。


大規模言語モデル(LLM)に関するビジネスと法律〜LLMやデータセットの構築と提供(レイヤー1)〜 | STORIA法律事務所(2023/04/13)

大規模言語モデル(LLM)に関するビジネス領域を3つのレイヤーに分けた場合の一つ目のレイヤー「大規模データセットや大規模言語モデルを自ら開発して公開・提供するレイヤー」に取り組む際の法的な留意点について解説。

画像生成AIを利用して生成したコンテンツを自社サービスで利用する際に注意すべき事項 | STORIA法律事務所(2023/01/10)

ビジネス領域において生成系AI技術が利用される場面のうち「生成系AIを利用して生成したコンテンツを自社プロダクトで用いる場合」の法的留意点について解説している記事。

Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権(その1) | STORIA法律事務所(2022/08/31)

画像自動生成AIに関して、「AIソフトウェアを生成するために他人の画像や文章などの著作物を勝手に収集して利用することができるか(論点1)」「自動生成された画像に著作権が発生するか(論点2)」「学習に用いられた画像と同一の画像が『偶然』自動生成された場合、著作権侵害に該当するか(論点3)」について論じている記事。


Midjourney、Stable Diffusion、mimicなどの画像自動生成AIと著作権(その2) | STORIA法律事務所(2022/09/21)

画像自動生成AIに関して、「どのような場合に著作権侵害になるのか」「自分の創作した絵を機械学習の学習用データに使われることへのクリエイターの強い拒否感と著作権法30条の4」「ご意見・質問に対する回答」について論じている記事。

AI技術により自動生成した人物肖像の利用による肖像権侵害 | STORIA法律事務所(2021/12/17)

AIで人物肖像を生成するビジネスや、自動生成の人物肖像を利用する場面が急拡大している。それを受けて「AI自動生成肖像の利用が狭義の肖像権侵害に該当するか」を論じている記事。

自然言語系AIサービスと著作権侵害 | STORIA法律事務所(2021/10/24)

「事業者がどのような点に注意してサービス設計をすべきか」、いいかえれば「どのような場合に自然言語系AIサービスの提供事業者が著作権侵害の責任を問われるのか」についての記事。

個人データ取扱いの委託によるAIモデル開発の可能性と限界を考える | STORIA法律事務所(2021/08/10、2021/09/10更新)

AIベンダがクライアントから「自社が保有する個人データをもとにAIモデルを開発してほしい」と依頼された場合に、開発後のAIモデルを適法に自社製品として第三者に展開する方法を検討している記事。

仮名加工情報はAI開発をどのように変えるのか〜医療AI開発のケースを元に考えてみた〜 | STORIA法律事務所(2021/05/12)

2022年4月1日に全面施行される「令和2年個人情報保護法改正」に新設された「仮名加工情報」に関するルールと、AI開発実務における影響について解説している記事。

2018年AIモデル契約と2021年AIモデル契約を比べるとAI開発契約の「変わらないところ」と「進化しているところ」がよくわかった | STORIA法律事務所(2021/04/09)

「1. 2021年AIモデル契約の位置づけ」「2. 2018年AIモデル契約と2021年AIモデル契約の共通点と相違点」の2つのトピックを解説している記事。

■ 「契約/知財」に関する、MONOist内のお勧めコンテンツ ■

スタートアップとオープンイノベーション〜契約成功の秘訣〜(6):「学習用データセット」は共同研究開発の成果物に入りますか?(2022/01/20)

本連載では大手企業とスタートアップのオープンイノベーションを数多く支援してきた弁護士が、スタートアップとのオープンイノベーションにおける取り組み方のポイントを紹介する。第6回は前回に引き続き、共同研究開発契約をテーマに留意点を解説していく。

スタートアップとオープンイノベーション〜契約成功の秘訣〜(8):AI分野における利用契約で考えるべき「料金」「許諾範囲」「支払方法」(2022/03/14)

第8回は前回の続きとして、AIやデータ分析サービス利用に際しての契約締結における留意点を取り上げる。

■ 「倫理」に関する、@IT内のお勧めコンテンツ ■

特集:AIを使う人、作る人に知ってほしい 「AI倫理」との付き合い方 - @IT

@IT特集コーナー:AIを使う人、作る人に知ってほしい 「AI倫理」との付き合い方

システムやサービスにAI(人工知能)を活用することが珍しくなくなった昨今、AIが引き起こす倫理的な問題もまた身近なものとなった。すでに欧米諸国ではAI倫理に関する法整備も進んでおり、日本国内にもその影響が及ぶことは想像に難くない。本特集ではそんなAI倫理について「AI倫理とはどういうものなのか」といった初歩的なテーマから「AI倫理に関してエンジニアは何を知っておくべきなのか」「AI倫理の観点から見たAI開発プロセスにおけるリスクとその対処法とは何か」といった実践的なテーマまで、深堀りして解説する。

いずれはセキュリティやプライバシーと同じ扱いに?:「AI倫理も品質の一部」な時代、AIエンジニアには何が求められるのか 有識者に聞いた(前編)(2022/02/17)

AI倫理に関してエンジニアは何を知っておくべきなのか、エンジニアには何が求められるのか、AI倫理に詳しい弁護士の古川直裕氏に話を聞いた。前編である今回は、AI倫理とは何か、エンジニアにAI倫理はどのように関わってくるかについて。

エンジニアが知っておくべきAI倫理(1):なぜ今AI倫理なのか? AIがもたらす「意図しない結果」を防ぐために開発者ができること(2022/02/16)

正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する連載。初回は、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクについて。

エンジニアが知っておくべきAI倫理(2):AIがもたらす「不公平な結果」を防ぐために開発者は何を考慮すればよいのか(2022/02/22)

第2回は、データ収集の際に起きてしまうバイアスの発生を防ぐために、AI構築に携わる技術者がとるべき対応について。

エンジニアが知っておくべきAI倫理(3):AIモデル学習の評価時/オペレーション時に発生するバイアスリスク、どう対処する?(2022/03/15)

第3回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について。

エンジニアが知っておくべきAI倫理(終):世界で進むAI規制、開発者に求められる競争力とは(2022/03/15)

最終回は、AI倫理に関する世界の主要なAI法規制やガイドラインと、AI開発者に求められることについて。

ページトップに戻る