「人工知能(AI)のモデル生成で、インターネット上に公開されているデータを活用しても問題ないのか?」「AIを『発注するユーザー』と『作るベンダー』はどう契約を結べばよいのか?」こういった、法律・知財・契約についての最新情報を紹介する連載。
2019年1月1日施行の「著作権法30条の4」により、日本ではAIの学習済みモデルの生成にネット上の情報が(ほぼ)自由に使用できるという。DEEP LEARNING LAB 勉強会で説明された、その内容を紹介する。
AI/機械学習のデータには、例えば診察情報/店頭映像/ネットコンテンツ抽出など「個人情報」や「個人の権利」が含まれる場合がある。「日本の個人情報保護法の下では、個人情報を含むデータはどう扱えばよいか?」を説明する。
LLM技術と外部データ活用による検索・回答精度向上のいくつかの手法(ファインチューニング、セマンティック検索、In-Context Learning、RAG)と著作権侵害について検討している記事。
ChatGPTなどのチャットボットでRAG(Retrieval Augmented Generation)と呼ばれる「社内外の文書データを用いる技術」を採用した場合に、その文書データ(既存情報)が第三者の著作物である際に生じる著作権問題について解説している記事。
大規模言語モデル(LLM)に関連するビジネスを展開する際に留意すべき法規制・知的財産権・契約について。まずは総論として「LLMに関連するビジネス3つの領域」と「それぞれの領域において法的に問題となる事柄」について簡単に説明。
大規模言語モデル(LLM)に関するビジネス領域を3つのレイヤーに分けた場合の一つ目のレイヤー「大規模データセットや大規模言語モデルを自ら開発して公開・提供するレイヤー」に取り組む際の法的な留意点について解説。
ビジネス領域において生成系AI技術が利用される場面のうち「生成系AIを利用して生成したコンテンツを自社プロダクトで用いる場合」の法的留意点について解説している記事。
画像自動生成AIに関して、「AIソフトウェアを生成するために他人の画像や文章などの著作物を勝手に収集して利用することができるか(論点1)」「自動生成された画像に著作権が発生するか(論点2)」「学習に用いられた画像と同一の画像が『偶然』自動生成された場合、著作権侵害に該当するか(論点3)」について論じている記事。
画像自動生成AIに関して、「どのような場合に著作権侵害になるのか」「自分の創作した絵を機械学習の学習用データに使われることへのクリエイターの強い拒否感と著作権法30条の4」「ご意見・質問に対する回答」について論じている記事。
AIで人物肖像を生成するビジネスや、自動生成の人物肖像を利用する場面が急拡大している。それを受けて「AI自動生成肖像の利用が狭義の肖像権侵害に該当するか」を論じている記事。
「事業者がどのような点に注意してサービス設計をすべきか」、いいかえれば「どのような場合に自然言語系AIサービスの提供事業者が著作権侵害の責任を問われるのか」についての記事。
AIベンダがクライアントから「自社が保有する個人データをもとにAIモデルを開発してほしい」と依頼された場合に、開発後のAIモデルを適法に自社製品として第三者に展開する方法を検討している記事。
2022年4月1日に全面施行される「令和2年個人情報保護法改正」に新設された「仮名加工情報」に関するルールと、AI開発実務における影響について解説している記事。
「1. 2021年AIモデル契約の位置づけ」「2. 2018年AIモデル契約と2021年AIモデル契約の共通点と相違点」の2つのトピックを解説している記事。
本連載では大手企業とスタートアップのオープンイノベーションを数多く支援してきた弁護士が、スタートアップとのオープンイノベーションにおける取り組み方のポイントを紹介する。第6回は前回に引き続き、共同研究開発契約をテーマに留意点を解説していく。
第8回は前回の続きとして、AIやデータ分析サービス利用に際しての契約締結における留意点を取り上げる。
システムやサービスにAI(人工知能)を活用することが珍しくなくなった昨今、AIが引き起こす倫理的な問題もまた身近なものとなった。すでに欧米諸国ではAI倫理に関する法整備も進んでおり、日本国内にもその影響が及ぶことは想像に難くない。本特集ではそんなAI倫理について「AI倫理とはどういうものなのか」といった初歩的なテーマから「AI倫理に関してエンジニアは何を知っておくべきなのか」「AI倫理の観点から見たAI開発プロセスにおけるリスクとその対処法とは何か」といった実践的なテーマまで、深堀りして解説する。
AI倫理に関してエンジニアは何を知っておくべきなのか、エンジニアには何が求められるのか、AI倫理に詳しい弁護士の古川直裕氏に話を聞いた。前編である今回は、AI倫理とは何か、エンジニアにAI倫理はどのように関わってくるかについて。
正しくAIを作り、活用するために必要な「AI倫理」について、エンジニアが知っておくべき事項を解説する連載。初回は、AIの普及により浮き彫りになった課題と、AI開発プロセスに内在するリスクについて。
第2回は、データ収集の際に起きてしまうバイアスの発生を防ぐために、AI構築に携わる技術者がとるべき対応について。
第3回は、AIモデル学習の評価時、オペレーション時のバイアスリスクへの対処法について。
最終回は、AI倫理に関する世界の主要なAI法規制やガイドラインと、AI開発者に求められることについて。