GitHub、「誤情報やフェイク作成目的のプロジェクトやコンテンツを認めない」ポリシー追加を提案:技術やツールの悪用と合法的な使用の違いを認識し、適切な対応を目指す
GitHubは、同社サービスの利用規約に「非同意性的画像やフェイク情報を作成する合成メディアツールの開発を目的としたプロジェクトやコンテンツを認めない」とする新たなポリシーの追加を提案した。加えて、Pull Requestページをオープンし、パブリックコメントの募集を開始した。
GitHubは2024年4月18日(米国時間)、非同意性的画像(NCII)およびフェイク情報などのメディアコンテンツに関する新たなポリシーの追加を、公式ブログで提案した。
合成および操作されたメディアツール
GitHubは、非同意性的画像(NCII)や誤情報のために合成または操作されたメディアを使用することを目的としたプロジェクト、それを奨励、促進、支援、示唆するプロジェクト、または本ポリシーに基づく誤報やフェイク情報に該当するようなコンテンツを許可しない。
このポリシー案は、選挙フェイク情報、嫌がらせ、その他の欺瞞的な悪用のためにディープフェイクを作成する技術の使用に関する懸念に対処する一方で、この技術の合法的な使用を可能にするものだと、GitHubは強調している。
GitHubは、Pull Requestページを用いてパブリックコメントの募集を開始した。
なぜこのようなポリシーの追加を提案したのか
米大統領選挙を控える中で、ディープフェイク動画や画像、ロボコールなど、AI(人工知能)が生成したフェイク情報の使用に対する懸念が高まっている。さらに、NCIIを生成するためにディープフェイク技術が使用された複数の事例がある。GitHubは、連邦政府や州においてディープフェイク技術の悪用に対する立法提案が相次いでいることを指摘した上で、「GitHubは、コラボレーションプラットフォームだ。貴重な研究を保護する一方で、フェイク情報やNCIIなどのメディアコンテンツを作成するツールを共有するために使われる可能性がある。悪用に対処するために、責任ある措置を講じなければならない」と述べている。
一方、GitHubで公開されているコードやプロジェクトには常に教育的な価値があり、これらを削除することは、重要なイノベーションを促進するための情報源が失われるという認識も示す。セキュリティ研究を例に、GitHubは次のように述べている。
「セキュリティ研究者は、エクスプロイトを生成するソースコードを調べることで、マルウェアを検出するツールを開発可能になるなど、非常に大きな価値が得られる。反面、そのようなソフトウェアが悪用される可能性もある。GitHubは数年前、マルウェアに関するポリシーを更新し、有害なプロジェクトは積極的に認めないが、セキュリティ研究の目的で共有されるコンテンツは認めるという形で、この問題に取り組んできた。今回も同様のアプローチが採られることになる」
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- 生成AIツールで気になるセキュリティ GitHubはどう対処しているのか
TechTargetは、「NVIDIAとGitHubの新しいAIコーディングアシスタント」に関する記事を公開した。セキュリティ面の懸念は残るものの、ベンダー側もその懸念を解消するためにさまざまな対応を進めている。 - GitHub Copilotの能力を最大限に引き出すためのヒントとは GitHubが紹介
GitHub Copilotのコード補完機能を最大限活用するためには、できるだけ多くのコンテキストを提供する必要がある。本稿ではテキストエディタでより多くのコンテキストを提供するためのヒントを紹介する。 - Microsoft、1枚の写真と音声から本当に話しているかのような動画を生成するAIモデル「VASA-1」を発表
Microsoftは、1枚の顔の静止画像と音声クリップから、その顔の人物が本当に話しているかのような動画を生成できるAIモデル「VASA-1」を発表した。