ニュース
GitHub、「誤情報やフェイク作成目的のプロジェクトやコンテンツを認めない」ポリシー追加を提案:技術やツールの悪用と合法的な使用の違いを認識し、適切な対応を目指す
GitHubは、同社サービスの利用規約に「非同意性的画像やフェイク情報を作成する合成メディアツールの開発を目的としたプロジェクトやコンテンツを認めない」とする新たなポリシーの追加を提案した。加えて、Pull Requestページをオープンし、パブリックコメントの募集を開始した。
GitHubは2024年4月18日(米国時間)、非同意性的画像(NCII)およびフェイク情報などのメディアコンテンツに関する新たなポリシーの追加を、公式ブログで提案した。
合成および操作されたメディアツール
GitHubは、非同意性的画像(NCII)や誤情報のために合成または操作されたメディアを使用することを目的としたプロジェクト、それを奨励、促進、支援、示唆するプロジェクト、または本ポリシーに基づく誤報やフェイク情報に該当するようなコンテンツを許可しない。
このポリシー案は、選挙フェイク情報、嫌がらせ、その他の欺瞞的な悪用のためにディープフェイクを作成する技術の使用に関する懸念に対処する一方で、この技術の合法的な使用を可能にするものだと、GitHubは強調している。
GitHubは、Pull Requestページを用いてパブリックコメントの募集を開始した。
なぜこのようなポリシーの追加を提案したのか
関連記事
- 生成AIツールで気になるセキュリティ GitHubはどう対処しているのか
TechTargetは、「NVIDIAとGitHubの新しいAIコーディングアシスタント」に関する記事を公開した。セキュリティ面の懸念は残るものの、ベンダー側もその懸念を解消するためにさまざまな対応を進めている。 - GitHub Copilotの能力を最大限に引き出すためのヒントとは GitHubが紹介
GitHub Copilotのコード補完機能を最大限活用するためには、できるだけ多くのコンテキストを提供する必要がある。本稿ではテキストエディタでより多くのコンテキストを提供するためのヒントを紹介する。 - Microsoft、1枚の写真と音声から本当に話しているかのような動画を生成するAIモデル「VASA-1」を発表
Microsoftは、1枚の顔の静止画像と音声クリップから、その顔の人物が本当に話しているかのような動画を生成できるAIモデル「VASA-1」を発表した。
関連リンク
Copyright © ITmedia, Inc. All Rights Reserved.