検索
ニュース

「Llama2」やXの「Grok」などが不合格になったOSIの「オープンソースAIの定義 1.0」、その中身とは? 合格したAIは?Open Source Group Japanが日本語参考訳を公開

Open Source Initiativeは、「Open Source AI Definition v.1.0」(オープンソースAIの定義 v.1.0)を公開した。

Share
Tweet
LINE
Hatena

 オープンソースを推進する米国の非営利団体Open Source Initiative(OSI)は2024年10月28日(米国時間)、「オープンソースAI(人工知能)」の定義を定めた「Open Source AI Definition v.1.0」(オープンソースAIの定義 v.1.0)(以後、OSAID)を公開した。

 OSAIDは、特定のAIシステムをオープンソースAIと見なせるかどうかを検証するオープンな公開評価をコミュニティー主導で行うための基準を提供する。

 OSAID v.1.0は、OSIの主導による複数年にわたる研究と協力、ワークショップの国際展開、1年間の共同設計プロセスの成果だ。OSIは、オープンソースを定義する権威として個人、企業、公的機関から世界的に認められているボランティアベースの組織だ。

 オープンソースAIのWebページによると、現時点でOSAID v.1.0は、20以上の組織、100人以上の個人に支持されており、13のAIシステムがこの定義に照らしてレビューされている。支持組織の一つである一般社団法人Open Source Group Japanは、支持を表明する声明を発表しており、OSAID v.1.0、機械学習システムを評価するためのチェックリスト、FAQの日本語参考訳を公開している。

OSAID v.1.0の中身とは? 「オープンソースAI」として合格したAIは?

 それによると、OSAID v.1.0は、以下のような構成となっている。

  • 前文
    • オープンソースのAIが必要な理由
  • オープンソースAIとは何か
    • 機械学習システムに改変を加えるための推奨される形式
    • オープンソースモデルとオープンソースウェイト
  • 定義

 OSIは、生成AIへの注目が高まることで生じたいわゆる「オープンウォッシング」(AI企業がオープンではないものをオープンソースと称すること)や、EU(欧州連合)のAI規則などにおいて「オープンソースのAIシステム」が明記されていることなどに対処する目的で、OSAIDの共同設計プロセスを進めてきた。

 Open Source Group Japanは個人単位でボランティアとしてこのプロセスに参加し、公開議論においてはこの1年間に最も多くの活動を行ってきた。

 以下では、OSAIDに関するFAQ(現時点でまだ作成途上とされている)の中から4項目の概要を紹介する。

オープンソースAIとは何か

 オープンソースAIとは、OSIが承認した法的条件の下で、必要な全てのコード、データ、パラメーターが自由に利用できるAIシステムを指す。

なぜオープンソースAIの定義が作成されたか

 「オープンソースの定義」(OSD:Open Source Definition)第2条に、「プログラムはソースコードを含んでいなければならず、……(略)ソースコードは、プログラマーがプログラムを変更する際に優先される形式でなければならない」とある。「AIシステムを変更する際に優先される形式とは何かに」ついて、明確な答えを持っている人が誰もいなかったため、OSIは共同設計プロセスに関わるコミュニティーとともに、その答えを見つけることを提案した。

オープンソースの定義とオープンソースAIの定義の違いは何か

 オープンソースの定義は、ソフトウェアプログラムに言及している。AI、特に機械学習システムは、単なるソフトウェアプログラムではなく、データ、構成オプション、ドキュメント、重み、バイアスなどの新しいアーティファクトとの境界が混在している。オープンソースAIの定義は、AIシステムに改変を加えるための推奨される形式を説明し、OSDの原則をAIの領域で明確に解釈できるようにする。

どのAIシステムがオープンソースAIの定義に準拠しているか

 OSAIDの検証およびテストの一環として、ボランティアが、「AIシステムが期待される自由を提供しているかどうかを評価する際に、OSAIDが使用できるかどうか」を確認した。その結果として次のようになった。

 検証フェーズに合格したモデルは次の通り。

  • 「Pythia」(Eleuther AI)
  • 「OLMo」(AI2)
  • 「Amber」
  • 「CrystalCoder」(LLM360)
  • 「T5」(Google)

 分析済みで、ライセンスまたは法的条件の変更により合格すると思われるものは、次の通り。

  • 「BLOOM」(BigScience)
  • 「Starcoder2」(BigCode)
  • 「Falcon」(TII)

 分析済みで、必要なコンポーネントが欠如しているか、または法的条件がオープンソースの原則と適合しないため、不合格となったものは、次の通り。

  • 「Llama2」(Meta)
  • 「Grok」(X/Twitter)
  • 「Phi-2」(Microsoft)
  • 「Mixtral」(Mistral)

 OSIはこれらの結果について「定義作成プロセスの一部であり、学習の機会と見なすべきであり、いかなる種類の認定でもない」とした上で、「今後も、法的文書の検証のみを継続する。ソフトウェアプロジェクトの検証やレビューを行わないのと同様に、個々のAIシステムの検証やレビューは行わない」と述べている。

Copyright © ITmedia, Inc. All Rights Reserved.

ページトップに戻る