中国のAIスタートアップであるDeepSeekは、大規模言語モデル「DeepSeek-R1」と「DeepSeek-R1-Zero」およびDeepSeek-R1から蒸留した6つの小型モデルをオープンソースとして公開した。
この記事は会員限定です。会員登録(無料)すると全てご覧いただけます。
中国のAIスタートアップ(新興企業)であるDeepSeekは2025年1月20日(中国時間)、大規模言語モデル(LLM)「DeepSeek-R1」と「DeepSeek-R1-Zero」およびDeepSeek-R1から蒸留した6つの小型モデルをオープンソースとして公開したと発表した。
DeepSeek-R1は、数学、コーディング、推論タスクにおいて、OpenAIの「o1」と同等の性能を達成しており、6つの蒸留モデルのうち「DeepSeek-R1-Distill-Qwen-32B」は、さまざまなベンチマークでOpenAIの「o1-mini」を上回っている。
DeepSeek-R1とDeepSeek-R1-Zeroは、DeepSeekの既存モデル「DeepSeek-V3-Base」をベースにトレーニングされている。
Copyright © ITmedia, Inc. All Rights Reserved.