ニュース
中国の新興AI企業の高性能オープンソースLLM「DeepSeek-R1」登場 注目の理由は?:OpenAIの「o1」に匹敵する性能とAPI料金の安さが売り
中国のAIスタートアップであるDeepSeekは、大規模言語モデル「DeepSeek-R1」と「DeepSeek-R1-Zero」およびDeepSeek-R1から蒸留した6つの小型モデルをオープンソースとして公開した。
中国のAIスタートアップ(新興企業)であるDeepSeekは2025年1月20日(中国時間)、大規模言語モデル(LLM)「DeepSeek-R1」と「DeepSeek-R1-Zero」およびDeepSeek-R1から蒸留した6つの小型モデルをオープンソースとして公開したと発表した。
DeepSeek-R1は、数学、コーディング、推論タスクにおいて、OpenAIの「o1」と同等の性能を達成しており、6つの蒸留モデルのうち「DeepSeek-R1-Distill-Qwen-32B」は、さまざまなベンチマークでOpenAIの「o1-mini」を上回っている。
DeepSeek-R1とDeepSeek-R1-Zeroは、DeepSeekの既存モデル「DeepSeek-V3-Base」をベースにトレーニングされている。
従来手法よりも効率的、「蒸留」を用いたDeepSeekの強み
Copyright © ITmedia, Inc. All Rights Reserved.
関連記事
- Alibaba Cloud、推論能力に焦点を当てたAIモデル「QwQ-32B-Preview」を発表 4つのベンチマークを公開
Alibaba CloudのQwenチームは、推論能力の向上に焦点を当てた実験的AIモデル「QwQ-32B-Preview」を発表した。 - 中国の零一万物(01.AI)、コーディング用LLM「Yi-Coder」をオープンソースとして公開
中国のAIスタートアップ零一万物(01.AI)は、コーディング用大規模言語モデル(LLM)「Yi-Coder」をオープンソースとして公開した。 - AWSが“民主化”する生成AIトレンド「蒸留」とは
AWSは生成AIにおけるモデルの蒸留を容易にできるサービス、「Amazon Bedrock Model Distillation」を、2024年12月に発表した。あらためて、蒸留とは何なのだろうか? AWSのアプローチは他社とどう違うのだろうか?