訓練コストは4400万円⋯中国DeepSeek「R1」モデル、Nature論文で透明性を示す
公開日:
中国の人工知能(AI)スタートアップ「DeepSeek」の大規模言語モデル(LLM)「DeepSeek R1」に関する査読論文が9月17日、英科学誌「Nature」に掲載された。タイトルは「DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning」。共同執筆者にはDeepSeekの創業者である梁文鋒氏も加わっている。
査読論文では、強化学習(RL)を用いてAIの推論能力を高める仕組みとして、AIが正しい回答をすると報酬を与えて自律的な学習を促し、人間が推論過程を教えるプロセスを減らして訓練コストを削減する手法を公開した。補足資料には、DeepSeek R1の訓練コストがわずか29万4000ドル(約4400万円)だったことも示された。
DeepSeekが1月にインターネットで発表した査読前論文は、第三者の専門家から安全性テストの不十分さや訓練プロセスの不透明さが指摘されていた。今回はこれらの課題を解決し、査読論文として発表した。Nature編集部は、DeepSeek R1は厳しい査読を通過した世界初の主要LLMだとし、AI開発の透明性に向けて大きな一歩を踏み出したと評価した。
DeepSeek R1は1月に発表され、米OpenAIなどの先行するLLMに匹敵する性能を、はるかに低いコストで実現したことで注目を集めた。AIのオープンソースプラットフォーム「Hugging Face」ではすでに1090万回以上ダウンロードされている。
*1ドル=約148円で計算しています。
(36Kr Japan編集部)