中国初创公司深度求索发布一款价格低廉的大语言模型DeepSeek-R1,其性能比拟美国OpenAI开发的最新一代模型o1,但训练成本更低。
综合新华社、英国《金融时报》等报道,世界经济论坛2025年年会开幕当天,中国量化巨头幻方量化旗下的子公司深度求索公司1月20日发布最新开源模型DeepSeek-R1。
据深度求索介绍,DeepSeek-R1在后训练阶段大规模使用强化学习技术,在仅有极少标注数据的情况下,极大提升模型推理能力。这意味着该模型的训练跳过了监督微调(SFT)的步骤。
在第三方基准测试中,DeepSeek-R1在算法类代码场景和知识类测试中的得分略低于OpenAI的o1,但在工程类代码场景、美国数学竞赛项目上均超越o1模型。
令外界更关注的是,与o1性能比肩的DeepSeek-R1,训练成本比o1低了五十分之一。
此外,深度求索提供更加低廉的收费方案,每百万tokens(大模型基本单位,1000个tokens约等于500个汉字)仅需16元人民币(下同,3新元),远低于o1模型每百万tokens要价438元。
去年12月,深度求索公司发布DeepSeek-V3模型,仅使用2048块英伟达弱化版的H800晶片,花两个月就训练出性能比肩GPT4.0的模型。
DeepSeek能在多大程度上转化为实际的科学和技术应用,还是仅仅在基准测试中表现优异,仍有待观察。
但微软首席执行官兼OpenAI战略合作伙伴纳德拉1月22日在瑞士达沃斯世界经济论坛上说:“看到深度求索的新模型,真是令人印象深刻,不仅因为他们有效地构建一个开源模型,还因为它的推理计算效率极高。我们应该非常严肃地看待中国的AI进展。”
美国CNBC报道称,这款模型的发布已在硅谷引起恐慌。
由于美国出口管制限制中国企业采购最先进的人工智能计算晶片,中国企业正着力于通过优化软件、算法等方式,以更加低的训练成本开发模型。目前越来越多迹象显示,中国企业已取得巨大突破。
另据路透社报道,除了深度求索公司,中国字节跳动星期三(1月22日)发布豆包大模型1.5 Pro,并称该模型在美国数学竞赛项目基准测试中表现优于o1模型。