5月29日凌晨,大模型企业DeepSeek再次以“静默更新”的方式,在开源社区悄然上线了R1模型的0528版本。与以往惯例相同,官方尚未就此次更新发布任何正式说明,仅通过AIGC开放社区进行了模型文件的更新推送。
对此,深圳市华雅科技成果转化研究院数据资产专委会副会长,深圳东风环境副总裁胡双对中国工业报表示,未做任何预热,也未附加说明,仅以“静默开源”的方式完成发布。这一“低调上线”的背后,实际上折射出当前大模型行业在技术演进、产品策略、以及对开源与闭源边界的重新界定中的复杂博弈。
尽管缺乏官方说明,技术社区已迅速展开对新版本的性能评测。在知名代码能力测试平台LiveCodeBench的早期测试中,新版R1展现出与OpenAI最新o3高版本模型相媲美的表现。“这不仅是对DeepSeek技术能力的高度肯定,也意味着国产大模型在前沿能力上正实现从“跟跑”到“并跑”的质变。”胡双表示。
此次更新延续了DeepSeek“先发布后说明”的技术迭代策略。目前,技术社区正通过HuggingFace等平台积极测试新版R1在长文本理解、复杂推理等场景的实际表现。
此前,DeepSeek通过官方交流群发布通知,宣布完成R1模型的小版本试升级,用户可通过官方网页、App及小程序“深度思考”进行体验。值得注意的是,此次升级延续了DeepSeek“先内测后官宣”的迭代策略,API接口和使用方式保持不变。
这并非DeepSeek首次采用此种更新方式。今年3月25日,该公司就曾在官方交流群率先预告V3模型升级,随后正式发布DeepSeek-V3-0324版本,详细介绍了在推理能力、前端开发支持和中文写作等方面的优化。当时,该版本被海外专业AI评测机构评为得分最高的非推理模型,性能超越xAI的Grok3和OpenAI的GPT-4.5(preview)。
据《中国基金报》报道,此次R1模型升级引发了用户广泛讨论。多位用户反馈,新版模型在思维链(CoT)行为上展现出显著变化,主要亮点包括:深度推理能力提升,推理模式更接近Google先进模型;写作任务表现优化,输出更自然、格式更规范;形成独特的"快速且深思熟虑"的推理风格;支持长时间思考,单任务处理时长可达30-60分钟。“这表明DeepSeek不仅在算法优化上持续迭代,更在模型的行为表现、交互体验、以及多任务持续响应能力等方面,正探索更具人类思维特征的路径。”胡双表示,回顾DeepSeek今年1月首次发布R1模型,该模型以开源姿态切入高性能推理赛道,一举打开“低成本对标闭源旗舰”的想象空间。此次升级虽然未标榜“版本跃迁”,但实质上是对“R1性能上限”的又一次逼近。对于行业而言,这种“频繁的小步快跑”,恰是当前大模型技术生态演进的关键路径:开源不等于透明,但透明的数据与结果将倒逼整个行业加速。在OpenAI、xAI、Anthropic等闭源巨头节奏渐缓的背景下,DeepSeek此类“暗夜上新”,反而凸显出国内厂商对技术发布节奏的自主性与信心。
当然,外界更期待的是R2模型的正式亮相,尤其是在传言其参数规模或将突破1.2万亿的背景下。这将是DeepSeek“是否具备定义下一代模型标准能力”的关键标志。但从当前R10528的表现看,DeepSeek已展示出扎实的技术底盘、敏锐的用户洞察力和快速的产品迭代能力,具备“从技术型企业向产品型企业过渡”的成熟势能。
截至目前,DeepSeek尚未公布此次升级的完整技术细节。业界预计,参照过往惯例,官方将在近期发布详细的模型卡和升级说明。技术社区正密切关注新版模型在各领域的实际表现,期待其带来更多突破性应用场景。
常信科技CEO葛林波对中国工业报表示,DeepSeek开源R1模型0528版本并实现性能对标OpenAIo3,标志着中美AI竞赛进入技术扩散与生态博弈的新阶段。从技术突破看,R1在代码测试平台LiveCodeBench的表现逼近o3高版本,尤其在动态编程和算法优化领域差距微乎其微,其多模态能力已在医疗诊断、工业质检等场景落地,如凌云光将R1与机器视觉结合实现缺陷识别准确率99.7%。这种"推理优先"的技术路线,通过动态激活算法将计算量压缩至传统模型的6.5%,打破了西方依赖算力堆砌的路径依赖。
在开源生态层面,DeepSeek通过“真开源”策略构建开发者联盟,R1的API调用成本仅为o3的1/10,且支持私有化部署,这种“免费+分层服务”模式正在重构AI商业规则。周鸿祎曾指出,开源将成为中美竞争分水岭,中国可借此建立技术标准并形成虹吸效应。反观美国,尽管o3在复杂算法题中仍保持优势(Codeforces评分2727vsR1的2029),但其闭源生态和高昂调用成本(每百万tokens12美元)正在丧失中小企业市场。
地缘博弈层面,美国对华芯片出口管制反而加速了国产替代进程。DeepSeekR2已实现完全基于华为昇腾910B芯片训练,算力利用率达82%,性能接近英伟达A100集群的91%。这种"软硬协同"创新使推理成本降至0.27美元/百万Token,仅为GPT-4的2.7%,直接冲击了美国的技术垄断地位。正如黄仁勋所言,出口管制反而迫使中国企业加速自主创新。
当前竞赛焦点已从参数规模转向场景落地与生态构建。中国凭借庞大市场和垂直领域数据优势,正通过“模型即服务”(MaaS)模式快速渗透金融、教育等行业,而美国则在基础研究和高端医疗AI领域保持领先。未来胜负手在于谁能更快实现“技术突破-场景验证-产业落地”的正向循环,DeepSeek的开源策略与成本革命,或将改写全球AI权力格局。
电霰科技CEO祝凌云对中国工业报表示,DeepSeek上新,和国际的差距正在逐步消失,DeepSeek走上了快车道;芯片国产化很重要,未来的前景很大程度上仍取决于芯片。我国基础建设、产业链、一线工程师的数量和质量,仍是世界第一。
天娱数科首席数据官吴邦毅对中国工业报表示,国内大模型领域技术迭代的势头一直强劲。今年年初DeepSeek推出R1模型时,靠架构设计和工程优化上的创新,没走“堆算力”的老路子,在资源有限的情况下做出了一流的大语言模型性能,给行业趟出了一条降本增效的新道儿。从用户反馈来看,模型在深度推理、写作这些任务里表现明显不一样了,思维链更顺,说明在模型架构微调、训练算法和数据处理这些基础环节下了新功夫,这也说明整个行业都在琢磨怎么把模型性能做得更扎实。
想要保持技术领先,他认为有三个关键。一是在研发上砸基础,得把模型的泛化能力、知识理解深度这些底层能力往上提,把根基打稳。二是要把生态建起来,多搞开发者社区,鼓励大家基于模型做创新应用,靠开发者的点子把模型应用场景撑开,形成良性循环。三是得把国际交流的步子迈大,吸收点前沿思路,也让我们的技术实力被看见,这样才能在全球竞争里不落下风,真正跟国际一流水平掰掰手腕。
技术从不深夜沉睡,变革总在悄无声息中发生。DeepSeek此次静默上新的背后,或许正是中国大模型迈向全球第一梯队的“无声宣言”。