席卷全球AI圈!DeepSeek-V4成OpenClaw默认模型

澎湃新闻记者 范佳来
2026-04-26 17:43
来源:澎湃新闻

全球Agent(智能体)风向标OpenClaw官宣接入DeepSeek-V4。

4月26日,澎湃新闻记者获悉,OpenClaw(龙虾)正式官宣,已经全面接入DeepSeek-V4(Flash和Pro双版本),其中V4 Flash成为默认大模型,V4 Pro也已上线模型库。

据OpenClaw披露,最新的4.24版本更新包括:实时语音通话全面打通;DeepSeek-V4-Flash和Pro加入模型库;浏览器自动化增加了坐标点击和更好的恢复机制;Telegram、Slack、MCP、会话和TTS修复。

如今在龙虾里配置DeepSeek API,默认模型将不再是Deepseek-Chat,而是Deepseek-V4-Flash了。

“好奇DeepSeek-V4表现如何!”消息一出,在社交媒体上引发网友热议。此次龙虾迅速接入DeepSeek-V4,也是在全球层面上对于国产大模型DeepSeek的模型能力表达认可。

DeepSeek此次新模型发布,已经迅速引发AI圈关注。4月24日,DeepSeek-V4的预览版本正式上线并同步开源。DeepSeek-V4拥有百万字超长上下文,在Agent能力、世界知识和推理性能上均实现国内与开源领域的领先,DeepSeek-V4以1.6万亿总参数和49B激活参数,成为全球最大的开源模型,而V4-Flash则以284B总参数和13B激活参数,提供更小、更快、更便宜的解决方案,推理能力在Max模式下几乎追平Pro版本。

相比前代模型,DeepSeek-V4-Pro的Agent能力显著增强。在AgenticCoding评测中,V4-Pro已达到当前开源模型最佳水平,并在其他Agent相关评测中同样表现优异。

据了解,DeepSeek-V4开创一种全新的注意力机制,在Token维度进行压缩,结合DSA稀疏注意力(DeepSeekSparseAttention),实现全球领先的长上下文能力,并且相比于传统方法大幅降低了对计算和显存的需求,未来1M(一百万)上下文将是DeepSeek所有官方服务的标配。

此次DeepSeek在全球范围内再次广受关注,除了创新性的技术架构,核心在于对于国产芯片的全面适配,实现国产AI算力的快速崛起。华为计算发布信息称,昇腾超节点产品全面支持DeepSeek-V4。本次通过双方芯模技术紧密协同,实现昇腾超节点全系列产品支持DeepSeek-V4系列模型。

在DeepSeek-V4发布后,寒武纪也在第一时间宣布,基于vLLM推理框架完成了对此次DeepSeek-V4-flash和DeepSeek-V4-Pro两个版本的Day 0适配,适配代码已开源到GitHub社区。

其中,昇腾950通过融合kernel和多流并行技术降低Attention计算和访存开销,大幅提升推理性能,结合多种量化算法,实现了高吞吐、低时延的DeepSeek-V4模型推理部署。昇腾A3超节点系列产品也全面适配,同时为便于用户快速微调,提供了基于昇腾A3超节点的训练参考实现。

值得注意的是,DeepSeek也在持续推动AI“降价”浪潮。4月26日,DeepSeek宣布旗下V4-Pro模型API开启2.5折价格特惠,输入(缓存命中)价格为0.25元/百万Tokens,输入(缓存未命中)价格为3元/百万Tokens,输出价格为6元/百万Tokens,优惠期截至5月5日。

    责任编辑:郑景昕
    图片编辑:李晶昀
    校对:施鋆